پیمانی جهانی برای جلوگیری از تولید سلاحهای زیستی توسط هوش مصنوعی
به گزارش خبرگزاری علم و فناوری آنا به نقل از اینترستینگ اینجینرینگ، راههای زیادی برای استفاده اشتباه از هوش مصنوعی وجود دارد. به عنوان مثال، هوش مصنوعی ممکن است به فعالان نظامی در برنامههای جنگی کمک کند. با این حال، برخی محدودیتها برای مقابله با سوءاستفاده احتمالی از هوش مصنوعی اعمال شده است.
بیش از ۱۰۰ دانشمند در مجموع متعهد به رعایت ۱۰ سیاست برای جلوگیری از استفاده از هوش مصنوعی در زیست بومها شدهاند. هدف از این سیاستها جلوگیری از ایجاد زیست بومهای مبتنی بر هوش مصنوعی است.
این توافق حاصل نشست ۲۰۲۳ دانشگاه واشنگتن بود. هدف این نشست تأکید بر مدیریت ریسک فعال برای کاهش خطرات مرتبط با فناوریهای هوش مصنوعی است که میتواند به صورت عمدی یا غیر عمدی برای ایجاد آسیب مورد بهره برداری قرار گیرد.
این توافقنامه به جای اعمال ممنوعیت در استفاده از هوش مصنوعی بر ایجاد اصول راهنما تمرکز دارد. در عوض، اقداماتی را برای جلوگیری از فجایع ناخواسته مرتبط با دیانای مطرح میکند.
سیاستهای اصلی شامل تعهد دانشمندان به عدم مشارکت در تحقیقات است که میتواند منجر به آسیب کلی یا سوء استفاده شود. علاوه بر این، دانشمندان متعهد میشوند که فقط از خدمات دیانای ارائه دهندگان مجهز به اقدامات غربالگری استفاده کنند.
این اقدامات شامل تشخیص بیومولکولهای خطرناک قبل از تولید آنهاست. هدف آنها این است که اطمینان حاصل کنند تحقیقات مبتنی بر هوش مصنوعی در مرزهای اخلاقی باقی میمانند و از پیامدهای ناخواسته جلوگیری میکنند.
علاوه بر این، این توافقنامه میگوید که دانشمندان باید پیش از انتشار نرم افزارهای مبتنی بر هوش مصنوعی، خطرات ایمنی را ارزیابی کرده و درتمرینهای «تیم قرمز» شرکت کنند. تمرینات تیم قرمز شامل تمرینات شبیه سازی شده برای شناسایی نقاط ضعف بالقوه در پروتکلهای غربالگری است.
این روشها هر سناریویی را که تهدید بالقوهای در مورد زیست بومهای هوش مصنوعی باشد، شناسایی و متوقف خواهند کرد. شبیه سازی نشان میدهد که شما هرگز نمیتوانید خیلی مراقب باشید، اما همیشه محتاط باشید.
پیمانی جهانی برای جلوگیری از تولید سلاحهای زیستی
این سیاستها در بین بسیاری از افراد طنینانداز شده است، زیرا دانشمندان فردی از مؤسساتی مانند هاروارد و سایر کشورها در کشورهایی مانند آلمان و ژاپن این توافق را تأیید کردهاند. قابل ذکر است، اریک هورویتز، مدیر ارشد علمی مایکروسافت، به همراه متخصصان شرکتهایی مانند «منتن ایآی» (ProteinQure)، «پروتئین کییِر» (Menten AI) و «پرفورنت بایو» (Profluent Bio) نیز این قرارداد را امضا کردهاند.
در حالی که این توافق اختیاری است و به تعهدات دانشمند فردی دلالت میکند، این امید وجود دارد که موسسات و همکاران به طور جمعی سیاستهای مشخص شده را اتخاذ کنند. این توافق اختیاری جدید پس از آن صورت گرفت که داریو آمودی، مدیر عامل آنتروپیک، سال گذشته گفت که سلاحهای زیستی مبتنی بر هوش مصنوعی خطری «میانمدت» هستند، اما تنها چند سال با آن فاصله دارند.
آمودی خاطرنشان کرد: مراحل خاصی در تولید سلاحهای زیستی شامل دانشی است که در گوگل یا کتابهای درسی یافت نمیشود و به تخصص بالایی نیاز دارد. ما متوجه شدیم که ابزارهای هوش مصنوعی امروزی میتوانند برخی از این مراحل را پر کنند.
قوانین جامع فدرال ایالات متحده در مورد استفاده از هوش مصنوعی هنوز در حال توسعه است. کاخ سفید طرح منشور حقوق هوش مصنوعی را در سال ۲۰۲۲ پیشنهاد کرد. علاوه بر این، طبق کنفرانس ملی قانونگذاران ایالتی ایالات متحده، ۱۸ ایالت و پورتوریکو قوانین یا قطعنامههای مختلفی را در مورد استفاده از هوش مصنوعی در سال گذشته تصویب کردند.
این توافق با عنوان «ارزشهای جامعه، اصول راهنما، و تعهدات توسعه مسئولانه هوش مصنوعی برای طراحی پروتئین» شناخته میشود.
انتهای پیام/