صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

ورزش

سلامت

پژوهش

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

علم +

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

پیمانی جهانی برای جلوگیری از تولید سلاح‌های زیستی توسط هوش مصنوعی

بیش از ۱۰۰ دانشمند در برابر خطرات سلاح‌های زیستی هوش مصنوعی تعهد داده‌اند و بر تحقیقات مسئولانه و اقدامات اخلاقی تأکید دارند.
کد خبر : 900957

به گزارش خبرگزاری علم و فناوری آنا به نقل از اینترستینگ اینجینرینگ، راه‌های زیادی برای استفاده اشتباه از هوش مصنوعی وجود دارد. به عنوان مثال، هوش مصنوعی ممکن است به فعالان نظامی در برنامه‌های جنگی کمک کند. با این حال، برخی محدودیت‌ها برای مقابله با سوءاستفاده احتمالی از هوش مصنوعی اعمال شده است.

بیش از ۱۰۰ دانشمند در مجموع متعهد به رعایت ۱۰ سیاست برای جلوگیری از استفاده از هوش مصنوعی در زیست بوم‌ها شده‌اند. هدف از این سیاست‌ها جلوگیری از ایجاد زیست بوم‌های مبتنی بر هوش مصنوعی است.

این توافق حاصل نشست ۲۰۲۳ دانشگاه واشنگتن بود. هدف این نشست تأکید بر مدیریت ریسک فعال برای کاهش خطرات مرتبط با فناوری‌های هوش مصنوعی است که می‌تواند به صورت عمدی یا غیر عمدی برای ایجاد آسیب مورد بهره برداری قرار گیرد.

این توافق‌نامه به جای اعمال ممنوعیت در استفاده از هوش مصنوعی بر ایجاد اصول راهنما تمرکز دارد. در عوض، اقداماتی را برای جلوگیری از فجایع ناخواسته  مرتبط با دی‌ان‌ای مطرح می‌کند.

سیاست‌های اصلی شامل تعهد دانشمندان به عدم مشارکت در تحقیقات است که می‌تواند منجر به آسیب کلی یا سوء استفاده شود. علاوه بر این، دانشمندان متعهد می‌شوند که فقط از خدمات دی‌ان‌ای ارائه دهندگان مجهز به اقدامات غربالگری استفاده کنند.

این اقدامات شامل تشخیص بیومولکول‌های خطرناک قبل از تولید آن‌هاست. هدف آن‌ها این است که اطمینان حاصل کنند تحقیقات مبتنی بر هوش مصنوعی در مرز‌های اخلاقی باقی می‌مانند و از پیامد‌های ناخواسته جلوگیری می‌کنند.

علاوه بر این، این توافق‌نامه می‌گوید که دانشمندان باید پیش از انتشار نرم افزار‌های مبتنی بر هوش مصنوعی، خطرات ایمنی را ارزیابی کرده و درتمرین‌های «تیم قرمز» شرکت کنند. تمرینات تیم قرمز شامل تمرینات شبیه سازی شده برای شناسایی نقاط ضعف بالقوه در پروتکل‌های غربالگری است.

این روش‌ها هر سناریویی را که تهدید بالقوه‌ای در مورد زیست بوم‌های هوش مصنوعی باشد، شناسایی و متوقف خواهند کرد. شبیه سازی نشان می‌دهد که شما هرگز نمی‌توانید خیلی مراقب باشید، اما همیشه محتاط باشید.

پیمانی جهانی برای جلوگیری از تولید سلاح‌های زیستی

این سیاست‌ها در بین بسیاری از افراد طنین‌انداز شده است، زیرا دانشمندان فردی از مؤسساتی مانند هاروارد و سایر کشور‌ها در کشور‌هایی مانند آلمان و ژاپن این توافق را تأیید کرده‌اند. قابل ذکر است، اریک هورویتز، مدیر ارشد علمی مایکروسافت، به همراه متخصصان شرکت‌هایی مانند «منتن ای‌آی» (ProteinQure)، «پروتئین کییِر» (Menten AI) و «پرفورنت بایو» (Profluent Bio) نیز این قرارداد را امضا کرده‌اند.

در حالی که این توافق اختیاری است و به تعهدات دانشمند فردی دلالت می‌کند، این امید وجود دارد که موسسات و همکاران به طور جمعی سیاست‌های مشخص شده را اتخاذ کنند. این توافق اختیاری جدید پس از آن صورت گرفت که داریو آمودی، مدیر عامل آنتروپیک، سال گذشته گفت که سلاح‌های زیستی مبتنی بر هوش مصنوعی خطری «میان‌مدت» هستند، اما تنها چند سال با آن فاصله دارند.

آمودی خاطرنشان کرد: مراحل خاصی در تولید سلاح‌های زیستی شامل دانشی است که در گوگل یا کتاب‌های درسی یافت نمی‌شود و به تخصص بالایی نیاز دارد. ما متوجه شدیم که ابزار‌های هوش مصنوعی امروزی می‌توانند برخی از این مراحل را پر کنند.

قوانین جامع فدرال ایالات متحده در مورد استفاده از هوش مصنوعی هنوز در حال توسعه است. کاخ سفید طرح منشور حقوق هوش مصنوعی را در سال ۲۰۲۲ پیشنهاد کرد. علاوه بر این، طبق کنفرانس ملی قانونگذاران ایالتی ایالات متحده، ۱۸ ایالت و پورتوریکو قوانین یا قطعنامه‌های مختلفی را در مورد استفاده از هوش مصنوعی در سال گذشته تصویب کردند.

این توافق با عنوان «ارزش‌های جامعه، اصول راهنما، و تعهدات توسعه مسئولانه هوش مصنوعی برای طراحی پروتئین» شناخته می‌شود.

انتهای پیام/

ارسال نظر