دیده بان پیشرفت علم، فناوری و نوآوری

چه مباحثی در نشست جهانی ایمنی هوش مصنوعی مطرح می‌شود؟

چه مباحثی در نشست جهانی ایمنی هوش مصنوعی مطرح می‌شود؟
کارشناسان سراسر دنیا در مورد تهدیدات هوش مصنوعی اختلاف نظر دارند و در نشست ایمنی هوش مصنوعی با حضور رهبران جهان درباره نگرانی‌هایشان صحبت خواهند کرد.
کد خبر : 869621

به گزارش گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا به نقل از گاردین، «ریشی سوناک»، نخست‌وزیر انگلیس برای برجسته کردن جنایتکاران یا تروریست‌های خطرناک می‌تواند هنگام شرکت در نشست ایمنی جهانی از هوش مصنوعی استفاده کند.

کارشناسان در مورد تهدیدات اختلاف نظر دارند؛ اما نمی‌توان هوش مصنوعی را نادیده گرفت. نگرانی در مورد اینکه جنایتکاران یا تروریست‌ها می‌توانند از هوش مصنوعی برای ایجاد کشتار جمعی استفاده کنند، بر بحث در نشست رهبران جهان غالب خواهد شد؛ زیرا نگرانی‌ها در مورد قدرت نسل بعدی پیشرفت‌های فناوری افزایش می‌یابد.

تنظیم بیانیه‌ای مشترک برای خطرات هوش مصنوعی

مقامات بریتانیایی پیش از اجلاس ایمنی هوش مصنوعی در ماه نوامبر به نقاط دیگر جهان سفر می‌کنند؛ زیرا به دنبال اجماع بر سر بیانیه‌ای مشترک هستند که در مورد خطرات استفاده بازیگران سرکش از این فناوری در مقیاس بزرگ هشدار می‌دهد.

برخی از اطرافیان ریشی سوناک نگران هستند که این فناوری به‌ زودی آن‌قدر قدرتمند خواهد شد تا به افراد سودجو کمک کند که سلاح‌های زیستی بسازند یا به طور کلی از کنترل انسان فرار کنند. پس از بحث‌های اخیر با مدیران ارشد فناوری، مقامات به طور فزاینده‌ای در مورد چنین احتمالاتی نگران شده‌اند.

هفته گذشته، دانشمندی که خواستار توقف در توسعه سیستم‌های هوش مصنوعی شده بود، گفت: مدیران فناوری به طور خصوصی با مفهوم وقفه موافق بودند، اما احساس می‌کردند که در یک مسابقه با رقبا محبوس شده‌اند.

یکی از افرادی که در مورد گفت‌وگو‌های اجلاس توضیح داده، گفت: هدف این اجلاس هشدار دادن در مورد خطرات هوش مصنوعی مرزی است، این همان چیزی است که باید بیشتر روی آن تمرکز کرد.

هوش مصنوعی مرزی اصطلاحی است که برای اشاره به پیشرفته‌ترین مدل‌های هوش مصنوعی استفاده می‌شود که می‌توانند آن‌قدر خطرناک باشند که زندگی انسان را به خطر بیندازند.

سوناک در مورد خطرات ناشی از هوش مصنوعی هشدار داده و از جامعه بین‌المللی خواسته که از ریل‌های محافظ برای جلوگیری از سوء‌استفاده استفاده کند.

هیچ ۱۰ هوش مصنوعی نگران کننده نمی‌تواند برای ساخت سلاح‌های زیستی استفاده شود

چت جی‌پی‌تی هم دروغ می‌گوید

«اولیور داودن»، معاون نخست‌وزیر انگلیس در مجمع عمومی سازمان ملل متحد به رهبران جهان گفت: از آن جایی که شرکت‌های فناوری و بازیگران غیردولتی اغلب در هوش مصنوعی نفوذ دارند، این چالش نیازمند شکل جدیدی از چندجانبه‌گرایی است.

سال گذشته، یک ابزار هوش مصنوعی تنها ۶ ساعت طول کشید تا ۴۰ هزار مولکول مختلف بالقوه کشنده را معرفی کند که برخی از آن‌ها شبیه به «وی‌ایکس» (VX) قوی‌ترین عامل عصبی‌ای بود که تاکنون ساخته شده است. در اوایل سال جاری، محققان دریافتند که «چت جی‌پی‌تی» (ChatGPT) قادر است برای رسیدن به یک هدف خاص به انسان دروغ بگوید.

چت ربات هوش مصنوعی یک فرد را متقاعد کرد تا ابزار «کپچا» (Captcha) را که برای از بین بردن ربات‌ها به صورت آنلاین طراحی شده، بررسی کند، پس از آن گفت که یک فرد دارای اختلال بینایی است و برای دسترسی به یک وب‌سایت به کمک نیاز دارد.

ساخت سلاح زیستی با کمک هوش مصنوعی

منابع دولتی نگران هستند که هر جنایتکار یا تروریستی بتواند از هوش مصنوعی برای کشف مواد تشکیل‌دهنده یک سلاح زیستی استفاده کند. برخی بر این باورند که این خطر به‌زودی به طور تصاعدی افزایش خواهد یافت، زیرا شرکت‌ها در حال حاضر صد‌ها میلیون پوند برای پردازنده‌های بسیار قدرتمند برای آموزش نسل بعدی ابزار‌های هوش مصنوعی هزینه کرده‌اند.

نگرانی مهم دیگر، ظهور هوش مصنوعی عمومی است که می‌تواند به طور مستقل هر کاری را در سطح انسانی یا بالاتر از انسان انجام دهد و می‌تواند خطر وجودی برای انسان ایجاد کند.

هوش مصنوعی جامع یا «ای‌جی‌آی» (AGI) نیز مورد انتقاد قرار گرفته و کارشناسان استدلال می‌کنند که نگرانی‌هایی مانند نادیده گرفتن اطلاعات نادرست و خطر تثبیت قدرت شرکت‌های فناوری پیشرو با معرفی مقرراتی که تازه واردان را حذف می‌کند، ایجاد کند.

یکی از مدیران ارشد فناوری به قانون‌گذاران آمریکایی گفت: مفهوم هوش مصنوعی جامع غیرقابل کنترل است. با این وجود، سوناک می‌خواهد از این اجلاس برای تمرکز بر خطرات وجودی استفاده کند، نه احتمالات فوری‌تر که می‌توان از هوش مصنوعی برای ایجاد تصاویر عمیق جعلی استفاده کرد.

«بندیکت مکون کونی»، استراتژیست ارشد سیاست که به‌تازگی یک گزارش در مورد هوش مصنوعی منتشر کرده، گفت: با توسعه فناوری‌های نوین باید مطمئن شویم که به امنیت زیستی هم پاسخ می‌دهیم. بسیاری در صنعت هوش مصنوعی به سیاستمداران گفته‌اند که این خطری واقعی است. این سوال از سیاستمداران پرسیده شد که آن‌ها باید پاسخ روشنی بدهند.

هیچ ۱۰ هوش مصنوعی نگران کننده نمی‌تواند برای ساخت سلاح‌های زیستی استفاده شود

کشورها فناوری‌های خود را دیکته نکنند

قرار است چند رهبر جهان از جمله «جاستین ترودو»، نخست‌وزیر کانادا و «امانوئل مکرون»، رئیس‌جمهور فرانسه در این اجلاس شرکت کنند. انگلیس از چین برای حضور در این نشست دعوت کرده، اما در بحبوحه نگرانی از جاسوسی چین در دموکراسی‌های غربی، در حال بررسی اجازه دادن به مقامات پکن برای حضور در بخشی از اجلاس است.

انگلیس مشتاق است بیانیه‌ای رسمی داشته باشد که رهبران بتوانند آن را امضا کنند و همچنین متعهد به برگزاری نشست‌های دیگری از این دست در آینده باشند.

به اعتقاد مقامات، بهترین راه برای دستیابی به توافق میان چنین طیف متنوعی از کشورها، تمرکز بر بازیگران غیردولتی است، نه تلاش برای دیکته کردن کشور‌ها برای توسعه فناوری خود.

مقامات انگلیس قصد دارند از این اجلاس استفاده کنند تا از شرکت‌های سراسر جهان بخواهند ابزار‌های هوش مصنوعی خود را قبل از انتشار گسترده‌تر برای ارزیابی به این کشور بفرستند.

«الیور داودن»، معاون نخست‌وزیر انگلیس گفت: تنها دولت‌های ملی می‌توانند اطمینان دهند که مهم‌ترین نگرانی‌های امنیت ملی برطرف شده است. هوش مصنوعی پتانسیل بسیار زیادی برای تغییر هر جنبه از زندگی ما دارد. گروه ضربت هوش مصنوعی مرزی برای اطمینان از توسعه ایمن و مسئولانه این فناوری ایجاد شده و در اجلاس ایمنی هوش مصنوعی تعدادی از خطرات احتمالی بررسی می‌شود.

انتهای پیام/

ارسال نظر