خطر اجتماعی هوش مصنوعی؛ همتراز با بیماریهای همهگیر!
به گزارش خبرگزاری علم و فناوری آنا به نقل از گاردین، «مکس تگمارک»، محقق هوش مصنوعی مؤسسه فناوری ماساچوست، نامهای سرگشاده در ماه مارس ترتیب داد و خواستار توقف ششماهه توسعه سیستمهای هوش مصنوعی غول پیکر شد. با وجود حمایت بیش از ۳۰ هزار امضاکننده ازجمله ایلان ماسک و استیو وزنیاک، بنیانگذار اپل، این سند نتوانست وقفهای در توسعه جاهطلبانهترین این سیستمها ایجاد کند.
تگمارک ۶ ماه بعد گفت که انتظار نداشت این نامه مانع از کار شرکتهای فناوری روی مدلهای هوش مصنوعی قدرتمندتر از «جیپیتی-۴» ( GPT-۴) شود؛ زیرا رقابت بسیار شدید شده است.
به گفته وی بسیاری از رهبران شرکتها میخواستند مانع این توسعه شوند؛ اما آنها در این رقابت به دام افتادند؛ بنابراین هیچ شرکتی نمیتوانست آن را متوقف کند. این نامه از دولتها میخواهد که در صورت عدم امکان توقف توسعه سیستمهای قدرتمندتر از جیپیتی-۴، حداقل در آن مداخله کنند.
بین شرکتهای پیشرو هوش مصنوعی مانند گوگل، «اوپنایآی» (OpenAI) و مایکروسافت توافق شده است. این سؤال در میان آنها پرسیده شد که آیا باید ذهنهای غیرانسانی را پرورش دهیم که ممکن است درنهایت جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را داشته باشیم؟
تگمارک گفت که این نامه را موفقیتآمیز میداند. وی با اشاره به بیداری سیاسی در زمینه هوش مصنوعی که شامل جلسات استماع سنای آمریکا با مدیران فناوری و دولت انگلیس برای تشکیل اجلاس جهانی در مورد ایمنی هوش مصنوعی در ماه نوامبر بود، گفت: «این نامه بیش از آنچه فکر میکردم، تأثیر داشته است.»
نامه اندیشکده وی در ماه مه با بیانیهای از مرکز ایمنی هوش مصنوعی با حمایت صدها نفر از مدیران فناوری و دانشگاهیان همراه شد و اعلام کرد که هوش مصنوعی باید یک خطر اجتماعی همتراز با بیماریهای همهگیر و جنگ هستهای در نظر گرفته شود.
محقق هوش مصنوعی موسسه فناوری ماساچوست میگوید: «احساس میکردم که نگرانیهای زیادی در مورد پیشبرد هوش مصنوعی وجود دارد که مردم در سراسر جهان از بیان آن میترسند.»
نگرانیها در مورد توسعه هوش مصنوعی از توانایی تولید ویدئوهای جعلی عمیق، تولید اطلاعات نادرست تا خطر وجودی ناشی از هوش مصنوعی فوق هوشمندی که از کنترل انسان طفره میرود یا تصمیمات غیرقابل برگشت، متغیر است.
به گفته تگمارک اجلاس امنیت هوش مصنوعی انگلیس که در نوامبر برگزار میشود، باید سه دستاورد را هدف قرار دهد. ایجاد درک مشترک از شدت خطرات ناشی از هوش مصنوعی با درک اینکه یک پاسخ جهانی یکپارچه موردنیاز است. همچنین نیاز به مداخله فوری دولتها وجود دارد. ساخت مدلهای قدرتمندتر از آنچه اکنون داریم، باید متوقف شود تا زمانی که استانداردهای ایمنی برآورده شوند.
تگمارک همچنین از دولتها خواست تا در مورد مدلهای هوش مصنوعی منبع باز که عموم مردم میتوانند به آنها دسترسی داشته باشند، اقدام کنند.
متا بهتازگی یک مدل زبانی بزرگ منبع باز به نام «لاما-۲» (Llama-۲) را منتشر کرده است. یک کارشناس بریتانیایی هشدار داده که چنین اقدامی شبیه دادن الگوی ساختن بمب هستهای به مردم است.
تگمارک در این باره معتقد است: «فناوری خطرناک نباید منبع باز باشد، صرف نظر از اینکه سلاحهای زیستی یا نرمافزاری باشند.»
انتهای پیام/