تنظیم مقررات برای جلوگیری از نابودی بشریت توسط هوش مصنوعی
به گزارش خبرنگار خبرگزاری علم و فناوری آنا، رهبران شرکت «OpenAI» که چت جیپیتی را توسعه دادهاند به منظور حفاظت از بشریت در برابر هوش مصنوعی «فوقهوشمند» خواستار ایجاد سازمانی معادل آژانس بینالمللی انرژی اتمی شدند.
در یادداشت کوتاهی که در وب سایت این شرکت منتشر شده است، بنیانگذاران گرگ براکمن و ایلیا سوتسکور و مدیر اجرایی سم آلتمن، از یک تنظیم کننده بین المللی میخواهند تا در مورد چگونگی بازرسی سیستم ها، نیاز به ممیزی، تست انطباق با استانداردهای ایمنی شروع به کارکند. [و]محدودیتهایی را برای درجات استقرار و سطوح امنیتی به منظور کاهش "خطر وجودی" چنین سیستمهایی ایجاد کند.
آنها نوشتند: «می توان تصور کرد که در ۱۰ سال آینده، سیستمهای هوش مصنوعی در بیشتر حوزهها از سطح مهارتهای متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکتهای امروزی فعالیتهای سازندهای را انجام خواهند داد. از نظر جنبههای مثبت و منفی بالقوه، ابر هوش قویتر از سایر فناوریهایی است که بشر در گذشته مجبور به مبارزه با آنها بوده است. ما میتوانیم آیندهای به طور چشمگیری مرفهتر داشته باشیم. اما برای رسیدن به آن باید خطرات آن را مدیریت کنیم. با توجه به احتمال خطر وجودی، ما نمیتوانیم فقط در مقابل آن واکنش نشان دهیم.»
این سه نفر در کوتاه مدت خواستار «درجاتی از هماهنگی» میان شرکتهایی هستند که بر روی تحقیقات پیشرفته هوش مصنوعی کار میکنند، تا اطمینان حاصل شود که توسعه مدلهای قویتر به راحتی با جامعه ادغام میشود و در عین حال ایمنی را در اولویت قرار میدهد. این هماهنگی میتواند از طریق یک پروژه تحت رهبری دولت، یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.
محققان دهها سال است که درباره خطرات بالقوه این ابرهوش هشدار میدهند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینیتر شدهاند. مرکز ایمنی هوش مصنوعی (CAIS) مستقر در ایالات متحده، که برای «کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی» کار میکند، هشت دسته خطر «فاجعه بار» و «وجودی» را که توسعه هوش مصنوعی میتواند ایجاد کند، توصیف میکند.
در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیبهای مخرب دیگری را توصیف میکند. جهانی که در آن سیستمهای هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست میآورند، میتواند منجر به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشینها توسط بشر» شود که به عنوان «ناتوانی» توصیف میشود؛ و گروه کوچکی از افراد که سیستمهای قدرتمند را کنترل میکنند، میتوانند هوش مصنوعی را به یک نیروی متمرکز تبدیل کنند، که منجر به از بین بردن ارزش ها شود.
رهبران OpenAI میگویند که این خطرات به این معنی است که مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیتها و پیش فرضهای سیستمهای هوش مصنوعی تصمیم بگیرند، اما اذعان دارند که ما هنوز نمیدانیم چگونه چنین مکانیزمی را طراحی کنیم. با این حال، آنها میگویند توسعه مداوم سیستمهای قدرتمند ارزش ریسک را دارد.
آنها در این بیانیه نوشتند: ما معتقدیم که این امر به دنیایی بسیار بهتر از آنچه امروز میتوانیم تصور کنیم منجر خواهد شد. ما در حال حاضر نمونههای اولیه آن را در زمینههایی مانند آموزش، کار خلاق و بهره وری شخصی میبینیم. آنها هشدار میدهند که توقف توسعه هوش مصنوعی نیز میتواند خطرناک باشد. از آنجایی که نکات مثبت بسیار زیادی دارد، هزینه ساخت آن هر سال کاهش مییابد، تعداد بازیگرانی که آن را میسازند به سرعت در حال افزایش است، و ذاتاً بخشی از مسیر تکنولوژیکی است که ما در آن قرار داریم. توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد، و حتی این کار تضمینی نیست؛ بنابراین ما باید آن را درست انجام دهیم.
انتهای پیام/