چگونه از «ترمیناتور» جلوگیری کنیم
به گزارش گروه علم و فناوری آنا به نقل از Wired، یکی از کابوسهایی که در دهه گذشته خواب آرام را از تکنولوژی گرفته، احتمال بروز یک انقلاب رباتیک و شورش ماشینها علیه انسانهاست، معروفترین کابوس هم مجموعه فیلمهای «ترمیناتور» (نابودگر) است که در آن یک هوش مصنوعی کنترل سلاحهای کشتارجمعی را بهدست میگیرد و به رباتها دستور نابودی انسان را میدهد.
شرکتهای «DeepMind» گوگل و «OpenAI»، که توسط ایلان ماسک بنیانگذاری شده است، در یک همکاری کمسابقه مقالهای ارائه دادهاند که در آن مشکل و خطر اصلی در این زمینه را آموختن تقلب توسط هوش مصنوعی معرفی میکند.
اگر بهخاطر داشته باشید چند ماه قبل خبری مبنی بر حرفهای شدن هوش مصنوعی در پوکر منتشر شد که در آن هوش مصنوعی توانسته بود روشهای گول زدن رقبایش در بازی پوکر را بیاموزد. این خبر در زمان خود هیجان زیادی داشت اما نگرانی از استقلال فکری رباتها را بهشدت افزایش داد.
اکنون مقاله جدیدی که توسط دو بخش بسیار حرفهای در هوش مصنوعی تهیه شده است، پیشنهاد میدهد که دانشمندان باید با تقلب کامپیوترها مبارزه کنند تا آنها نتوانند از مسیرهای استاندارد خارج شوند. روش تقلب در حل مساله، یک روش انسانی است که نیازمند توانایی تحلیل منطقی بالایی است. تصور کنید وقتی دستور این است که یک اتاق بههم ریخته تمیز شود، اگر تمام وسایلی که روی زمین است در کمدی چپانده شود، در واقع دستور اجرا شده و اتاق مرتب شده است اما این روش درستی نیست که قرار بود کار انجام شود.
مقاله جدید پیشنهاد میکند که برای آموزش انجام کارها به هوش مصنوعی، به جای اینکه دست کامپیوتر باز گذاشته شود تا هر راهی را برای اجرای دستور انتخاب کند، از روش آموزش انسانی استفاده شود.
در این روش، وقتی کاری از مسیر درست آن انجام شد، هوش مصنوعی بازخورد مثبت و تأییدیه دریافت میکند و فقط وقتی روش را در فهرست آموزههای درست خود ثبت میکند که بازخورد تأیید داشته باشد. اگرچه این روش آموزش بسیار زمانبر است و برخی دستاوردهای اخیر را بهکلی از اعتبار خارج میکند اما دو فایده خواهد داشت. نخست اینکه هوشمصنوعی برای یادگیری نیازمند یک استاد انسانی است و به طور مستقل توانایی رشد نخواهد داشت و دوم اینکه دیگر نمیتوان کارها بد را به یک کامپیوتر یاد داد.
مترجم: محمدرضا احمدینیا
انتهای پیام/