صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

ورزش

سلامت

پژوهش

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

علم +

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
۱۱:۰۰ - ۱۸ تير ۱۳۹۶

چگونه از «ترمیناتور» جلوگیری کنیم

دو غول عرصه هوش مصنوعی در یک همکاری موفق شدند روشی را پیشنهاد کنند که در آن از تقلب ربات‌ها و استقلال آنها جلوگیری می‌شود.
کد خبر : 193405

به گزارش گروه علم و فناوری آنا به‌ نقل از Wired، یکی از کابوس‌هایی که در دهه گذشته خواب آرام را از تکنولوژی گرفته، احتمال بروز یک انقلاب رباتیک و شورش ماشین‌ها علیه انسان‌هاست، معروف‌ترین کابوس هم مجموعه فیلم‌های «ترمیناتور» (نابودگر) است که در آن یک هوش مصنوعی کنترل سلاح‌های کشتارجمعی را به‌دست می‌گیرد و به ربات‌ها دستور نابودی انسان را می‌دهد.


شرکت‌های «DeepMind» گوگل و «OpenAI»، که توسط ایلان ماسک بنیانگذاری شده است، در یک همکاری کم‌سابقه مقاله‌ای ارائه داده‌اند که در آن مشکل و خطر اصلی در این زمینه را آموختن تقلب توسط هوش مصنوعی معرفی می‌کند.


اگر به‌خاطر داشته باشید چند ماه قبل خبری مبنی بر حرفه‌ای شدن هوش مصنوعی در پوکر منتشر شد که در آن هوش مصنوعی توانسته بود روش‌های گول زدن رقبایش در بازی پوکر را بیاموزد. این خبر در زمان خود هیجان زیادی داشت اما نگرانی از استقلال فکری ربات‌ها را به‌شدت افزایش داد.


اکنون مقاله جدیدی که توسط دو بخش بسیار حرفه‌ای در هوش مصنوعی تهیه شده است، پیشنهاد می‌دهد که دانشمندان باید با تقلب کامپیوترها مبارزه کنند تا آنها نتوانند از مسیرهای استاندارد خارج شوند. روش تقلب در حل مساله، یک روش انسانی‌ است که نیازمند توانایی تحلیل منطقی بالایی‌ است. تصور کنید وقتی دستور این است که یک اتاق به‌هم ریخته تمیز شود، اگر تمام وسایلی که روی زمین است در کمدی چپانده شود،‌ در واقع دستور اجرا شده و اتاق مرتب شده است اما این روش درستی نیست که قرار بود کار انجام شود.


مقاله جدید پیشنهاد می‌کند که برای آموزش انجام کارها به هوش مصنوعی، به‌ جای اینکه دست کامپیوتر باز گذاشته شود تا هر راهی را برای اجرای دستور انتخاب کند، از روش آموزش انسانی استفاده شود.


در این روش، وقتی کاری از مسیر درست آن انجام شد، هوش مصنوعی بازخورد مثبت و تأییدیه دریافت می‌کند و فقط وقتی روش را در فهرست آموزه‌های درست خود ثبت می‌کند که بازخورد تأیید داشته باشد. اگرچه این روش آموزش بسیار زمان‌بر است و برخی دستاوردهای اخیر را به‌کلی از اعتبار خارج می‌کند اما دو فایده خواهد داشت. نخست اینکه هوش‌مصنوعی برای یادگیری نیازمند یک استاد انسانی‌ است و به‌ طور مستقل توانایی رشد نخواهد داشت و دوم اینکه دیگر نمی‌توان کارها بد را به یک کامپیوتر یاد داد.


مترجم: محمدرضا احمدی‌نیا




انتهای پیام/

ارسال نظر