هشدار دانشمندان درباره کنترل هوش مصنوعی/ مواظب رشد افسارگسیخته فناوری باشید
گروه علم و فناوری خبرگزاری آنا، نوید فرخی؛ پیشرفتهای دهه اخیر در عرصه هوش مصنوعی مسائل مختلف فلسفی و اخلاقی را ایجاد کرده که تا پیش از آن سابقه نداشته است. شاید یکی از مهمترین موارد این است که آیا بشریت قادر به کنترل ماشینهای خودمختار خواهد بود یا خیر. دیدن روباتهایی که مسئولیت کارهای خانه یا وسایل نقلیه خودران را بر عهده گرفته و به هوش مصنوعی مجهز شدهاند، روز به روز برای مردم عادیتر میشود. در حالی که این نوع فناوری زندگی را آسان میکند، اما میتواند به طریقی که فکرش را هم نمیکنید آن را پیچیدهتر کند!
بازگشت دوباره هوش مصنوعی
هوش مصنوعی در دهه هشتاد و نود و ابتدای قرن جدید تا حدود زیادی از کانون توجهات خارج شده بود اما در دهه اخیر دوباره مورد توجه قرار گرفته است. این امر سه دلیل اصلی داشته است:
الف) ما قدرت خام بیشتری داریم چون منابع محاسباتی افزایش داشته است(کامپیوترهای امروزی میتوانند بهتر و سریعتر فکر کنند!). تکنیکها در گذشته هم بهخوبی کار میکردند اما نمیتوانستیم تعداد کامپیوترها را کم و زیاد کنیم و توسعهپذیری کمی وجود داشت. در حال حاضر کامپیوترها روی گرید محاسباتی با تعدادی پویا میتوانند به خوبی عمل کنند.
ب) ما شاهد یک رشد انفجاری در حوزه دادههای در دسترس برای ماشینها بودهایم(سیستمها محتوای بیشتری دارند تا روی آن فکر کنند). این بدان معناست که سیستمهای یادگیری که به خصوص با دادههای بیشتر، عملیاتشان را بهتر انجام میدهند حالا قادرند به جای چند صد نمونه داده، با میلیاردها نمونه سر و کار داشته باشند.
ج)ما شاهد یک تغییر رویه در زمینه هوش مصنوعی هستیم. هوش مصنوعی از تمرکز سطحی(در گسترهای وسیع)، به صورت عمیق روی مسائل مشخصی متمرکز شده است. اپلیکیشنهای هوش مصنوعی در حال حاضر روی چیزی مشخص فکر میکنند در عوض اینکه بدون تمرکز کافی رویاپردازی کنند. سیستمهایی مثل Siri و Cortana در حوزههای محدود و معینی که بهخوبی قابل مدلسازی هستند کار میکنند و به صورت عمیق تلاش دارند مطالب را بفهمند.
قوانین هوش مصنوعی
قوانین روبوتیک مجموعهای از قوانین و اصولی است که به عنوان یک چارچوب اساسی برای تأکید بر رفتار روبوتها طراحی شده تا درجهای از استقلال برای آنها در نظر گیرد. خوشبختانه هنوز روباتهایی در این سطح از پیچیدگی، هنوز وجود ندارند، اما به غیر از داستانهای علمی-تخیلی و فیلمها، تحقیقاتی جدی نیز در پیشرفتهای نگرانکننده روباتیک و هوش مصنوعی صورت گرفته است که ضرورت تدوین قوانینی را برای جلوگیری از شورش روباتها در آینده ضروری میسازد. یکی از رویدادهایی که در لیستهای مختلف نسبت به آن هشدار داده شده است، تکینگی فناوری است. براساس فرضیه تکینگی فناوری، پیشبینی میشود که شتاب در فناوری در نهایت باعث خواهد شد که هوش مصنوعی از هوش انسان سبقت گیرد و منجر به تغییرات بزرگ یا حتی پایان یافتن تمدن بشری شود. بدین منظور افراد مختلف دست به نگارش قوانین در این حوزه کردهاند. بهترین قانون شناختهشده، قوانینی است که توسط آیزاک آسیموف در دهه 1940 نوشته شده است. براساس قوانین آسیموف، بسیاری دیگر نیز قوانین خودشان را طی دهههای مختلف ارائه دادهاند. اما تهدید روباتها چقدر جدی است؟
تحقیقات تازه
یک گروه بینالمللی از محققان در مورد خطرات احتمالی ایجاد یک نرمافزار کاملاً قدرتمند و مستقل هشدار دادهاند. دانشمندان با استفاده از یک سری محاسبات نظری، نحوه کنترل هوش مصنوعی را بررسی کردند. بر اساس مطالعه منتشرشده توسط پورتال تحقیقات هوش مصنوعی، نتیجهگیری آنها این بوده است که به تحت کنترل درآوردن هوش مصنوعی غیرممکن است! شاید یک ماشین فوقالعاده هوشمند که جهان را کنترل میکند شبیه به داستانهای علمی-تخیلی به نظر برسد. اما در حال حاضر ماشینهایی وجود دارند که برخی از کارهای مهم را به طور مستقل انجام میدهند. نکتهای که حائز اهمیت است این است که روباتها بدون اینکه برنامهنویسان انسانی کاملاً بفهمند که چگونه مسائل را فراگرفتهاند، مسائل را میآموزند و این وضعیتی است که ممکن است در برخی موارد غیرقابل کنترل شود و برای بشریت خطرناک باشد.
دانشمندان برای بررسی این مسئله، دو روش را برای کنترل هوش مصنوعی آزمایش کردند. یکی از آن موارد این بود که اینترنت را از آن بگیرید و از سایر دستگاهها جدا کنید تا بدین وسیله ارتباط آن را با دنیای خارج محدود کنید. در چنین حالتی مشکل این بود که این امر توانایی ماشین را در انجام توابعی که به آن منظور ایجاد شده بود بسیار کاهش میداد. مورد دیگر طراحی «الگوریتم مهار نظری» بود تا اطمینان حاصل شود که هوش مصنوعی تحت هیچ شرایطی نمیتواند به مردم آسیب برساند. با این حال، تجزیه و تحلیل الگوی محاسبات فعلی نشان داد که چنین الگوریتمی نمیتواند ایجاد شود. اگر این مسئله را به قوانین اساسی محاسبات نظری تجزیه کنیم، معلوم میشود که الگوریتمی که به هوش مصنوعی دستور میدهد جهان را نابود نکند، میتواند ناخواسته و غیرعمدی عملیات خود را متوقف سازد. اگر این اتفاق بیفتد، ما نمیدانیم که الگوریتم مهار به تحلیل تهدید ادامه میدهد یا برای رضایت AI مضر متوقف میشود. در واقع این الگوریتم مهار را غیرقابل استفاده میکند.
بر اساس این محاسبات، مسئله این است که هیچ الگوریتمی نمیتواند تعیین کند که آیا هوش مصنوعی به دنیا آسیب میرساند یا خیر. محققان همچنین خاطرنشان کردهاند که بشریت حتی نمیتواند از زمان ورود ماشینهای فوق هوشمند مطلع باشد زیرا تصمیمگیری در مورد داشتن یک دستگاه بالاتر از هوش انسان در قلمرو مسئله مهار قرار میگیرد
انتهای پیام/4160/پ
انتهای پیام/