صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
۱۵:۴۶ - ۱۸ مهر ۱۳۹۴

استیون هاوکینگ: خطر هوش مصنوعی از نظر صلاحیت است نه غرض‌ورزی

هوش مصنوعی یکی از مقوله‌هایی است که اخیرا استیون هاوکینگ در محافل علمی از خطرات احتمالی آن می‌گوید و این موضوع یکی از داغ‌ترین موضوعاتی بوده که از اوائل سال میلادی تاکنون در سایت‌ ردیت در بخش «هر چه می‌خواهی ازم بپرس» به آن پاسخ داده است و به همین دلیل نیز ردیت از دیروز قسمت جدیدی را به این بخش اضافه کرده تا هاوکینگ به صورت اختصاصی پاسخ افراد را در این زمینه بدهد.
کد خبر : 43055

به گزارش گروه علم و فناوری آنا به نقل از Engadget، هاوکینگ اخیرا در پاسخ به یکی از معلمانی که در سر کلاس از بحث در مورد «ترمیناتور» یا ربات نابودگر با دانش‌آموزانش خسته شده است، گفت: «خطر واقعی هوش مصنوعی در کینه‌توزی و قابلیت آنها در تسلط به هوش انسان نیست، بلکه در نداشتن صلاحیت آنهاست».


این در حالی است که هاوکینگ قبلا هشدار داده بود که بالاخره ابرهوش مصنوعی ساخته خواهد شد که برای رسیدن به هدف نهایی‌اش به خوبی عمل خواهد کرد. اما این اهداف به هیچ عنوان با اهداف ما هم‌خوانی ندارد و همین امر باعث بروز فاجعه خواهد شد.


وی همچنین هشدار داد که هوش مصنوعی می‌تواند «پایان نسل انسان» باشد. هاوکینگ چند ماه پیش به گروهی متشکل از متخصصان علم رباتیک، فناوران برجسته جهان و افرادی چون الون ماسک، بنیانگذار تسلا موتورز و اسپیس‌ایکس پیوسته که فراخوانی را برای ممنوعیت فعالیت‌های مربوط به ساخت تسلیحات خودمختار اعلام کردند.


هرچند که این گروه متفق‌القول معتقدند که ربات‌ها در آینده بشریت را از بین خواهند برد، دلیل هاوکینگ برای این مخالفت، کمتر نگران‌کننده است. این ایده که یک باگ یا حفره امنیتی نرم‌افزار هوش مصنوعی بتواند در نهایت دنیا را دگرگون کند، قابل اطمینان نیست.


هاوکینگ گفت: «شاید شما شخصی نباشید که از مورچه‌ها به طرز وحشتناکی متنفر است و نسبت به آنها خباثت به خرج دهید اما فقط کافی است که مسئول یک پروژه انرژی سبز هیدروالکتریک شوید. در این صورت است که هیچ لانه مورچه‌ای در ناحیه‌ای جان سالم به در نخواهد برد. اجازه ندهید که بشریت در موقعیت آن مورچه‌ها قرار گیرند»!


هاوکینگ در پاسخ به سوال دیگری درباره اینکه چه زمانی سطح هوش مصنوعی به سطح هوش انسان می‌رسد، گفت: «ما دقیقا نمی‌دانیم که چه زمانی این اتفاق می‌افتد اما موقعی که این موضوع رخ دهد، بهترین یا بدترین چیزی خواهد بود که برای بشریت رقم می‌خورد. به همین دلیل بهتر است که از همین الان مراقب نحوه توسعه هوش مصنوعی باشیم و به جای کشف هوش مصنوعی هدایت‌نشده، باید روی ایجاد هوش مفید متمرکز شویم».


هاوکینگ همچنین خاطرنشان کرد که یک هوش مصنوعی تکامل‌یافته می‌تواند اهدافی مشابه موجودات زنده پیدا کند اما در جایی که زندگی موجودات روی زنده ماندن و تولید مثل است، هوش مصنوعی می‌تواند به جمع‌آوری منابع بیشتر برای رسیدن به اهدافش باشد و فاجعه از زمانی شروع می‌شود که این هوش دست‌ساخته از منابع دور از دسترس انسان‌ها استفاده کند.


مترجم: نسترن صائبی




انتهای پیام/

ارسال نظر