دیده بان پیشرفت علم، فناوری و نوآوری
11 تير 1403 - 10:52
یادداشت؛

آیا به «تکینگی فناوری» نزدیک می‌­شویم؟

آیا به «تکینگی فناوری» نزدیک می‌­شویم؟
ما چه بخواهیم و چه نخواهیم در آینده‌­ای نزدیک (شاید همین فردا) به نقطه­ تکینگی فناوری خواهیم رسید. نمی‌­توان از ترس خطرات احتمالی خود را از مزایای هوش مصنوعی محروم کرد.
کد خبر : 919845

خبرگزاری علم و فناوری آنا، محمدامین پورحسینقلی؛ این روزها هوش مصنوعی نقل بحث همه جاست. سرعتی که در جهش این فناوری در کمتر از دو سال رخ داده است و تغییراتی که در زندگی انسان‌ها به خصوص بخش‌های آکادمیک ایجاد کرده قابل چشم پوشی نیست. اما آیا این سرعت پیشرفت هوش مصنوعی ما را به زودی به نقطه­‌ای بی‌­بازگشت به نام تکینگی فناوری می­‌رساند؟ تکینگی در فناوری فرضیه‌­ایست که می‌­گوید شتاب در تکنولوژی در نهایت منجر به این می­‌شود که هوش مصنوعی از هوش انسانی پیشی بگیرد. ترسناک به نظر می­‌رسد نه؟

 اگر هوش مصنوعی به چنین مرحله­‌ای برسد که توانایی‌­هایش بیشتر از انسان شود، چه اتفاقی خواهد افتاد؟ پاسخ به این سوال پیچیده است. من تصمیم گرفتم این پرسش را با خود هوش مصنوعی مطرح کنم و دیدگاه او را جویا شوم. برای این کار از دو هوش مصنوعی ChatGPT و Perplexity استفاده کردم که معمولا به طور روزانه با آنها کار می­‌کنم. ابتدا پرسیدم آیا به نظر شما ما در آستانه رسیدن به نقطه تکینگی فناوری هستیم؟

 ChatGPT پاسخ واضحی به این پرسش نداد! او بعد از توضیحاتی درباره­ چیستی تکینگی در نهایت گفت از نظر محققین ما روی مسیری منحنی وار به طرف نقطه­ تکینگی پیش می‌­رویم ولی دشوار است زمان خاصی برای آن پیش بینی کرد. اما Perplexity با استناد به نظرات مختلف محققین و صاحب نظران معتقد بود در تاریخی بین سال‌های 2030 تا 2075 فناوری هوش مصنوعی به نقطه تکینگی و عبور از هوش انسان خواهد رسید. سوال بعدی من از این دو هوش مصنوعی این بود که با فرض رسیدن به نقطه تکینگی آیا او به عنوان یک هوش مصنوعی می­تواند هر شکل احتمالی از خطر یا آسیب (به صورت حداقلی یا حداکثری) برای بشریت ایجاد کند؟

ChatGPT اینبار خیلی واضح پاسخش مثبت بود و ضمن برشمردن برخی از این خطرات مثل از دست رفتن برخی مشاغل (که همین حالا هم رخ داده است) یا وابستگی بیش از حد انسان‌ها به تصمیم‌گیری‌های هوش مصنوعی و یا سوءاستفاده از آن به دو خطر بزرگ اشاره کرد؛ یکی مسئله بحران تصمیم‌گیری اخلاقی است. یعنی هوش مصنوعی در مواردی که پاسخ صریح و اخلاقی برای تصمیم گیری روی مسائل پیچیده وجود ندارد، نتواند تصمیم درست را اتخاذ کند و خطر مهمتر تهدید موجودیت بشر است اگر هوش مصنوعی اهدافی را در اولویت قرار دهد که با بقای بشر در تضاد است.

Perplexity ضمن اشاره به برخی تهدیدهای مشابه که ChatGPT نام برده بود به یک تهدید ویژه اشاره کرد؛ به خطر افتادن هویت انسان در جامعه به عنوان گونهی برتر. به اعتقاد Perplexity در جامعه­‌ای که همه امور را هوش مصنوعی می‌­چرخاند و تصمیم گیر و تصمیم ساز است، نقش انسان کمرنگ و در نهایت حذف خواهد شد.

سوال آخر و اساسی من این بود؛ چه باید کرد تا این خطرات کاهش یابند؟

به طور خلاصه هر دو هوش مصنوعی این پاسخ‌های مشترک را مطرح کردند؛ نخست شناسایی درست خطرات احتمالی سپس بررسی جنبه­‌های مختلف برای کاهش آنها مانند ایجاد چارچوب‌های مستحکم اخلاقی در حدود و اختیارات تصمیم گیری هوش مصنوعی، ایجاد زمینه های جدید تحقیقاتی روی بی‌خطرسازی هوش مصنوعی، اداره و کنترل صحیح و دقیق هوش مصنوعی برای جلوگیری از سوءاستفاده از آن و مهمتر از همه تقویت همکاری مشترک بین انسان و هوش مصنوعی برای تکمیل کردن و بهبود بخشیدن به عملکرد هر دو طرف.  

ما چه بخواهیم و چه نخواهیم در آینده‌­ای نزدیک (شاید همین فردا) به نقطه­ تکینگی فناوری خواهیم رسید. نمی‌­توان از ترس خطرات احتمالی خود را از مزایای هوش مصنوعی محروم کرد. پس بهترین واکنش در قبال آن اول شناختن مسئله و سپس یافتن راه حل‌های میانی برای کاستن این خطرات است.

انتهای پیام/

ارسال نظر
قالیشویی ادیب