آیا به «تکینگی فناوری» نزدیک میشویم؟
خبرگزاری علم و فناوری آنا، محمدامین پورحسینقلی؛ این روزها هوش مصنوعی نقل بحث همه جاست. سرعتی که در جهش این فناوری در کمتر از دو سال رخ داده است و تغییراتی که در زندگی انسانها به خصوص بخشهای آکادمیک ایجاد کرده قابل چشم پوشی نیست. اما آیا این سرعت پیشرفت هوش مصنوعی ما را به زودی به نقطهای بیبازگشت به نام تکینگی فناوری میرساند؟ تکینگی در فناوری فرضیهایست که میگوید شتاب در تکنولوژی در نهایت منجر به این میشود که هوش مصنوعی از هوش انسانی پیشی بگیرد. ترسناک به نظر میرسد نه؟
{$sepehr_key_319}
اگر هوش مصنوعی به چنین مرحلهای برسد که تواناییهایش بیشتر از انسان شود، چه اتفاقی خواهد افتاد؟ پاسخ به این سوال پیچیده است. من تصمیم گرفتم این پرسش را با خود هوش مصنوعی مطرح کنم و دیدگاه او را جویا شوم. برای این کار از دو هوش مصنوعی ChatGPT و Perplexity استفاده کردم که معمولا به طور روزانه با آنها کار میکنم. ابتدا پرسیدم آیا به نظر شما ما در آستانه رسیدن به نقطه تکینگی فناوری هستیم؟
ChatGPT پاسخ واضحی به این پرسش نداد! او بعد از توضیحاتی درباره چیستی تکینگی در نهایت گفت از نظر محققین ما روی مسیری منحنی وار به طرف نقطه تکینگی پیش میرویم ولی دشوار است زمان خاصی برای آن پیش بینی کرد. اما Perplexity با استناد به نظرات مختلف محققین و صاحب نظران معتقد بود در تاریخی بین سالهای 2030 تا 2075 فناوری هوش مصنوعی به نقطه تکینگی و عبور از هوش انسان خواهد رسید. سوال بعدی من از این دو هوش مصنوعی این بود که با فرض رسیدن به نقطه تکینگی آیا او به عنوان یک هوش مصنوعی میتواند هر شکل احتمالی از خطر یا آسیب (به صورت حداقلی یا حداکثری) برای بشریت ایجاد کند؟
ChatGPT اینبار خیلی واضح پاسخش مثبت بود و ضمن برشمردن برخی از این خطرات مثل از دست رفتن برخی مشاغل (که همین حالا هم رخ داده است) یا وابستگی بیش از حد انسانها به تصمیمگیریهای هوش مصنوعی و یا سوءاستفاده از آن به دو خطر بزرگ اشاره کرد؛ یکی مسئله بحران تصمیمگیری اخلاقی است. یعنی هوش مصنوعی در مواردی که پاسخ صریح و اخلاقی برای تصمیم گیری روی مسائل پیچیده وجود ندارد، نتواند تصمیم درست را اتخاذ کند و خطر مهمتر تهدید موجودیت بشر است اگر هوش مصنوعی اهدافی را در اولویت قرار دهد که با بقای بشر در تضاد است.
Perplexity ضمن اشاره به برخی تهدیدهای مشابه که ChatGPT نام برده بود به یک تهدید ویژه اشاره کرد؛ به خطر افتادن هویت انسان در جامعه به عنوان گونهی برتر. به اعتقاد Perplexity در جامعهای که همه امور را هوش مصنوعی میچرخاند و تصمیم گیر و تصمیم ساز است، نقش انسان کمرنگ و در نهایت حذف خواهد شد.
سوال آخر و اساسی من این بود؛ چه باید کرد تا این خطرات کاهش یابند؟
به طور خلاصه هر دو هوش مصنوعی این پاسخهای مشترک را مطرح کردند؛ نخست شناسایی درست خطرات احتمالی سپس بررسی جنبههای مختلف برای کاهش آنها مانند ایجاد چارچوبهای مستحکم اخلاقی در حدود و اختیارات تصمیم گیری هوش مصنوعی، ایجاد زمینه های جدید تحقیقاتی روی بیخطرسازی هوش مصنوعی، اداره و کنترل صحیح و دقیق هوش مصنوعی برای جلوگیری از سوءاستفاده از آن و مهمتر از همه تقویت همکاری مشترک بین انسان و هوش مصنوعی برای تکمیل کردن و بهبود بخشیدن به عملکرد هر دو طرف.
ما چه بخواهیم و چه نخواهیم در آیندهای نزدیک (شاید همین فردا) به نقطه تکینگی فناوری خواهیم رسید. نمیتوان از ترس خطرات احتمالی خود را از مزایای هوش مصنوعی محروم کرد. پس بهترین واکنش در قبال آن اول شناختن مسئله و سپس یافتن راه حلهای میانی برای کاستن این خطرات است.
انتهای پیام/