هوش مصنوعی چیزی «نمیداند» فقط آموزش میبیند/ خطر باورکردن احساسات ماشینی
خبرگزاری علم و فناوری آنا؛ اندیشکده آمریکایی سنتیِنس (Sentience) که متمرکز بر گسترش اخلاقیات انسانی فعالیت دارد با بررسی نتایج یک نظرسنجی جدید اعلام کرد حدود ۳۰ درصد از مردم آمریکا فکر میکنند که هوش مصنوعی عمومی (AGI) میتواند هر کاری را که در عهده انسان است انجام دهد و این نشان میدهد که عامه مردم درک ضعیفی از وضعیت فعلی هوش مصنوعی دارند.
جیسی ریس انتیس (Jacy Reese Anthis) بنیانگذار مؤسسه سنتیِنس و همکارانش در نیویورک در یک تحقیق ملی از ۳۵۰۰ نفر در آمریکا پرسیدند که تصوراتشان را از هوش مصنوعی و احساسات آن بیان کنند که در سه فاصله زمانی بین سالهای ۲۰۲۱ تا ۲۰۲۳ انجام شد. از آنها سؤالاتی از این دست پرسیده شد: «آیا فکر میکنید رباتها یا مدلهای فعلی هوش مصنوعی دارای درک و احساس هستند؟» و یا اینکه «آیا ممکن است هوش مصنوعی به هدفِ با احساس شدن برسد؟»
آنتیس میگوید: «ما میخواستیم زودتر دادهها را جمعآوری کنیم تا بفهمیم افکار عمومی چگونه میتواند مسیر آینده فناوریهای هوش مصنوعی را شکل دهد.»
او عنوان میکند که یافتههای این نظرسنجی شگفتآور بود. در سال ۲۰۲۱، حدود ۱۸ درصد از پاسخدهندگان گفتند که فکر میکنند سیستمهای هوش مصنوعی یا رباتهایی موجود دارای درک و احساس هستند - این عدد در سال ۲۰۲۳، زمانی که دو موج نظرسنجی وجود داشت، به ۲۰ درصد افزایش یافت. از هر ۱۰ نفر شرکتکننده در نظرسنجی سال ۲۰۲۳، یک نفر فکر میکرد که چت جی پی تی (نسخه سال ۲۰۲۲) دارای درک و احساس است.
انتیس میگوید: «من فکر میکنم ما ذهن را در رایانهها خیلی راحت درک میکنیم و آنها را بازیگران اجتماعی میبینیم. برخی از باورها درباره هوش مصنوعی ناشی از آن است که شرکتهای بزرگ فناوری قابلیتهای محصولات خود را خیلی بیشتر از حد واقعی نشان میدهند.»
کاریسا ولیز (Carissa Véliz) از دانشگاه آکسفورد هم میگوید: «تحقیقات زیادی وجود دارد که نشان میدهد وقتی چیزی برای کسی منفعت مالی دارد، احتمالاً تصور میکند که آن چیز اتفاق میافتد.»
کیت دِولین (Kate Devlin) از کالج کینگ لندن نیز میگوید: «بخشی از این ماجرا نیز تقصیر روزنامهنگاران است. برای مثال، نوع پوشش رسانهای که در مورد مدلهای زبانی بزرگ دیدیم، با گزارشهای هیجانانگیز و افراطی و نیز حسی تهدیدآمیز همراه بود.»
انتیس نگران است که این باور نادرست مبنی بر اینکه هوش مصنوعی دارای ذهن است و ترویج آن توسط سازندگان و رسانهها، به درک اشتباه ما از تواناییهای این فناوری منجر میشود. این خطر وجود دارد که اگر مردم باور کنند هوش مصنوعی هوشیار است، بیش از حد به قضاوتهای آن ایمان میآورند و در حوزههای تصمیمگیریهای قانونی مانند کارهای دولتی و پلیسی دردسرساز میشود.
انتیس میگوید: «یکی از راههای نیفتادن در این تله آن است که تفکر خود را از نو بسازیم. فکر میکنم مردم بیش از حد بر اصطلاح «هوش مصنوعی» تمرکز کردهاند.»
وی اشاره میکند: «زمانی که این اصطلاح برای اولین بار در دهه ۱۹۵۰ ابداع شد، فقط تمرین برندسازی بود.طرز تفکر این مدلها معمولاً اشتباه است، زیرا هوش مصنوعیها به جای اینکه واقعاً چیزی را «بدانند»، فقط بر اساس دادههای آموزشیشان پاسخ میدهند.»
این گزارش از پایگاه اینترنتی نیوساینتیست به فارسی برگردان شده است.
انتهای پیام/