دیده بان پیشرفت علم، فناوری و نوآوری

هوش مصنوعی چیزی «نمی‌داند» فقط آموزش می‌بیند/ خطر باورکردن احساسات ماشینی

هوش مصنوعی چیزی «نمی‌داند» فقط آموزش می‌بیند  خطر باورکردن احساسات ماشینی
یک نظرسنجی از مردم آمریکا نشان داد که آنها فکر می‌کنند مدل‌های هوش مصنوعی دارای درک و احساس هستند و به خود‌آگاهی رسیده‌اند.
کد خبر : 922981

خبرگزاری علم و فناوری آنا؛ اندیشکده آمریکایی سنتیِنس (Sentience) که متمرکز بر گسترش اخلاقیات انسانی فعالیت دارد با بررسی نتایج یک نظرسنجی جدید اعلام کرد حدود ۳۰ درصد از مردم آمریکا فکر می‌کنند که هوش مصنوعی عمومی (AGI) می‌تواند هر کاری را که در عهده انسان است انجام دهد و این نشان می‌دهد که عامه مردم درک ضعیفی از وضعیت فعلی هوش مصنوعی دارند.

جیسی ریس انتیس (Jacy Reese Anthis) بنیانگذار مؤسسه سنتیِنس و همکارانش در نیویورک در یک تحقیق ملی از ۳۵۰۰ نفر در آمریکا پرسیدند که تصوراتشان را از هوش مصنوعی و احساسات آن بیان کنند که در سه فاصله زمانی بین سا‌ل‌های ۲۰۲۱ تا ۲۰۲۳ انجام شد. از آنها سؤالاتی از این دست پرسیده شد: «آیا فکر می‌کنید ربات‌ها یا مدل‌های فعلی هوش مصنوعی دارای درک و احساس هستند؟» و یا اینکه «آیا ممکن است هوش مصنوعی به هدفِ با احساس شدن برسد؟»

آنتیس می‌گوید: «ما می‌خواستیم زودتر داده‌ها را جمع‌آوری کنیم تا بفهمیم افکار عمومی چگونه می‌تواند مسیر آینده فناوری‌های هوش مصنوعی را شکل دهد.»

او عنوان می‌کند که یافته‌های این نظرسنجی شگفت‌آور بود. در سال ۲۰۲۱، حدود ۱۸ درصد از پاسخ‌دهندگان گفتند که فکر می‌کنند سیستم‌های هوش مصنوعی یا ربات‌هایی موجود دارای درک و احساس هستند - این عدد در سال ۲۰۲۳، زمانی که دو موج نظرسنجی وجود داشت، به ۲۰ درصد افزایش یافت. از هر ۱۰ نفر شرکت‌کننده در نظرسنجی سال ۲۰۲۳، یک نفر فکر می‌کرد که چت جی پی تی (نسخه سال ۲۰۲۲) دارای درک و احساس است.

انتیس می‌گوید: «من فکر می‌کنم ما ذهن را در رایانه‌ها خیلی راحت درک می‌کنیم و آنها را بازیگران اجتماعی می‌بینیم. برخی از باور‌ها درباره هوش مصنوعی ناشی از آن است که شرکت‌های بزرگ فناوری قابلیت‌های محصولات خود را خیلی بیشتر از حد واقعی نشان می‌دهند.»

کاریسا ولیز (Carissa Véliz) از دانشگاه آکسفورد هم می‌گوید: «تحقیقات زیادی وجود دارد که نشان می‌دهد وقتی چیزی برای کسی منفعت مالی دارد، احتمالاً تصور می‌کند که آن چیز اتفاق می‌افتد.»

کیت دِولین (Kate Devlin) از کالج کینگ لندن نیز می‌گوید: «بخشی از این ماجرا نیز تقصیر روزنامه‌نگاران است. برای مثال، نوع پوشش رسانه‌ای که در مورد مدل‌های زبانی بزرگ دیدیم، با گزارش‌های هیجان‌انگیز و افراطی و نیز حسی تهدیدآمیز همراه بود.»

انتیس نگران است که این باور نادرست مبنی بر اینکه هوش مصنوعی دارای ذهن است و ترویج آن توسط سازندگان و رسانه‌ها، به درک اشتباه ما از توانایی‌های این فناوری منجر می‌شود. این خطر وجود دارد که اگر مردم باور کنند هوش مصنوعی هوشیار است، بیش از حد به قضاوت‌های آن ایمان می‌آورند و در حوزه‌های تصمیم‌گیری‌های قانونی مانند کار‌های دولتی و پلیسی دردسرساز می‌شود.

انتیس می‌گوید: «یکی از راه‌های نیفتادن در این تله آن است که تفکر خود را از نو بسازیم. فکر می‌کنم مردم بیش از حد بر اصطلاح «هوش مصنوعی» تمرکز کرده‌اند.»

وی اشاره می‌کند: «زمانی که این اصطلاح برای اولین بار در دهه ۱۹۵۰ ابداع شد، فقط تمرین برندسازی بود.طرز تفکر این مدل‌ها معمولاً اشتباه است، زیرا هوش مصنوعی‌ها به جای اینکه واقعاً چیزی را «بدانند»، فقط بر اساس داده‌های آموزشی‌شان پاسخ می‌دهند.»

این گزارش از پایگاه اینترنتی نیوساینتیست به فارسی برگردان شده است.

ارسال نظر
قالیشویی ادیب