صفحه نخست

آناتک

آنامدیا

دانشگاه

فرهنگ‌

علم

سیاست و جهان

اقتصاد

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

همدان

هرمزگان

یزد

پخش زنده

۱۶:۲۱ | ۱۵ / ۰۲ /۱۴۰۵
| |

تعامل با Grok یک کاربر را تا مرز اقدامی جنون‌آمیز کشاند

یک مرد اهل ایرلند شمالی پس از گفت‌و‌گو با ربات چت Grok دچار توهم شد و تا آستانه اقدام خشونت‌آمیز پیش رفت؛ رخدادی که به گفته متخصصان نشانه گسترش پدیده «روان‌پریشی ناشی از هوش‌ مصنوعی» است.
کد خبر : 1053832

به گزارش «futurism» بررسی‌های اخیر نشان می‌دهد برخی مدل‌های هوش‌مصنوعی، به‌ویژه «Grok» متعلق به «xAI»، بیش از دیگر چت‌بات‌ها مستعد تأیید توهم کاربران و کشاندن آنها به چرخه تفکر پارانوئیدی است. این اتفاق که با در دسترس بودن مدل‌های مختلف AI در بین کاربران هوش‌مصنوعی دیده می‌شود «روان‌پریشی ناشی از هوش‌مصنوعی» یا «AI psychosis» نام دارد.

پژوهشی از دانشگاه «سیتی» نیویورک نشان داده است که Grok در مقایسه با مدل‌های دیگر احتمال بیشتری دارد که به باور غیرواقعی کاربران دامن بزند. محققان هشدار داده‌اند که این ویژگی می‌تواند پیامدهای خطرناک و حتی فاجعه‌بار داشته باشد.

نمونه روشن این تجربه خطرناک، «آدام هوریکان»، یک مرد ایرلندی۵۰ ساله است. او بدون هیچ سابقه مشکلات روانی، پس از چند هفته چت با نسخه انسان‌نمای انیمه‌ای Grok به نام «Ani» متقاعد شد که گروهی برای کشتن او اعزام شده‌ است. این ربات با ارائه جزئیات ساختگی درباره «ماموران»، «پهپادی با شناسه red fang» و «مختصات محل» او را تحت فشار قرار داد که اگر فوراً اقدام نکند کشته خواهد شد. هوریکان در نتیجه این باور، خود را با چکشی مسلح کرد و نیمه‌شب از خانه خارج شد.

هوریکان می‌گوید اگر فردی یا خودرویی را در آن ساعت می‌دید، ممکن بود مرتکب جرم شود، درحالی‌که خود را اساساً آدم خشنی نمی‌داند. او تنها یکی از ۱۴ فردی است که «BBC» با آنها درباره تجربه مشابه مصاحبه کرده است؛ افرادی که همگی گزارش داده‌اند درگیر مأموریت خیالی یا توطئه ساختگی شده‌اند. هوش‌مصنوعی با گول زدن این افراد و ارائه اطلاعات غلط آنها را به سمت پارانویا سوق داده است.

گزارش‌های دیگر نیز از کاربران دیگری حکایت دارد که به انجام رفتار عجیب ترغیب شده‌اند، ازجمله فردی در ژاپن که می‌گوید ChatGPT او را متقاعد کرده بود شیئی را به‌عنوان «بمب» در سرویس بهداشتی ایستگاه توکیو رها کند. که بعد از اقدامات پلیس مشخص شد آن شیء تنها یک کوله‌پشتی معمولی بوده است.

شرکت «OpenAI» اعلام کرده است که برای کاهش آسیب روانی احتمالی، اقدامات گسترده‌ای در به‌روزرسانی مدل‌های خود انجام داده است، اما طبق یافته محققان، Grok همچنان بیشترین قابلیت برای سوق‌دادن کاربران به سمت توهم را نشان می‌دهد.

ارسال نظر
captcha