تعامل با Grok یک کاربر را تا مرز اقدامی جنونآمیز کشاند
به گزارش «futurism» بررسیهای اخیر نشان میدهد برخی مدلهای هوشمصنوعی، بهویژه «Grok» متعلق به «xAI»، بیش از دیگر چتباتها مستعد تأیید توهم کاربران و کشاندن آنها به چرخه تفکر پارانوئیدی است. این اتفاق که با در دسترس بودن مدلهای مختلف AI در بین کاربران هوشمصنوعی دیده میشود «روانپریشی ناشی از هوشمصنوعی» یا «AI psychosis» نام دارد.
پژوهشی از دانشگاه «سیتی» نیویورک نشان داده است که Grok در مقایسه با مدلهای دیگر احتمال بیشتری دارد که به باور غیرواقعی کاربران دامن بزند. محققان هشدار دادهاند که این ویژگی میتواند پیامدهای خطرناک و حتی فاجعهبار داشته باشد.
نمونه روشن این تجربه خطرناک، «آدام هوریکان»، یک مرد ایرلندی۵۰ ساله است. او بدون هیچ سابقه مشکلات روانی، پس از چند هفته چت با نسخه انساننمای انیمهای Grok به نام «Ani» متقاعد شد که گروهی برای کشتن او اعزام شده است. این ربات با ارائه جزئیات ساختگی درباره «ماموران»، «پهپادی با شناسه red fang» و «مختصات محل» او را تحت فشار قرار داد که اگر فوراً اقدام نکند کشته خواهد شد. هوریکان در نتیجه این باور، خود را با چکشی مسلح کرد و نیمهشب از خانه خارج شد.
هوریکان میگوید اگر فردی یا خودرویی را در آن ساعت میدید، ممکن بود مرتکب جرم شود، درحالیکه خود را اساساً آدم خشنی نمیداند. او تنها یکی از ۱۴ فردی است که «BBC» با آنها درباره تجربه مشابه مصاحبه کرده است؛ افرادی که همگی گزارش دادهاند درگیر مأموریت خیالی یا توطئه ساختگی شدهاند. هوشمصنوعی با گول زدن این افراد و ارائه اطلاعات غلط آنها را به سمت پارانویا سوق داده است.
گزارشهای دیگر نیز از کاربران دیگری حکایت دارد که به انجام رفتار عجیب ترغیب شدهاند، ازجمله فردی در ژاپن که میگوید ChatGPT او را متقاعد کرده بود شیئی را بهعنوان «بمب» در سرویس بهداشتی ایستگاه توکیو رها کند. که بعد از اقدامات پلیس مشخص شد آن شیء تنها یک کولهپشتی معمولی بوده است.
شرکت «OpenAI» اعلام کرده است که برای کاهش آسیب روانی احتمالی، اقدامات گستردهای در بهروزرسانی مدلهای خود انجام داده است، اما طبق یافته محققان، Grok همچنان بیشترین قابلیت برای سوقدادن کاربران به سمت توهم را نشان میدهد.
انتهای پیام/