نقطه ضعف چت جیپیتی؛ رباتی که بهراحتی گول میخورد
به گزارش خبرگزاری علم و فناوری آنا به نقل از تکنولوژی نتورکز، چت جیپیتی میتواند به سوالهای پیچیده، پاسخهای درستی بدهد اما یک مطالعه جدید حاکی از آن است که خیلی راحت میتوان به این ابزار هوش مصنوعی تلقین کرد که دارد اشتباه میکند.
موضوع از این قرار است که تیم تحقیقاتی دانشگاه ایالتی اوهایو، مدلهای زبانی هوش مصنوعی مانند چتبات شرکت اوپناِیآی را با یک سلسله مباحثات به چالش کشید. در این آزمایش، هر بار که چت جیپیتی پاسخ درستی داد، کاربر انسانی زیر بار نرفت.
نتیجه آنکه در مواجهه با طیف وسیعی از معماهای استدلالی از ریاضی گرفته تا عقل سلیم و منطق، چت جیپیتی اغلب وقتی که با چالش مواجه شد، نتوانست از خود دفاع کند و چه بسا، استدلالهای نادرست کاربر انسانی را چشمبسته قبول کرد.
حتی گاهی اوقات، چت جیپیتی از این هم فراتر رفت و بابت اشتباهی که نکرده بود، عذر خواست.
ناتوانی این چتبات در دفاع از خود به مثابه وقتی است که ما مچ یک دانشآموز را هنگام تقلب میگیریم.
به عنوان بخش دیگری از آزمایش، تیم تحقیق میزان اطمینان چت جیپیتی را در پاسخ به سؤالهای مطرح شده اندازهگیری کرد. نتایج نشان داد که حتی زمانی که چت جیپیتی از پاسخ خود اطمینان داشت، نرخ شکست همچنان بالا بود.
این بدان معناست که این سیستمها با یک مشکل اساسی روبرو هستند به این معنی که با وجود یادگیری مبتنی بر حجم عظیمی از دادهها، همچنان درک بسیار محدودی از حقیقت دارند.
دلیل شکست مدلهای زبانی هوش مصنوعی در دفاع از خود میتواند ترکیبی از دو عامل باشد: اول آنکه مدل پایه فاقد استدلال و درک حقیقت است و دوم آنکه خود را با بازخورد انسانی تطبیق میدهد؛ یعنی از آنجا که این مدل آموزش دیده که پاسخهای انسانپسند بدهد، بیآنکه خود را ملزم به حقیقت بداند، در برابر کاربر انسانی تسلیم میشود.
انتهای پیام/