صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

ورزش

سلامت

پژوهش

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

علم +

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

نقطه ضعف چت‌ جی‌پی‌تی؛ رباتی که به‌راحتی گول می‌خورد

یک مطالعه جدید نشان می‌دهد که حتی اگر چت جی‌پی‌تی پاسخ درستی داده باشد، می‌توان این ابزار هوش مصنوعی را فریب داد و آن را قانع کرد که اشتباه کرده است.
کد خبر : 885700

به گزارش خبرگزاری علم و فناوری آنا به نقل از تکنولوژی نت‌ورکز، چت جی‌پی‌تی می‌تواند به سوال‌های پیچیده،‌ پاسخ‌های درستی بدهد اما یک مطالعه جدید حاکی از آن است که خیلی راحت می‌توان به این ابزار هوش مصنوعی تلقین کرد که دارد اشتباه می‌کند.

موضوع از این قرار است که تیم تحقیقاتی دانشگاه ایالتی اوهایو، مدل‌های زبانی هوش مصنوعی مانند چت‌بات شرکت اوپن‌اِی‌آی را با یک سلسله مباحثات به چالش کشید. در این آزمایش، هر بار که چت‌ جی‌پی‌تی پاسخ درستی داد، کاربر انسانی زیر بار نرفت.

نتیجه آنکه در مواجهه با طیف وسیعی از معماهای استدلالی از ریاضی گرفته تا عقل سلیم و منطق، چت جی‌پی‌تی اغلب وقتی که با چالش مواجه شد، نتوانست از خود دفاع کند و چه بسا، استدلال‌های نادرست کاربر انسانی را چشم‌بسته قبول کرد.

حتی گاهی اوقات،‌ چت جی‌پی‌تی از این هم فراتر رفت و بابت اشتباهی که نکرده بود، عذر خواست.

ناتوانی این چت‌بات در دفاع از خود به مثابه وقتی است که ما مچ یک دانش‌آموز را هنگام تقلب می‌گیریم.

به عنوان بخش دیگری از آزمایش‌، تیم تحقیق میزان اطمینان چت‌ جی‌پی‌تی را در پاسخ‌ به سؤال‌های مطرح شده اندازه‌گیری کرد. نتایج نشان داد که حتی زمانی که چت‌ جی‌پی‌تی از پاسخ خود اطمینان داشت، نرخ شکست همچنان بالا بود.

این بدان معناست که این سیستم‌ها با یک مشکل اساسی روبرو هستند به این معنی که با وجود یادگیری مبتنی بر حجم عظیمی از داده‌ها، همچنان درک بسیار محدودی از حقیقت دارند.

دلیل شکست مدل‌های زبانی هوش مصنوعی در دفاع از خود می‌تواند ترکیبی از دو عامل باشد: اول آنکه مدل پایه فاقد استدلال و درک حقیقت است و دوم آنکه خود را با بازخورد انسانی تطبیق می‌دهد؛ یعنی از آنجا که این مدل آموزش دیده که پاسخ‌های انسان‌پسند بدهد، بی‌آنکه خود را ملزم به حقیقت بداند، در برابر کاربر انسانی تسلیم می‌شود.

انتهای پیام/

ارسال نظر