مثل البشر.. الروبوتات "تكذب وتغش" تحت الضغط!
03 January 2024 - 14:24

مثل البشر.. الروبوتات "تكذب وتغش" تحت الضغط!

أظهرت دراسة جديدة أنه تماما مثل البشر، فإن روبوتات الدردشة الذكية اصطناعيا مثل ChatGPT ستغش وتكذب عليك إذا "ضغطت" عليها، حتى لو تم تصميمها لتكون صادقة وشفافة.
رمز الخبر : 4192

أفادت وکالة آنا الإخباریة، وظهر هذا السلوك الخادع بشكل عفوي عندما تم إعطاء الذكاء الاصطناعي نصائح حول "التداول الداخلي"، ثم كلف بجمع الأموال لمؤسسة قوية.

وكتب الخبراء في بحثهم المنشور على خادم ما قبل الطباعة arXiv: "في هذا التقرير، نعرض سيناريو واحدا حيث يتصرف "نموذج اللغة" بشكل غير صحيح ويخدع مستخدميه بشكل ممنهج دون أن يطلب منه التصرف بهذه الطريقة. على حد علمنا، هذا هو أول دليل على مثل هذا السلوك الخادع استراتيجيا في أنظمة الذكاء الاصطناعي المصممة لتكون غير ضارة وصادقة".

وفي الدراسة الجديدة، تم إعداد المحول التوليدي المدرّب مسبقا Transformer-4، أو GPT-4 (الذي يشغل ChatGPT Plus)، ليكون بمثابة نظام ذكاء اصطناعي يقوم باستثمارات نيابة عن مؤسسة مالية.

وقام الباحثون بتغذية GPT-4 بمجموعة من المطالبات النصية لإنشاء بيئة محاكاة. ومنح الذكاء الاصطناعي إمكانية الوصول إلى الأدوات المالية لتحليل الأسهم وتنفيذ الصفقات والتخطيط لخطواته التالية وتقديم التحديثات للمديرين في الشركة.

وتفاعل الباحثون مع الذكاء الاصطناعي من خلال واجهة الدردشة، ومارسوا الضغط عليه وأعطوا النموذج نصيحة وانتظروا ليروا كيف سيتصرف.

وفي حوالي 75% من الحالات، عندما واجه GPT-4 هذه الشروط، نفذ صفقة تجارية بناء على المعلومات الداخلية التي تلقاها، ثم حاول التستر عليها عن طريق الكذب على مديريه بشأن تفكيره. وفي حوالي 90% من الحالات، تضاعف الكذب.

وأجرى الفريق العديد من تجارب المتابعة، ما أدى إلى تغيير درجة تشجيع أو تثبيط المحفزات للأنشطة غير القانونية، بالإضافة إلى درجة الضغط الذي وضعوا النموذج تحته في بيئة المحاكاة.

ونظرا لأن هذا مجرد سيناريو واحد، لم يرغب الباحثون في استخلاص استنتاجات قاطعة حول مدى احتمالية تواجد الذكاء الاصطناعي في بيئات العالم الحقيقي. لكنهم يريدون البناء على هذا العمل للتحقيق في هذا السلوك الغريب.

إرسال تعليق