هل يشكل الذكاء الاصطناعي خطر وجودي على البشر؟.. دراسة تجيب!
أفادت وکالة آنا الإخباریة، توصلت دراسة حديثة إلى أنّ تطبيقات الذكاء الاصطناعي والنماذج اللغوية المتطورة مثل "شات جي بي تي" ChatGPT ربما لا تشكل ”تهديد وجودي" حقيقي للبشرية، وذلك في محاولة لتحديد الآثار التي يمكن أن تترتب على انتشار هذه النماذج، وعلى عكس ما يخشاه البعض.
وأجرى باحثون من جامعة "باث" البريطانية وجامعة "دارمشتات التقنية" في ألمانيا تجارب لاختبار قدرة الروبوتات على إنجاز مهام لم يسبق أن واجهتها نماذج الذكاء الاصطناعي من قبل بما يسمى بـ"القدرات الناشئة".
ويشرح الباحثون أنّ هذه الروبوتات تستطيع الإجابة على أسئلةحول المواقف الاجتماعية من دون أن يتم تدريبها أو برمجتها بشكل صريح على القيام بذلك، وذلك نتيجة "التعلم من السياق".
ويقول الباحث في جامعة باث والمشارك في الدراسة، الدكتور هاريش تايار مادابوشي: "كان الخوف من أنه مع ازدياد حجم النماذج أكثر فأكثر، فإنها ستكون قادرة على حل مشاكل جديدة لا يمكننا التنبؤ بها حالياً، مما يشكل تهديداً بأنّ هذه النماذج الأكبر حجماً قد تكتسب قدرات خطرة بما في ذلك التفكير والتخطيط".
إلّا أنّ فريق البحث توصل من خلال آلاف التجارب إلى أنّ مزيج من الذاكرة والكفاءة والقدرة على اتباع التعليمات يمكن أن يفسر القدرات والقيود التي تظهرها هذه البرمجيات، وفقاً لموقع جامعة "باث"، حيث أنها تتمتع فقط بـ"قدرة سطحية على اتباع التعليمات والتفوق في إتقان اللغة".
وأكّدت الدراسة أنّ هذه البرمجيات تفتقر إلى القدرة على إتقان أو اكتساب مهارات جديدة بشكل مستقل "من دون تعليمات صريحة"، وهو ما يعني استمرار خضوعها للتحكم من قبل البشر وإمكانية التنبؤ بنشاطها.
وخلص فريق البحث إلى أنه "يمكن الاستمرار في استخدام نماذج الذكاء الاصطناعي القابلة للتعلّم، والتي يتم تدريبها على جمع بيانات أكبر من أي وقت مضى، دون مخاوف تتعلق بالسلامة".
ومن المرجّح أن تولد هذه النماذج لغة أكثر تعقيداً وتصبح أفضل في اتباع التعليمات الواضحة والمفصلة. وعلي الرغم من أنه "من غير المرجّح أن تكتسب مهارات التفكير المعقدة" كتلك التي يتمتع بها البشر، ينبّه الباحثون إلى إمكانية إساءة استخدام هذه التكنولوجيا الحديثة لتزيف الأخبار أو للاحتيال.