إنتاج دراسات علمية رديئة أو مسروقة يتزايد بسبب استخدام الذكاء الاصطناعي
13 August 2024 - 15:01

إنتاج دراسات علمية رديئة أو مسروقة يتزايد بسبب استخدام الذكاء الاصطناعي

متخصصون يعربون عن خشيتهم من ازدياد نشر دراسات علمية رديئة أو مسروقة بسبب برنامج "تشات جي بي تي" الذي يستخدمه الكثيرون حول العالم، مشيرين إلى أنّ سحب مجلات عديدة لدراسات زائفة يؤكد هذه الممارسات غير النزيهة.
رمز الخبر : 5992

أفادت وکالة آنا الإخباریة، أكدت حالات سُجلت في الآونة الأخيرة ظاهرة الاستخدام المتزايد للذكاء الاصطناعي في إعداد المنشورات العلمية، على حساب جودتها، منها احتواء دراسات في بعض المجلات المتخصصة على عبارات تفضح إنتاجها بواسطة البرامج القائمة على هذه التكنولوجيا، أو تَضَمُنُها مثلاً صوراً تفتقر إلى الدقة. 

ومع أنّ المتخصصين أقرّوا بأهمية استخدام أدوات مثل "تشات جي بي تي" للمساعدة في كتابة المحتوى، لا سيما في ما يتعلق بالترجمة للباحثين الذين لا تكون اللغة الإنكليزية لغتهم الأم، فإنّ سحب بعض المجلات العلمية في الآونة الأخيرة عدداً من الدراسات التي نشرتها سلّط الضوء على وجود ممارسات غير نزيهة، وفق وكالة "فرانس برس".

وكانت قد سُحِبَت دراسة لتضمّنها صورة لساق بشرية تحوي عدداً من العظام أكبر مما يُفترض أن تحوي فعلياً. ولا يقتصر الأمر على هذه الصور المغلوطة، إذ يبدو أنّ المشاكل الأبرز في هذا القطاع متأتية من "تشات جي بي تي"، أداة المحادثة التي طورتها شركة "أوبن إيه آي" الأميركية والقائمة على الذكاء الاصطناعي.

ففي بداية آذار/مارس الفائت، شهدت شبكات التواصل الاجتماعي تداولاً على نطاق واسع لدراسة نشرتها مجموعة النشر العلمي البريطانية "إلسيفير" Elsevier، كان مطلعها عبارة "بالطبع! إليك مقدمة لموضوعك"، وهي صيغة نموذجية معروفة لأجوبة "تشات جي بي تي".  

"مصانع مقالات" 

وأفاد عدد من المتخصصين بأنّ هذه الأخطاء المحرجة التي سها عنها الخبراء المسؤولون عن قراءة الدراسات قبل نشرها، لا تزال نادرة، ولم تكن لتمرّ على لجان مراجعة الأبحاث العلمية في المجلات المرموقة. وغالباً ما يصعب اكتشاف استخدام الذكاء الاصطناعي، ولكن يبدو بوضوح أنه يتزايد في الأدبيات العلمية.

وفي هذا الإطار، أجرى أمين مكتبة جامعة "يونيفيرسيتي كولدج" في لندن أندرو غراي، بحثاً في ملايين المقالات العلمية عن كلمات تُكثر أدوات الذكاء الاصطناعي من استخدامها، مثل "دقيق" أو "معقد" أو "جدير بالثناء". وتبيّن له أنّ الذكاء الاصطناعي استُخدم على الأرجح في 60 ألف مقال علمي عام 2023، أي بنسبة واحد في المئة من الإنتاج السنوي، متوقعاً "زيادة كبيرة" في هذه الأرقام العام الجاري.

أما جمعية "ريتراكشن ووتش" الأميركية، فلاحظت أنّ حالات سحب المقالات العلمية بلغت رقماً قياسياً عام 2023 وسجلت 13 ألفاً. ورأى إيفان أورانسكي، وهو أحد مؤسسيها، أنّ الذكاء الاصطناعي بات يوفّر ما يشبه "المصانع" لإصدار الدراسات "الزائفة" بكثافة. وتنتج هذه الجهات عدداً كبيراً من المقالات الرديئة الجودة أو المنحولة أو الكاذبة، وفق ما أفادت، إليزابيث بيك، عالمة الأحياء الدقيقة الهولندية المتخصصة في الكشف عن الصور المزيفة.

ويُعتقد أن هذه "المصانع" التي يدفع لها الباحثون الذين يتم حضّهم على إنتاج المزيد، هي مصدر نحو 2 في المئة من الدراسات المنشورة سنوياً، لكنّ هذا الرقم يشهد زيادة كبيرة بفعل استخدام الذكاء الاصطناعي، وفقاً للخبيرة نفسها.

واعتبر أورانسكي أنّ الذكاء الاصطناعي يفاقم "مشكلة ساحقة"، تتمثل في كون طلب الناشرين والجامعات النهم على المقالات يشكّل ضغطاً على الباحثين الذين يُصنفون وفقاً لإنتاجهم، مما يؤدي تالياً إلى "حلقة مفرغة". وفي الوقت نفسه، لا تزال الضوابط الهادفة إلى مكافحة "مصانع" الدراسات غير كافية. واكتشف باحث أميركي الأسبوع الفائت في مجلة "وايلي" ما يبدو أنه نسخة من أحد مقالاته أعيدت كتابتها بواسطة "تشات جي بي تي".

وقال أستاذ المعلوماتية الحيوية في جامعة بريغهام يونغ الأميركية سامويل باين، في حديث لوكالة "فرانس برس" إنه كُلِّف في آذار/مارس الفائت التحقق من صحّة هذه الدراسة. وعندما أدرك أنها عبارة عن "سرقة أدبية" لدراسته التي أعيدت كتابتها بواسطة الذكاء الاصطناعي، رفض الموافقة على النشر. وأضاف باين أنه صُدم عندما اكتشف أنّ مجلة أخرى تولت نشر الدراسة المسروقة بدلاً من سحبها.

إرسال تعليق