استانداردهای اخلاقی استفاده از هوش مصنوعی در علم
به گزارش خبرگزاری علم و فناوری آنا به نقل از دکودر، در اواخر ماه دسامبر، وزارت علوم و فناوری چین دستورالعملهایی را برای استفاده مسئولانه از هوش مصنوعی مولد در علم به منظور ترویج «توسعه سالم» تحقیقات منتشر کرد.
این دستورالعملها که هم برای محققان و هم برای موسسات طراحی شدهاند، جنبههای مختلف فرآیند تحقیق از جمله انتخاب موضوع و بررسی همتایان را پوشش میدهد که بر روی اخلاق، امنیت و شفافیت متمرکز شده است.
دستورالعمل جدید بیان میکند که هوش مصنوعی را نمیتوان به عنوان یک همکار فهرست کرد. این موضوع به نگرانیهای برخی از دانشمندان که ابزارهای هوش مصنوعی مانند «چت جیپیتی» (ChatGPT) را به عنوان نویسندگان همکار فهرست کردهاند، میپردازد؛ اقدامی که بسیاری از ژورنالها قبلا آن را ممنوع کردهاند. این دستورالعملها همچنین نیاز دارند که محتوا یا نتایج ایجاد شده توسط هوش مصنوعی مولد به وضوح شناسایی شوند.
یکی از محققان آکادمی علوم اجتماعی چین که نخواست نامش فاش شود، استفاده گسترده از هوش مصنوعی مولد را یک «روند برگشت ناپذیر» میداند. این محقق معتقد است اینکه بدانیم چگونه به محققان اجازه دهیم به شیوهای مناسب از هوش مصنوعی استفاده کنند و با روندهای بین المللی همگام باشند، مهمتر است.
سند وزارت علوم در توضیح قوانین جدید بیان میکند که توسعه سریع فناوری هوش مصنوعی تغییرات عمیقی در پارادایمهای تحقیقات علمی ایجاد کرده است.
براساس اعلام این وزارتخانه، این دستورالعملها برای روشن شدن مسائل مربوط به تألیف، مالکیت معنوی و پردازش دادهها ضروری هستند. این گزارش اشاره میکند که این دستورالعملها براساس تجارب مفید خارجی و بازتاب اقدامات بین المللی تنظیم شدهاند و براساس پیشرفتهای فناوری به روز خواهند شد.
محدودیتهای محتوای تولیدشده توسط هوش مصنوعی
این دستورالعملها همچنین مستلزم آن هستند که محتوا و نتایج تولید شده توسط هوش مصنوعی در متن علمی برچسب گذاری شوند، به خصوص زمانی که صحبت از عناصر کلیدی مانند حقایق و نظرات باشد.
محتوای تولید شده توسط هوش مصنوعی باید در پاورقیها، بخش روشها یا پیوستهای مقالات پژوهشی به همراه توضیحاتی در مورد چگونگی تولید و نرم افزار استفاده شده، مشخص شود.
محتوای تولیدشده توسط هوش مصنوعی را نباید به عنوان متن اصلی در نظر گرفت. اگر نویسندگان دیگر بخواهند به این محتوا استناد کنند، باید در آن توضیحاتی ارائه شود. این دستورالعملها همچنین نیاز دارند که استنادهای ایجاد شده توسط هوش مصنوعی قبل از استفاده تایید شوند.
انتهای پیام/