چرا دانشمندان بیش از حد به هوش مصنوعی اعتماد دارند؟
به گزارش گروه پژوهش و دانش خبرگزاری علم و فناوری آنا به نقل از مجلۀ نیچر؛ دانشمندان به طور فزایندهای از فناوری هوش مصنوعی در زمینههای مختلف استفاده میکنند. بهرهگیری از هوش مصنوعی از ایجاد آزمایشگاههای «خودگردان» که در آن رباتها و الگوریتمها برای طراحی و اجرای آزمایشها با یکدیگر همکاری میکنند تا جایگزین کردن شرکتکنندگان انسانی در مطالعات علوم اجتماعی با رباتها پیش رفته است.
با این همه، اشکالات متعددی در مورد سیستمهای هوش مصنوعی مطرح شده است. به عنوان مثال، هوش مصنوعی مولد مانند چتجیپیتی (ChatGPT) تمایل دارند اطلاعات ساختگی یا اصطلاحاً «توهم» فراهم کنند. این در حالی است که عملکرد درونی سیستمهای یادگیری ماشینی مبهم و ناشناخته مانده است.
به تازگی مقالهای با عنوان «هوش مصنوعی و توهم ادراک در پژوهش علمی» در مجلۀ نیچر منتشر شده است که همین نگرانیها را برجسته میکند. به گفتۀ نویسندگان این مقاله، محققان ممکن است سیستمهای هوش مصنوعی را از نظر عینیت، بهرهوری و درک مفاهیم پیچیده، دارای قابلیتهای مافوق بشری بدانند. این تصور میتواند محققان را به نادیده گرفتن محدودیتهای این ابزارها سوق دهد، که به طور بالقوه دامنۀ تحقیقات علمی را محدود میکند یا به اشتباه توصهم ادراک را در کاربر ایجاد میکند.
نویسندگان بر اهمیت ارزیابی این خطرات تأکید میکنند، بهویژه در زمانۀ کنونی که برنامههای کاربردی هوش مصنوعی هنوز در مراحل اولیه خود هستند. آنها هشدار میدهند که اگر ابزارهای هوش مصنوعی در فرآیند تحقیق جایگاه ثابتی پیدا کنند، پرداختن به این مسائل بسیار چالشبرانگیزتر نیز میشود. هدف از این مقاله آن است که از هم اکنون به دانشمندان هشدار دهد تا خطرات مربوط به استفاده از سیستمهای هوش مصنوعی را در نظر بگیرند.
نویسندگان برای این استدلالهای خود بر حدود ۱۰۰ مقاله (شامل مقالههای علمی منتشر شده، مقالات در انتظار انتشار، مجموعه مقالات کنفرانسها و کتابهایی که عمدتاً در پنج سال گذشته منتشر شدهاند) بررسیهای جامعی انجام دادند. آنها از دل مقالههای علمی بررسی شده رویکردهای مختلفی به تواناییهای هوش مصنوعی یافتهاند.
بعضی هوش مصنوعی را شبیه به نوعی اوراکل یا پیشگو میبینند: محققان میبینند که ابزارهای هوش مصنوعی میتوانند به گونهای خستگیناپذیر مقالات علمی را بخوانند و هضم کنند و بنابراین ادبیات علمی را جامعتر از انسان میفهمند. در دیدگاه دیگر، هوش مصنوعی همچون داور نگریسته میشود. هم در اوراکل و هم در دیدگاه داور، تصور میشود که هوش مصنوعی به شیوهای عینیتر از انسانها میتواند یافتههای علمی را ارزیابی کند، زیرا احتمال کمی دارد که از ادبیات علمی برای حمایت از یک فرضیه مرجح یا طرفداری از گروههای خاص استفاده کند. در دیدگاه سوم، هوش مصنوعی نوعی ریاضیدان محسوب میشود. به نظر میرسد ابزارهای هوش مصنوعی در تجزیه و تحلیل مجموعه دادههای گسترده و پیچیده از محدودیتهای ذهن انسان رنج نمیبرند و توان تحلیل ریاضیاتی دقیقی دارند. در مورد چهارم، هوش مصنوعی به عنوان نوعی جانشین مطرح میشود. ابزارهای هوش مصنوعی دادههایی را شبیهسازی میکنند که به دست آوردن آنها بسیار دشوار یا پیچیده است.
با این حال، نویسندگان این مقاله خطرات بالقوه ناشی از این دیدگاهها را برجسته میکنند و مثلاً هشدار میدهند که دانشمندان نباید دچار توهم عمق تبیینی یا توهم وسعت اکتشافی شوند. آنها نسبت به اتکای بیش از حد به ابزارهای هوش مصنوعی برای تولید دانش و انجام آزمایش هشدار میدهند و بر اهمیت حفظ یک رویکرد متعادل در تحقیق تأکید میکنند.
در پایان، به دانشمندانی که قصد استفاده از فناوری هوش مصنوعی را دارند، توصیه میشود که این خطرات را به دقت در نظر بگیرند و استراتژیهایی برای کاهش آنها اتخاذ کنند. برای جامعه علمی، از جمله محققان، سرمایهگذاران، و ویراستاران مجلات، بسیار مهم است که با نگاهی انتقادی به استفاده از هوش مصنوعی بپردازند و اطمینان حاصل کنند که طیف متنوعی از دیدگاهها و روشها در تلاشهای تحقیقاتی حفظ میشوند. با اذعان به خطرات و مزایای مرتبط با استفاده از هوش مصنوعی، محققان میتوانند تصمیمات آگاهانه بگیرند و از دامهای احتمالی در فعالیتهای علمی خود جلوگیری کنند.
انتهای پیام/