سازمان جهانی بهداشت خواستار استفاده اخلاقی از هوش مصنوعی شد
به گزارش خبرنگار گروه جامعه خبرگزاری علم و فناوری آنا، سازمان جهانی بهداشت خواستار احتیاط در استفاده از ابزارهای مدل زبانی بزرگ(LLM) تولید شده توسط هوش مصنوعی شده است.
گوگل در سال ۲۰۲۱ میلادی یک هوش مصنوعی به نام LaMDA معرفی کرد که میتوانست در مورد هر موضوعی با کاربران گپ بزند. گوگل این هوش مصنوعی را ابتدا در پورتال جستجوی اصلی خود، دستیار صوتی و مجموعه نرم افزارهای ابری شامل Gmail ،Docs و Drive ادغام کرد و هدف نهایی آن ایجاد یک رابط مکالمه بود که به افراد امکان میداد هر نوع اطلاعات شامل متن، تصویر و صوت را در تمام محصولات گوگل فقط با پرسیدن بازیابی کنند.
این فناوری نشانه دیگری از ورود فناوری زبان در زندگی روزمره است، اما این ابزار گوگل بحث اخلاقی که اکنون حول چنین سیستم های پیشرفتهای در جریان است، نادیده میگیرد. این ابزار همان چیزی است که به عنوان مدل زبانی بزرگ (LLM) شناخته میشود، الگوریتم یادگیری عمیق که بر پایه حجم وسیعی داده متنی آموزش دیده است.
به طورکلی، مدل زبانی بزرگ در واقع فناوریهای پایهای هستند که به رشد تساعدی چترباتهای هوش مصنوعی مولد کمک کردهاند. ابزارهایی مانند ChatGPT، Google Bard، و Bing Chat همگی به LLM برای ایجاد پاسخهای مناسب به درخواستها و سؤالات وابسته هستند.
سازمان جهانی بهداشت در بیانیهای که روز سه شنبه منتشر شد خواستار بررسی دقیق خطرات فناوری LLM شد و تاکید کرد، خطرات استفاده از این ابزار بسیار جدی است.
مدلهای زبانی بزرگ برای بهبود دسترسی به اطلاعات بهداشتی، به عنوان ابزارهای پشتیبانی و برای افزایش ظرفیت تشخیصی در منابع محدود استفاده میشوند.
این نهاد بینالمللی هشدار داده است که احتیاطهایی که معمولاً برای فناوریهای جدید اعمال میشود به طور مداوم در مورد LLMها اجرا نمیشود.
سازمان جهانی بهداشت خاطرنشان میکند، پذیرش سریع سیستمهای آزمایش نشده میتواند منجر به اشتباهات کارکنان مراقبهای بهداشتی شود، به بیماران آسیب برساند و اعتماد به هوش مصنوعی را از بین ببرد. علاوهبر این، بیدقتی در بررسی همه جانبه میتواند مزایای بالقوه بلندمدت چنین فناوریهایی را تضعیف یا به تاخیر بیندازد.
به همین منظور، سازمان جهانی بهداشت خواستار نظارت دقیق بر LLMها شده است تا اطمینان حاصل شود که از آنها به روشهای ایمن، مؤثر و اخلاقی استفاده میشود.
این نهاد اضافه کرد، از آنجایی که شرکتهای فناوری برای تجاریسازی LLMها تلاش میکنند، سیاستگذاران باید حفظ ایمنی و محافظت از بیماران را تضمین کنند.
مزایای LLM باید قبل از استفاده چه در مقیاس وسیع برای مراقبتهای بهداشتی و پزشکی و چه در مقیاس کوچک و معمول توسط افراد و چه ارائهدهندگان مراقبتها یا مدیران سیستم سلامت و سیاستگذاران، اندازهگیری شود.
راهنمای سازمان جهانی بهداشت در مورد اخلاق و حکمرانی هوش مصنوعی برای سلامت، که در ژوئن ۲۰۲۱ منتشر شد، بر اهمیت به کارگیری اصول اخلاقی و حکمرانی مناسب هنگام طراحی، توسعه و به کارگیری هوش مصنوعی برای سلامت تاکید دارد.
انتهای پیام/