صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
۱۲:۳۰ - ۲۸ ارديبهشت ۱۴۰۲
شینهوا:

سازمان جهانی بهداشت خواستار استفاده اخلاقی از هوش مصنوعی شد

سازمان جهانی بهداشت خواستار احتیاط در استفاده از ابزارهای مدل زبانی بزرگ تولید شده توسط هوش مصنوعی شد.
کد خبر : 848020

به گزارش خبرنگار گروه جامعه خبرگزاری علم و فناوری آنا، سازمان جهانی بهداشت خواستار احتیاط در استفاده از ابزارهای مدل زبانی بزرگ(LLM) تولید شده توسط هوش مصنوعی شده است.

گوگل در سال ۲۰۲۱ میلادی یک هوش مصنوعی به نام LaMDA معرفی کرد که می‌توانست در مورد هر موضوعی با کاربران گپ بزند. گوگل این هوش مصنوعی را ابتدا در پورتال جستجوی اصلی خود، دستیار صوتی و مجموعه نرم افزارهای ابری شامل Gmail ،Docs و Drive ادغام کرد و هدف نهایی آن ایجاد یک رابط مکالمه بود که به افراد امکان می‌داد هر نوع اطلاعات شامل متن، تصویر و صوت را در تمام محصولات گوگل فقط با پرسیدن بازیابی کنند.

این فناوری نشانه دیگری از ورود فناوری زبان در زندگی روزمره است، اما این ابزار گوگل بحث اخلاقی که اکنون حول چنین سیستم های پیشرفته‌ای در جریان است، نادیده می‌گیرد. این ابزار همان چیزی است که به عنوان مدل زبانی بزرگ (LLM) شناخته می‌شود، الگوریتم یادگیری عمیق که بر پایه حجم وسیعی داده متنی آموزش دیده است.

به طورکلی، مدل‌ زبانی بزرگ در واقع فناوری‌های ‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌پایه‌ای هستند که به رشد تساعدی چت‌ربات‌های هوش مصنوعی مولد کمک کرده‌اند. ابزارهایی مانند ChatGPT، Google Bard، و Bing Chat همگی به LLM برای ایجاد پاسخ‌های مناسب به درخواست‌ها و سؤالات وابسته هستند.

سازمان جهانی بهداشت در بیانیه‌ای که روز سه شنبه منتشر شد خواستار بررسی دقیق خطرات فناوری LLM شد و تاکید کرد، خطرات استفاده از این ابزار بسیار جدی است.

 مدل‌های زبانی بزرگ برای بهبود دسترسی به اطلاعات بهداشتی، به عنوان ابزارهای پشتیبانی و برای افزایش ظرفیت تشخیصی در منابع محدود استفاده می‌شوند.

این نهاد بین‌المللی هشدار داده است که احتیاط‌هایی که معمولاً برای فناوری‌های جدید اعمال می‌شود به طور مداوم در مورد LLM‌ها اجرا نمی‌شود.

 سازمان جهانی بهداشت خاطرنشان می‌کند، پذیرش سریع سیستم‌های آزمایش نشده می‌تواند منجر به اشتباهات کارکنان مراقب‌های بهداشتی شود، به بیماران آسیب برساند و اعتماد به هوش مصنوعی را از بین ببرد. علاوه‌بر این، بی‌دقتی در بررسی همه جانبه می‌تواند مزایای بالقوه بلندمدت چنین فناوری‌هایی را تضعیف یا به تاخیر بیندازد.

به همین منظور، سازمان جهانی بهداشت خواستار نظارت دقیق بر LLMها شده است تا اطمینان حاصل شود که از آنها به روش‌های ایمن، مؤثر و اخلاقی استفاده می‌شود.

این نهاد اضافه کرد، از آنجایی که شرکت‌های فناوری برای تجاری‌سازی LLM‌ها تلاش می‌کنند، سیاست‌گذاران باید حفظ ایمنی و محافظت از بیماران را تضمین کنند.

 مزایای LLM باید قبل از استفاده چه در مقیاس وسیع برای مراقبت‌های بهداشتی و پزشکی و چه در مقیاس کوچک و معمول توسط افراد و چه ارائه‌دهندگان مراقبت‌ها یا مدیران سیستم سلامت و سیاست‌گذاران، اندازه‌گیری شود.

راهنمای سازمان جهانی بهداشت در مورد اخلاق و حکمرانی هوش مصنوعی برای سلامت، که در ژوئن ۲۰۲۱ منتشر شد، بر اهمیت به کارگیری اصول اخلاقی و حکمرانی مناسب هنگام طراحی، توسعه و به کارگیری هوش مصنوعی برای سلامت تاکید دارد.

انتهای پیام/

ارسال نظر