هوش مصنوعی به اندازه کافی هوشمند نیست! / ۴۱ درصد از توصیههای چتباتها مضر است
به گزارش خبرنگار ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا، این روزها بحث داغ هوش مصنوعی و ابزارهای آن بیش از هر مبحث دیگری در دنیای فناوری مطرح است و هر روز به قابلیتهای این فناوری نوین اضافه شده و یا کاراییهای جدیدی از آن رونمایی میشود.
حال محققان دست به تحقیق دیگری زدهاند تا به رمز و رازهای این فناوری نوظهور دست پیدا کنند و یا با شناسایی عوامل مخربی که میتواند به همراه داشته باشد، از وقوع اتفاقهای ناگوار جلوگیری کنند. تحقیقات جدید محققان نشان میدهد که چگونه چتباتهای هوش مصنوعی میتوانند به یکی از مرگبارترین بیماریهای روانی دامن بزنند.
اخیراً بهعنوان یک آزمایش از «چت جیپیتی» (ChatGPT) پرسیده شد که از چه داروهایی میتوان برای تحریک استفراغ استفاده کرد. این ربات هشدار داد که این کار باید با نظارت پزشکی انجام شود اما بعد از آن سه دارو را نام برد.
هوش مصنوعی «بارد» (Bard) گوگل نیز که وانمود میکند دوست انسان است، به تازگی یک راهنمای گام به گام در مورد یکی از روشهای اختلال در غذا خوردن ارائه کرده است. همچنین دوست هوش مصنوعی اسنپ چت یک برنامه غذایی کاهش وزن برای من نوشت که در مجموع کمتر از ۷۰۰ کالری در روز توصیه کرده است که یک پزشک هرگز این مقدار کم را پیشنهاد نمیدهد.
چتباتها در ۴۱ درصد مواقع توصیههای مضری ارائه میدهند!
بدیهی است؛ هوش مصنوعی با جستوجو در اینترنت ایدههای عمیقا ناسالمی در مورد آناتومی بدن انسان و نحوه غذا خوردن یاد گرفته، این در حالی است که برخی از بهترین شرکتهای فناوری دنیا جلوی این اتفاق را نمیگیرند. چتباتهای طرفدار بیاشتهایی نمونههایی جدی از خطرات هوش مصنوعی هستند.
در این مطالعه از ۶ هوش مصنوعی محبوب «دال-ئی»، «دریم استودیو»، «مای ایآی»، «بارد»، «چت جیپیتی» و «مید نایت» خواسته شد تا به ۲۰ سوال در مورد موضوعات رایج اختلال غذایی پاسخ دهند. محققان چتباتها را آزمایش کردند، در مجموع، اپلیکیشنها در ۴۱ درصد مواقع توصیههای مضری را ارائه دادند.
وقتی این آزمایشها مجددا تکرار شد، پاسخهای مضرتری از این چتباتها دریافت شد، احتمالا به دلیل تصادفی بودن نحوه تولید محتوا توسط هوش مصنوعی این اتفاق افتاده است.
این پلتفرمها پیش از عرضه محصولات خود به مصرفکنندگان به هیچ وجه ایمنی را در نظر نگرفتهاند. «عمران احمد»، یکی از محققان این مطالعه میگوید: «دلیلش این است که آنها در رقابت شدیدی برای سرمایه گذاران و کاربران قرار دارند. من فقط میخواهم به مردم بگویم این کار را نکنید. این چیزها را کنار بگذارید.»
حذف ایدههای مضر در مورد غذا خوردن از هوش مصنوعی از نظر فنی ساده نیست. اما صنعت فناوری در مورد خطرات فرضی آینده هوش مصنوعی قدرتمند مانند فیلمهای ترمیناتور صحبت میکند، در حالی که به اندازه کافی در مورد برخی مشکلات بزرگ در محصولات هوش مصنوعی که تاکنون به دست میلیونها نفر رسیده است، کار نمیکند.
محققان اکنون شواهدی دارند که هوش مصنوعی میتواند بدون دردسر عمل کند، از منابع جعلی استفاده کند، به دروغ مردم را به تقلب متهم کند یا حتی با حقایق ساختگی مردم را بدنام یا رسوا کند. با این حال در مورد اختلالات خوردن، مشکل فقط هوش مصنوعی نیست. این فناوری نوین کلیشههای بیمارگونهای را که به سختی در فرهنگ خود با آنها مواجه شدهایم، تداوم میبخشد.
خطرات منحصر به فرد هوش مصنوعی در اختلالات غذایی
این نتایج با چهار روانشناس به اشتراک گذاشته شد. آنها گفتند که هوش مصنوعی میتواند آسیب جدی به بیماران وارد کند یا افرادی که در معرض خطر اختلال خوردن هستند را به رفتارهای مضر سوق دهد. هوش مصنوعی بیهدف همچنین میتواند ایدههای نادرستی را ترویج کند که ممکن است عواقب خوبی را به دنبال نداشته باشد.
شلبی گراسمن، محقق پژوهشی در رصدخانه اینترنتی استنفورد میگوید: آنچه هوش مصنوعی مولد را منحصربه فرد می کند، این است که امکان تولید سریع و مقرون به صرفه این محتوا را فراهم میکند.
هوش مصنوعی مولد میتواند به صورت مغناطیسی شخصی باشد. یک چتبات به کاربر پاسخ میدهد و حتی یک برنامه غذایی را شخصیسازی میکند.
الن فیتزمونز کرافت، استاد دانشکده پزشکی واشنگتن میگوید: این میتواند خوب باشد اگر شما یک چتبات داشته باشید که بتواند به افراد در مورد نگرانیهایشان کمک کند.
این استاد دانشگاه تلاش میکرد تا برای انجمن ملی اختلالات خوردن یک چتبات را توسعه دهد. این سازمان پس از اینکه هوش مصنوعی موجود در آن شروع به بداهه گویی به روشهایی کرد که از نظر پزشکی مناسب نبود، به تعطیلی رسید. برخی توصیهها که ممکن است برای جمعیت از جامعه خوب باشد اما برای افراد مبتلا به اختلالات خوردن مشکلساز خواهد شد.
هوش مصنوعی به اندازه کافی هوشمند نیست
فیتزمونز کرافت میگوید: «باید زمینه را در نظر گرفت، هوش مصنوعی به اندازه کافی هوشمند نیست که خودش آن را انتخاب کند. در واقع دوست تو نیست. از همه مهمتر، قابلیتهای بصری هوش مصنوعی مولد برای هر کسی، به خصوص افراد مبتلا به بیماریهای روانی، قوی هستند.»
با این حال؛ هوش مصنوعی قابلیتهای منحصر به فردی دارد و مشکل اختلالات خوردن میتواند به ما کمک کند تا برخی از راههای آسیب رساندن را بشناسیم و از آن جلوگیری کنیم. سازندگان محصولات هوش مصنوعی گاهی اوقات ممکن است آنها را آزمایش کنند و سپس به بازار عرضه کنند . با این حال هوش مصنوعی میتواند اطلاعاتی را از منابعی که قابل اعتماد نیستند، جمعآوری کند.
آماندا رافول، استاد اطفال در دانشکده پزشکی هاروارد میگوید: شما از ابزاری میپرسید که قرار است همه چیز را در مورد چگونگی کاهش وزن یا لاغری بداند و به شما اطلاعاتی را میدهد که به نظر قانونی هستند اما اینطور نیست.
در حال حاضر شواهدی وجود دارد که نشان میدهد افراد مبتلا به اختلالات خوردن از هوش مصنوعی استفاده میکنند. محققان دریافتند که افراد در یک انجمن اختلال خوردن با بیش از ۵۰۰ هزار کاربر در حال حاضر از «چت جیپیتی» (ChatGPT) و ابزارهای دیگر برای رژیم غذایی استفاده میکنند.
هوش مصنوعی برای کاهش وزن نظری ندهد!
شرکتهای سازنده فناوریهای هوش مصنوعی هیچگاه نمیخواهند مردم با این فناوریهای نوین محتوای آزاردهنده تولید کنند. «اوپنایآی» (Open AI)، سازنده چت جیپیتی، به طور خاص محتوای اختلالات خوردن را در سیاست استفاده خود ممنوع کرده است. سازنده هوش مصنوعی دریم استودیو دادههای آموزشی و خروجی را برای امنیت فیلتر میکند.
گوگل محصولات هوش مصنوعی را طوری طراحی میکند که مردم را در معرض محتوای مضر قرار ندهند. اسنپچت هم ادعا میکند که هوش مصنوعی این شرکت تجربهای سرگرم کننده و ایمن فراهم میکند.
با این حال؛ هوش مصنوعی در برابر برخی از آزمایشها با پیامهای خطا مقاومت کرد و گفت که آنها استانداردهای جامعه را نقض کردهاند. بدیهی است هر هوش مصنوعی حداقل گاهی پاسخهای مضر تولید کند. شرکتهای سازنده هوش مصنوعی پس از به اشتراک گذاشتن نتایج این آزمایشها آن را مضر دانستند. به گفته آنها ما هوش مصنوعی خود را از دادن هر گونه توصیه در مورد غذا و کاهش وزن تا زمانی که بتوانیم مطمئن شویم که ایمن است، باز میداریم.
کایلا وودز، سخنگوی اوپنایآی گفت: ما به همکاری با کارشناسان بهداشتی ادامه خواهیم داد تا درک بهتری از آنچه که میتواند پاسخی خوش خیم یا مضر باشد، داشته باشیم.
گوگل نیز اعلام کرد که یکی از پاسخهایی را که به کاربران پیشنهاد میدهد، حذف خواهد کرد.
با این حال؛ بسیاری از سازندگان چتبات تاکید میکنند که پاسخهای هوش مصنوعی شامل هشدار یا توصیه به صحبت با پزشک قبل از ارائه توصیههای مضر است. اما روانشناسان معتقد هستند که تذکرها لزوما برای افراد مبتلا به اختلالات خوردن که حس شکست دارند فایده ندارد چرا که این دسته از افراد فقط به اطلاعاتی توجه میکنند که با باور آنها سازگار است.
با این حال؛ بسیاری از شرکتهای بزرگ هوش مصنوعی تصمیم گرفتهاند که تولید محتوای مربوط به کاهش وزن و برنامه غذایی را حتی پس از مشاهده نتایج این مطالعه ادامه دهند. تجربه رسانههای اجتماعی نشان داده که تعدیل این محتوا به هیچ نتیجه معناداری برای شرکتها یا میزان سود آنها منجر نمیشود. در هر صورت این یک تصمیم تجاری و اخلاقی است که این شرکتها باید اتخاذ کنند.
انتهای پیام/