صفحه نخست

آناتک

آنامدیا

دانشگاه

فرهنگ‌

علم

سیاست و جهان

اقتصاد

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

همدان

هرمزگان

یزد

پخش زنده

۱۱:۱۱ | ۰۴ / ۱۲ /۱۴۰۴
| |
نتیجه تحقیقات دانشگاه MIT:

هوش مصنوعی پاسخ کاربران ایرانی را با تبعیض و تحقیر می‌دهد

یافته‌های پژوهشگران دانشگاه ام‌آی‌تی نشان می‌دهد مدل‌های زبانی جهان، رویکردی دوگانه در برابر کاربران دارند و به افراد دارای ملیت ایرانی، سطح زبان انگلیسی پایین‌تر و تحصیلات کمتر، نه تنها اطلاعات نادرست ارائه می‌دهند، بلکه گاه با لحنی تمسخرآمیز از پاسخگویی طفره می‌روند.
کد خبر : 1035063

پژوهشگران مرکز ارتباطات سازنده در آزمایشگاه رسانه‌ای‌ MIT طی مطالعه‌ای دریافتند که پیشرفته‌ترین چت‌بات‌های هوش مصنوعی رفتاری دوگانه و تبعیض‌آمیز دارند. بررسی‌های انجام شده روی مدل‌های مطرحی همچون GPT-۴ محصول اوپن‌ای‌آی، مدل کلود ۳ اوپوس محصول آنتروپیک و لاما ۳ محصول متا نشان می‌دهد که این سیستم‌ها در برخورد با کاربرانی که پیشینه تحصیلی پایین‌تر دارند، زبان مادری‌شان انگلیسی نیست یا خاستگاه غیرآمریکایی دارند، عملکردی به مراتب ضعیف‌تری ارائه می‌دهند. این پژوهش ثابت می‌کند که رویای دسترسی برابر به اطلاعات، با سوگیری‌های نهفته در الگوریتم‌های فعلی فاصله بسیاری دارد و گروه‌های آسیب‌پذیر بیش از سایرین در معرض دریافت اطلاعات غلط قرار دارند.

رفتار متفاوت با کاربران ایرانی

یافته‌های این پژوهش در خصوص کاربران ایرانی حاوی نکات قابل تاملی است. تیم تحقیقاتی با بررسی تأثیر کشور مبدأ بر عملکرد مدل‌ها، کاربران سه کشور آمریکا، چین و ایران را با پیشینه تحصیلی یکسان مورد آزمایش قرار دادند. نتایج نشان داد که مدل کلود ۳ اوپوس به طور خاص در مواجهه با کاربران ایرانی، عملکردی به مراتب ضعیف‌تر در هر دو مجموعه داده مورد آزمایش داشته است.

این مدل هوش مصنوعی در موارد متعددی از ارائه اطلاعات به کاربران ایرانی با سطح تحصیلات پایین‌تر خودداری کرده است. موضوعاتی مانند انرژی هسته‌ای، آناتومی بدن انسان و برخی وقایع تاریخی از جمله مواردی بودند که هوش مصنوعی در پاسخ به کاربر ایرانی از توضیح آن‌ها سرباز زده، در حالی که همان سوالات را برای کاربران سایر کشور‌ها یا کاربران با تحصیلات عالی به درستی پاسخ داده است. جاد کباره، دانشمند محقق در این پروژه، معتقد است که فرآیند همسوسازی مدل‌ها ممکن است سیستم را تشویق کند تا اطلاعات را از گروه‌های خاصی دریغ کند، هرچند که پاسخ صحیح را می‌داند.

سقوط دقت در تقاطع زبان و تحصیلات

آزمایش‌های صورت گرفته توسط الینور پول-دایان و همکارانش بر روی دو مجموعه داده «TruthfulQA» (سنجش حقیقت‌گویی) و «SciQ» (سوالات امتحانی علوم) متمرکز بود. محققان برای هر پرسش، بیوگرافی‌های کوتاهی از کاربران ساختند که در سه ویژگی سطح تحصیلات، تسلط به زبان انگلیسی و کشور مبدأ با یکدیگر متفاوت بودند.

بررسی‌ها حاکی از آن است که دقت هر سه مدل هوش مصنوعی زمانی که سوال‌کننده دارای تحصیلات رسمی کمتر یا غیر انگلیسی‌زبان معرفی می‌شد، کاهش معناداری پیدا می‌کرد. شدیدترین افت کیفیت پاسخگویی در کاربرانی مشاهده شد که در تقاطع این دسته‌بندی‌ها قرار داشتند؛ یعنی افرادی که هم تحصیلات رسمی کمتری داشتند و هم زبان مادری‌شان انگلیسی نبود. این ترکیب باعث می‌شود تا آسیب‌پذیرترین قشر کاربران، بی‌کیفیت‌ترین و گمراه‌کننده‌ترین پاسخ‌ها را دریافت کنند.

لحن تحقیرآمیز و تمسخر کاربر

بخش نگران‌کننده دیگر این گزارش به نحوه تعامل کلامی هوش مصنوعی با کاربران باز می‌گردد. داده‌ها نشان می‌دهد نرخ امتناع از پاسخگویی در مدل کلود ۳ اوپوس برای کاربران غیربومی با تحصیلات پایین نزدیک به ۱۱ درصد بوده است، در حالی که این رقم برای کاربران بدون بیوگرافی مشخص تنها ۳.۶ درصد ثبت شده است.

تحلیل‌های پژوهشگران روی موارد امتناع از پاسخگویی پرده از واقعیتی تلخ برداشت. این مدل در ۴۳.۷ درصد از موارد امتناع برای کاربران کم‌سواد، از زبانی تحقیرآمیز، متکبرانه یا تمسخرآمیز استفاده کرده است. این در حالی است که چنین لحنی برای کاربران با تحصیلات عالی کمتر از یک درصد مشاهده شده است. در برخی موارد، هوش مصنوعی حتی اقدام به تقلید از انگلیسی شکسته کاربر کرده یا با لهجه‌ای اغراق‌آمیز پاسخ داده است که نشان‌دهنده بازتولید کلیشه‌های اجتماعی منفی در ساختار این مدل‌هاست.

بازتولید تعصبات انسانی در ماشین

ریشه‌های این رفتار تبعیض‌آمیز را می‌توان در الگو‌های سوگیری شناختی-اجتماعی انسان‌ها جست‌و‌جو کرد. علوم اجتماعی پیش‌تر ثابت کرده بودند که انگلیسی‌زبانان بومی اغلب افراد غیربومی را صرف‌نظر از تخصص واقعی‌شان، کم‌سوادتر و کم‌هوش‌تر تصور می‌کنند. دب روی، مدیر مرکز ارتباطات سازنده‌ ام‌آی‌تی، تاکید می‌کند که این مطالعه یادآوری مهمی برای ارزیابی مداوم سوگیری‌های سیستماتیک است که بی‌سروصدا وارد سیستم‌ها می‌شوند و آسیب‌های ناعادلانه‌ای ایجاد می‌کنند.

کارشناسان هشدار می‌دهند که با گسترش ویژگی‌های شخصی‌سازی مانند حافظه در چت‌بات‌ها که اطلاعات کاربر را در مکالمات ذخیره می‌کند، خطر رفتار نابرابر با گروه‌های به حاشیه رانده شده افزایش می‌یابد. ابزار‌هایی که قرار بود شکاف دانش را پر کنند، اکنون ممکن است با ارائه اطلاعات غلط یا امتناع از پاسخگویی، نابرابری‌های موجود را تشدید کنند.

انتهای پیام/

ارسال نظر
captcha