هوش مصنوعی لجبازی میکند/ آموزشهای ضد تبعیض کافی نیست
به گزارش خبرگزاری علم و فناوری آنا به نقل از نیوساینتیست، چتباتهای هوش مصنوعی حتی پس از آموزشهای ضدنژادپرستی نیز به استفاده از کلیشههای تبعیضنژادی ادامه دادند.
استفاده از هوش مصنوعی رو به افزایش است و اطمینان از بیطرف بودن این سیستمها اهمیت فزایندهای پیدا کرده است. با این حال، یک مطالعه جدید نشان داده است که روشهای فعلی آموزش سیستمهای هوش مصنوعی برای حذف سوگیری ممکن است آن طور که فکر میکردیم مؤثر نباشد.
احساسات به ظاهر مثبت و سوگیری منفی
بنا بر این گزارش، مدلهای بزرگ زبانی همچنان نسبت به سخنرانان آفریقایی-آمریکایی که به زبان انگلیسی صحبت میکنند سوگیری نژادی نشان میدهند و این در حالی است که شرکتهای فناوری مانند اُپنایآی حفاظهای امنیتی خود را در این خصوص تقویت کردهاند. تحقیقات نشان میدهد که چتباتهای تجاری هوش مصنوعی نسبت به سخنرانان آفریقایی-آمریکایی که به زبان انگلیسی صحبت میکنند سوگیری نژادی دارند و البته در ظاهر احساساتی مثبت و سطحی نیز نسبت به این گونههای نژادی نشان میدهند. این سوگیری میتواند بر تصمیمات هوش مصنوعی در مورد گزینش نیروی انسانی برای استخدام و حتی جرم و جنایت افراد تأثیر بگذارد.
تبعیض آشکار چت جیپیتی
محققان در مورد اینکه چگونه مدلهای هوش مصنوعی سبکهای مختلف زبان انگلیسی مانند انگلیسی آفریقایی-آمریکایی و انگلیسی استاندارد آمریکایی را درک میکنند، مطالعهای انجام دادند. آنها دریافتند که مدلها تمایل داشتند کلیشههای منفی را به انگلیسیزبانان آفریقایی-آمریکایی مرتبط کنند. به عنوان مثال، چت جیپیتی-۴ ویژگیهای «مشکوک»، «تهاجمی»، «گوشخراش»، «بیادب» و «نادان» را به آنها نسب داد که نگرانیها را در خصوص سوگیریهای مضر تداوم میبخشد.
در مقابل وقتی از مدلهای هوش مصنوعی خواسته شد بهطور کلی درباره آمریکاییها اظهارنظر کنند، آنها از اصطلاحات مثبتتری مانند «باذوق»، «جاهطلب»، «هنرمند» و «درخشان» استفاده کردند. این نشان میدهد که سوگیری نژادی مدلها معمولاً زیر آنچه که نمایش سطحی احساسات توصیف میشود، پنهان است.
سوگیری در اختصاص مشاغل
والنتین هافمن (Valentin Hofmann) در مؤسسه هوش مصنوعی آلن (Allen) که سازمانی تحقیقاتی در واشنگتن است میگوید: «ما نوعی نژادپرستی پنهان را در [مدلهای بزرگ زبانی] کشف کردیم که تنها تحت تأثیر ویژگیهای گویش است و آسیبهای فراوانی برای گروههای آسیبپذیر به همراه دارد.»
محققان همچنین نشان دادند که سوگیری پنهان چگونه بر قضاوت چتباتها در سناریوهای فرضی تأثیر میگذارد. زمانی که از مدلهای هوش مصنوعی خواسته شد که انگلیسیزبانان آفریقایی-آمریکایی را با مشاغل مطابقت دهند، در مقایسه با انگلیسی زبانان استاندارد آمریکایی، احتمال کمتری وجود داشت که هوش مصنوعی آنها را با هر شغلی مرتبط کند.
هوش مصنوعی آمریکاییهای آفریقاییتبار را با مشاغلی تطبیق میداد که نیازی به مدرک دانشگاهی ندارند یا مرتبط با موسیقی و سرگرمی بودند. همچنین احتمال بیشتری وجود داشت که هوش مصنوعی انگلیسیزبانانِ آفریقایی-آمریکایی را به جنایات نامشخصی متهم کند و برای آمریکاییهای آفریقاییتبار و متهم به قتل درجه یک، مجازات اعدام تعیین کند.
ضرورت ارتقای آموزش و ارزیابی
محققان حتی نشان دادند که سیستمهای هوش مصنوعی بزرگتر نسبت به مدلهای کوچکتر سوگیری نژادی پنهانتری نشان میدهند و این منعکسکننده تحقیقات قبلی است که نشان میدهد مجموعه دادههای آموزشی هوش مصنوعی بزرگتر چگونه میتوانند خروجیهای نژادپرستانه بیشتری تولید کنند.
این مطالعه نشان داد در حالی که میتوان به این سیستمها آموزش داد از بهکارگیری کلمات یا عباراتی با سوگیری نژادی دوری کنند، اما همچنان دارای سوگیریهایی اساسی هستند که میتواند بر پاسخ آنها تأثیر بگذارد. این امر نیازمند ارتقای روشهای ارزیابی سیستمهای هوش مصنوعی قبل از رونمایی نسخه نهایی است.
انتهای پیام/