آخرین اخبار:
12:12 05 / 11 /1404
رسوایی جدید برای ایلان ماسک:

هوش مصنوعی گروک در ۱۱ روز ۲۳ هزار تصویر غیر اخلاقی از کودکان تولید کرد!

طی یک دوره ۱۱ روزه، هوش مصنوعی «گرَک» متعلق به شرکت xAI ایلان ماسک، حدود ۳ میلیون تصویر مستهجن تولید کرد. برآورد می‌شود ۲۳ هزار مورد از این تصاویر، کودکان را به صورت غیراخلاقی به تصویر کشیده باشند.

شبکه اجتماعی ایکس (X) در ۱۴ ژانویه، قابلیت تولید این تصاویر را محدود کرد. با این حال، گزارش‌ها حاکی است برنامک مستقل «گرَک» همچنان می‌تواند به درخواست‌های غیر اخلاقی برای «محو کردن پوشش» تصاویر افراد واقعی پاسخ مثبت دهد!

سکو‌های رسمی اپ‌استور و پلی‌استور در کنار مجرم! 

برنامک «گرَک» که ظاهراً هنوز هم چنین تصاویری را تولید می‌کند، همچنان در اپ‌استور اپل و پلی‌استور گوگل در دسترس است. پیش از این می‌دانستیم که «گرَک» در حال بمباران شبکه اجتماعی ایکس با تصاویر مستهجن از افراد واقعی است. اما اکنون اعدادی برای درک بهتر ابعاد فاجعه وجود دارد.

براساس گزارش انگجت «گرَک» در بازه ۱۱ روزه، به طور متوسط حدود ۱۹۰ تصویر غیراخلاقی در هر دقیقه تولید می‌کرد. در میان این حجم، هر ۴۱ ثانیه یک تصویر غیراخلاقی از یک کودک ساخته می‌شد.

مرکز مقابله با نفرت دیجیتال (CCDH) روز پنجشنبه یافته‌های خود را منتشر کرد. این سازمان غیرانتفاعی انگلیسی، تحقیقاتش را بر اساس نمونه‌ای تصادفی از ۲۰ هزار تصویر تولیدشده توسط «گرَک» بین ۸ دی تا ۱۹ دی انجام داده است. این مرکز سپس با استقرا، برآورد گسترده‌تری بر اساس ۴.۶ میلیون تصویر تولیدشده در آن دوره ارائه داد.

تعریف شوک‌آور از «تصویر غیراخلاقی» توسط یک هوش مصنوعی

این تحقیق، تصاویر غیراخلاقی را شامل «بازنمایی فوتورئال از یک فرد در موقعیت‌ها، زوایا یا حالات غیر متعارف اخلاقی؛ فردی با لباس زیر، مایو یا پوشش مشابهِ آشکارو... تعریف کرده است. مرکز CCDH دستورات متنی کاربران را در نظر نگرفته، بنابراین این برآورد تفاوتی بین نسخه‌های غیراخلاقی غیررضایتی عکس‌های واقعی و تصاویری که صرفاً از یک دستور متنی تولید شده‌اند، قائل نیست.

این مرکز از یک ابزار هوش مصنوعی برای شناسایی نسبت تصاویر غیراخلاقی در نمونه استفاده کرد. این روش ممکن است تا حدی نیازمند احتیاط در تفسیر یافته‌ها باشد. با این حال، بسیاری از سرویس‌های تحلیلی شخص ثالث برای ایکس، به دلیل استفاده از API این سکو، داده‌های قابل اعتمادی دارند.

شرکت xAI در ۱۹ دی، قابلیت ویرایش تصاویر موجود توسط «گرَک» را به کاربران پولی محدود کرد. این اقدام مشکل را حل نکرد، بلکه فقط آن را به یک ویژگی ویژه تبدیل نمود. پنج روز بعد، شبکه اجتماعی ایکس، قابلیت محو پوشش افراد واقعی توسط «گرَک» را محدود ساخت. اما این محدودیت فقط در سکوی ایکس اعمال شد. گزارش‌ها می‌گویند برنامک مستقل «گرَک» همچنان به تولید این تصاویر ادامه می‌دهد.

سکوت سنگین غول‌های فناوری در برابر نقض آشکار قوانین خود

از آنجایی که اپل و گوگل میزبان این برنامک‌ها هستند و خط‌مشی‌هایشان صراحتاً چنین مواردی را منع می‌کند، ممکن است انتظار داشته باشید آنها را از فروشگاه‌های خود حذف کنند. در این صورت، سخت در اشتباه هستید.

تاکنون، اپل به مدیریت تیم کوک و گوگل به مدیریت ساندار پیچای، «گرَک» را از فروشگاه‌های خود حذف نکرده‌اند. این در حالی است که اپ‌های مشابه «محو کنندۀ پوشش افراد» از توسعه‌دهندگان دیگر قبلاً حذف شده‌اند. این شرکت‌ها همچنین هنگامی که شبکه اجتماعی ایکس در حال تولید این تصاویر بود، هیچ اقدامی انجام ندادند. همه این‌ها در شرایطی رخ داده که ۲۸ گروه مدافع زنان و دیگر سازمان‌های غیرانتفاعی، نامه سرگشاده‌ای منتشر کرده و از این شرکت‌ها خواسته‌اند تا اقدام کنند.

یافته‌های این تحقیق در مورد تصاویر غیراخلاقی، شامل خروجی‌های متعددی از افراد با لباس‌های شنای بدن‌نما. مرکز CCDH به یکی از تصاویر اشاره کرد که «یک کارگر یونیفرم‌پوش بخش سلامت را با مایعات سفیدرنگ قابل مشاهده بین پا‌های گشادش» نشان می‌داد.

موارد دیگر شامل بانوانی بوده است که از پوشش محدودی استفاده کرده بودند. یک تصویر نیز «ابا بوش»، معاون نخست‌وزیر سوئد را با وضعیت غیر اخلاقی و نامناسبی، به تصویر کشیده بود. شخصیت‌های عمومی دیگری نیز در میان قربانیان بودند از جمله سلنا گومز، تیلور سوئیفت، بیلی آیلیش، آریانا گرانده، آیس اسپایس، نیکی میناژ، کریستینا هندریکس، میلی بابی براون و کامالا هریس که نشان دهندۀ گسترۀ اقدامات ضداجتماعی و غیراخلاقی گروک است.

نمونه‌های مرتبط با کودکان شامل موردی است که فردی از «گرَک» برای ویرایش یک «سلفی قبل از مدرسه» یک کودک و تبدیل آن به تصویری از او با لباس نامناسب استفاده کرده بود. تصاویری دیگری هم مورد بررسی مرکز CCDH قرار گرفته است که تا تاریخ ۲۵ دی، هر دوی این پست‌ها همچنان در ایکس فعال بودند.

منابع رسانه‌ای اضافه می‌کنند که ۲۹ درصد از تصاویر غیراخلاقی کودکان شناسایی‌شده در نمونه، تا ۲۵ دی همچنان در ایکس قابل دسترسی بودند. این تحقیق نشان داد حتی پس از حذف پست‌ها، تصاویر از طریق URL مستقیم خود همچنان در دسترس باقی مانده‌اند.

انتهای پیام/

ارسال نظر