صفحه نخست

آناتک

آنامدیا

دانشگاه

فرهنگ‌

علم

سیاست و جهان

اقتصاد

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

همدان

هرمزگان

یزد

پخش زنده

۱۷:۵۰ | ۱۶ / ۱۱ /۱۴۰۴
| |

هشدار یونیسف درباره گسترش دیپ‌فیک‌های جنسی کودکان؛ خلأ قانونی جدی در جهان

صندوق کودکان سازمان ملل متحد (یونیسف) با هشدار درباره افزایش سریع تصاویر و محتوای جنسی کودکان که با هوش مصنوعی و فناوری دیپ‌فیک تولید می‌شوند، اعلام کرد: شواهد جدید نشان می‌دهد دست‌کم ۱.۲ میلیون کودک در سال گذشته قربانی این پدیده شده‌اند.
کد خبر : 1030841

به گزارش خبرنگار آنا، دیپ‌فیک به تصاویر، ویدیوها یا صداهایی گفته می‌شود که با استفاده از فناوری‌های هوش مصنوعی تولید یا دستکاری می‌شوند و به‌گونه‌ای طراحی شده‌اند که واقعی به نظر برسند. با توجه به گسترش استفاده از هوش مصنوعی خصوصا در نوجوان‌ها و کودکان، صندوق کودکان سازمان ملل متحد (یونیسف) روز گذشته هشدار داد: شواهد جدید نشان می‌دهد، تصاویر جنسی کودکان که با هوش مصنوعی تولید می‌شوند، به‌سرعت در حال تکثیر هستند و در عین حال، قوانین کافی برای جلوگیری از این روند وجود ندارد.

یونیسف در بیانیه‌ای اعلام کرد:

آسیب ناشی از سوءاستفاده از دیپ‌فیک واقعی و فوری است. کودکان بی‌صبرانه منتظرند تا قانون به این موضوع رسیدگی کند.

بر اساس مطالعه‌ای که در ۱۱ کشور توسط یونیسف، پلیس بین‌الملل (اینترپل) و شبکه جهانی ECPAT ـ نهادی که برای پایان دادن به استثمار جنسی کودکان در سراسر جهان فعالیت می‌کند ـ انجام شده است، دست‌کم ۱.۲ میلیون کودک در سال گذشته اعلام کرده‌اند که تصاویر آن‌ها به دیپ‌فیک‌های جنسی صریح تبدیل شده است.

این مطالعه نشان می‌دهد که در برخی کشورها، این رقم معادل یک کودک از هر ۲۵ کودک است؛ آماری که تقریباً برابر با وجود یک قربانی در هر کلاس درس معمولی محسوب می‌شود.

ابزارهای «برهنه‌سازی»

بر اساس این گزارش، جعل عمیق یا دیپ‌فیک ـ شامل تصاویر، ویدیوها یا صداهایی که با هوش مصنوعی تولید یا دستکاری می‌شوند ـ به‌طور فزاینده‌ای برای تولید محتوای جنسی مرتبط با کودکان مورد استفاده قرار می‌گیرد. یکی از روش‌های رایج در این زمینه، استفاده از ابزارهای موسوم به «برهنه‌سازی» است که با کمک هوش مصنوعی، لباس افراد را در تصاویر حذف یا تغییر می‌دهد و تصاویر برهنه یا جنسی جعلی ایجاد می‌کند.

یونیسف اعلام کرد: وقتی از تصویر یا هویت یک کودک استفاده می‌شود، آن کودک مستقیماً قربانی می‌شود. حتی در مواردی که قربانی قابل شناسایی نیست، محتوای سوءاستفاده جنسی از کودکان که توسط هوش مصنوعی تولید می‌شود، سوءاستفاده جنسی از کودکان را عادی‌سازی می‌کند، تقاضا برای محتوای توهین‌آمیز را افزایش می‌دهد و چالش‌های جدی برای نیروهای اجرای قانون در شناسایی و حمایت از کودکانی که به کمک نیاز دارند، ایجاد می‌کند.

در این بیانیه تأکید شده است: سوءاستفاده از دیپ‌فیک، سوءاستفاده است و هیچ چیز جعلی در مورد آسیبی که ایجاد می‌کند، وجود ندارد.

درخواست برای حفاظت‌های قوی‌تر

یونیسف اعلام کرد که از تلاش توسعه‌دهندگان هوش مصنوعی که رویکردهای «ایمنی بر اساس طراحی» و حفاظت‌های قوی برای جلوگیری از سوءاستفاده از سیستم‌های خود به‌کار می‌گیرند، استقبال می‌کند. با این حال، این سازمان افزود که تاکنون واکنش‌ها پراکنده بوده و بسیاری از مدل‌های هوش مصنوعی بدون حفاظت‌های کافی توسعه یافته‌اند.

به گفته یونیسف، زمانی که ابزارهای هوش مصنوعی مولد مستقیماً در پلتفرم‌های شبکه‌های اجتماعی ادغام می‌شوند ـ جایی که تصاویر دستکاری‌شده می‌توانند به‌سرعت منتشر شوند ـ خطرات به‌طور قابل توجهی افزایش می‌یابد.

یونیسف همچنین اعلام کرد کودکان خودشان به‌خوبی از این خطر آگاه هستند. در برخی از کشورهای مورد مطالعه، تا دو سوم جوانان گفته‌اند نگران این هستند که هوش مصنوعی برای تولید تصاویر یا ویدیوهای جنسی جعلی مورد استفاده قرار گیرد.

تهدیدی رو به رشد

این نهاد سازمان ملل متحد اعلام کرد میزان نگرانی در کشورهای مختلف متفاوت است و این موضوع بر ضرورت فوری افزایش آگاهی عمومی، اقدامات پیشگیرانه و تقویت حفاظت‌های مؤثر تأکید دارد.

یونیسف در ماه دسامبر، نسخه ۳.۰ «راهنمای هوش مصنوعی و کودکان» را منتشر کرده است که شامل توصیه‌هایی برای سیاست‌ها و سیستم‌هایی است که از حقوق کودکان حمایت می‌کنند.

در پایان، یونیسف خواستار اقدام فوری برای مقابله با این تهدید رو به افزایش شد و اعلام کرد: دولت‌ها باید تعاریف مربوط به محتوای سوءاستفاده جنسی از کودکان را گسترش دهند تا محتوای تولیدشده توسط هوش مصنوعی را نیز شامل شود و تولید، نگهداری و توزیع آن را جرم‌انگاری کنند.

توسعه‌دهندگان هوش مصنوعی باید رویکردهای ایمنی مبتنی بر طراحی و حفاظت‌های قوی برای جلوگیری از سوءاستفاده از مدل‌های خود اجرا کنند.

شرکت‌های دیجیتال باید از انتشار محتوای سوءاستفاده جنسی از کودکان تولیدشده توسط هوش مصنوعی جلوگیری کنند، نه اینکه صرفاً آن را حذف کنند، و با سرمایه‌گذاری در فناوری‌های تشخیص، فرایند تعدیل محتوا را تقویت کنند.

انتهای پیام/

ارسال نظر
captcha