هشدار یونیسف درباره گسترش دیپفیکهای جنسی کودکان؛ خلأ قانونی جدی در جهان
به گزارش خبرنگار آنا، دیپفیک به تصاویر، ویدیوها یا صداهایی گفته میشود که با استفاده از فناوریهای هوش مصنوعی تولید یا دستکاری میشوند و بهگونهای طراحی شدهاند که واقعی به نظر برسند. با توجه به گسترش استفاده از هوش مصنوعی خصوصا در نوجوانها و کودکان، صندوق کودکان سازمان ملل متحد (یونیسف) روز گذشته هشدار داد: شواهد جدید نشان میدهد، تصاویر جنسی کودکان که با هوش مصنوعی تولید میشوند، بهسرعت در حال تکثیر هستند و در عین حال، قوانین کافی برای جلوگیری از این روند وجود ندارد.
یونیسف در بیانیهای اعلام کرد:
آسیب ناشی از سوءاستفاده از دیپفیک واقعی و فوری است. کودکان بیصبرانه منتظرند تا قانون به این موضوع رسیدگی کند.
بر اساس مطالعهای که در ۱۱ کشور توسط یونیسف، پلیس بینالملل (اینترپل) و شبکه جهانی ECPAT ـ نهادی که برای پایان دادن به استثمار جنسی کودکان در سراسر جهان فعالیت میکند ـ انجام شده است، دستکم ۱.۲ میلیون کودک در سال گذشته اعلام کردهاند که تصاویر آنها به دیپفیکهای جنسی صریح تبدیل شده است.
این مطالعه نشان میدهد که در برخی کشورها، این رقم معادل یک کودک از هر ۲۵ کودک است؛ آماری که تقریباً برابر با وجود یک قربانی در هر کلاس درس معمولی محسوب میشود.
ابزارهای «برهنهسازی»
بر اساس این گزارش، جعل عمیق یا دیپفیک ـ شامل تصاویر، ویدیوها یا صداهایی که با هوش مصنوعی تولید یا دستکاری میشوند ـ بهطور فزایندهای برای تولید محتوای جنسی مرتبط با کودکان مورد استفاده قرار میگیرد. یکی از روشهای رایج در این زمینه، استفاده از ابزارهای موسوم به «برهنهسازی» است که با کمک هوش مصنوعی، لباس افراد را در تصاویر حذف یا تغییر میدهد و تصاویر برهنه یا جنسی جعلی ایجاد میکند.
یونیسف اعلام کرد: وقتی از تصویر یا هویت یک کودک استفاده میشود، آن کودک مستقیماً قربانی میشود. حتی در مواردی که قربانی قابل شناسایی نیست، محتوای سوءاستفاده جنسی از کودکان که توسط هوش مصنوعی تولید میشود، سوءاستفاده جنسی از کودکان را عادیسازی میکند، تقاضا برای محتوای توهینآمیز را افزایش میدهد و چالشهای جدی برای نیروهای اجرای قانون در شناسایی و حمایت از کودکانی که به کمک نیاز دارند، ایجاد میکند.
در این بیانیه تأکید شده است: سوءاستفاده از دیپفیک، سوءاستفاده است و هیچ چیز جعلی در مورد آسیبی که ایجاد میکند، وجود ندارد.
درخواست برای حفاظتهای قویتر
یونیسف اعلام کرد که از تلاش توسعهدهندگان هوش مصنوعی که رویکردهای «ایمنی بر اساس طراحی» و حفاظتهای قوی برای جلوگیری از سوءاستفاده از سیستمهای خود بهکار میگیرند، استقبال میکند. با این حال، این سازمان افزود که تاکنون واکنشها پراکنده بوده و بسیاری از مدلهای هوش مصنوعی بدون حفاظتهای کافی توسعه یافتهاند.
به گفته یونیسف، زمانی که ابزارهای هوش مصنوعی مولد مستقیماً در پلتفرمهای شبکههای اجتماعی ادغام میشوند ـ جایی که تصاویر دستکاریشده میتوانند بهسرعت منتشر شوند ـ خطرات بهطور قابل توجهی افزایش مییابد.
یونیسف همچنین اعلام کرد کودکان خودشان بهخوبی از این خطر آگاه هستند. در برخی از کشورهای مورد مطالعه، تا دو سوم جوانان گفتهاند نگران این هستند که هوش مصنوعی برای تولید تصاویر یا ویدیوهای جنسی جعلی مورد استفاده قرار گیرد.
تهدیدی رو به رشد
این نهاد سازمان ملل متحد اعلام کرد میزان نگرانی در کشورهای مختلف متفاوت است و این موضوع بر ضرورت فوری افزایش آگاهی عمومی، اقدامات پیشگیرانه و تقویت حفاظتهای مؤثر تأکید دارد.
یونیسف در ماه دسامبر، نسخه ۳.۰ «راهنمای هوش مصنوعی و کودکان» را منتشر کرده است که شامل توصیههایی برای سیاستها و سیستمهایی است که از حقوق کودکان حمایت میکنند.
در پایان، یونیسف خواستار اقدام فوری برای مقابله با این تهدید رو به افزایش شد و اعلام کرد: دولتها باید تعاریف مربوط به محتوای سوءاستفاده جنسی از کودکان را گسترش دهند تا محتوای تولیدشده توسط هوش مصنوعی را نیز شامل شود و تولید، نگهداری و توزیع آن را جرمانگاری کنند.
توسعهدهندگان هوش مصنوعی باید رویکردهای ایمنی مبتنی بر طراحی و حفاظتهای قوی برای جلوگیری از سوءاستفاده از مدلهای خود اجرا کنند.
شرکتهای دیجیتال باید از انتشار محتوای سوءاستفاده جنسی از کودکان تولیدشده توسط هوش مصنوعی جلوگیری کنند، نه اینکه صرفاً آن را حذف کنند، و با سرمایهگذاری در فناوریهای تشخیص، فرایند تعدیل محتوا را تقویت کنند.
انتهای پیام/