آیا اپل به سیاهچاله تبدیل شده است؟/ ابهام در گزارش تصاویر غیراخلاقی از کودکان
به گزارش خبرگزاری علم و فناوری آنا به نقل از گاردین، طبق گزارش انجمن ملی پیشگیری از ظلم به کودکان (NSPCC) در انگلستان، اپل متهم است که تعداد دفعات سوء استفاده جنسی از کودکان را که در محصولاتش از جمله آی کلاد، آی مسیج و فِیس تایم، ظاهر میشود کم شمارش کرده است.
دادههای انجمن ملی پیشگیری از ظلم به کودکان انگلستان با استناد به قانون آزادی گردش اطلاعات این گزارش را در اختیار مجله گاردین قرار داده است. بنا بر این گزارش، اپل در ۳۳۷ تخلف ثبت شده از تصاویر کودکآزاری در انگلستان و وِلز بین آوریل ۲۰۲۲ تا مارس ۲۰۲۳ دست داشته است که با گزارش قبلی که ۲۶۷ مورد را گزارش کرده بود در تضاد است.
در مقایسه، گوگل بیش از ۱.۴۷ میلیون مورد مشکوک به کودکآزاری را گزارش کرد، متا بیش از ۳۰.۶ میلیون مورد را در سال ۲۰۲۳ به انجمن مورد اشاره گزارش کرد. اختلاف بین تعداد جرایم تصویری کودک آزاری که در سرویسهای اپل در بریتانیا نگرانکننده بود ضمن آنکه گزارشهایی از محتوای این سوء استفادهها به مقامات انگلیسی ارائه شده است.
سارا گاردنر، مدیر ارشد اجرایی در مؤسسه هیت اینیشتیو (Heat Initiative) که یک سازمان غیرانتفاعی برای حفاظت از کودکان در لس آنجلس است گفت: «اپل در حال حرکت به سمت سرزمینی است که میدانیم بدون نظارت میتواند برای کودکان بسیار مضر و خطرناک باشد. اپل یک سیاهچاله است!»
تصمیم اپل برای توقف برنامه اسکن عکسهای آیکلاد با موضوع آزار جنسی و سوءاستفاده از عکسهای کودکان باعث شده که رویکرد این کمپانی برای مقابله با این تخلف زیر سؤال برود، به ویژه آنکه موارد آزار جنسی ناشی از تولیدات هوش مصنوعی مدام در حال افزایش است.
از طرفی، برنامه کمپانی اپل برای راهاندازی یک سیستم هوش مصنوعی به نام اپل اینتلیجنس (Apple Intelligence) نیز نگرانیهایی را در میان کارشناسان امنیت کودکان در فضای سایبری ایجاد کرده است، زیرا تصاویر تولید شده توسط هوش مصنوعی کودکان را در قربانیشدن بیشتر دخالت میدهد.
حامیان امنیت کودکان در فضای سایبری اقدامات اپل را به شدت مورد انتقاد قرار دادهاند و استدلال میکنند که گزارشهای اپل در این خصوص واضح نبوده و به اندازه کافی برای تیمهای کارشناسی و رسیدگی به این تخلف سرمایهگذاری نکرده است.
انتهای پیام/