دیده بان پیشرفت علم، فناوری و نوآوری
استرالیا برای غول‌های فناوری خط‌و‌نشان کشید؛

حذف مطالب کودک‌آزاری از موتور‌های جست‌وجوی مبتنی بر هوش مصنوعی

حذف مطالب کودک‌آزاری از موتور‌های جست‌وجوی مبتنی بر هوش مصنوعی
قوانین جدید استرالیا غول‌های فناوری را ملزم می‌کند مطالب مربوط به کودک‌آزاری را از موتور‌های جست‌وجوی مبتنی بر هوش مصنوعی حذف کنند.
کد خبر : 867208

به گزارش گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا به نقل از گاردین، کمیسر امنیت الکترونیک استرالیا با اعلام یک استاندارد صنعتی پیشرو در جهان که غول‌های فناوری را ملزم می‌کند مطالب مربوط به کودک آزاری را در موتور‌های جست‌وجوی مبتنی بر هوش مصنوعی حذف کنند، هشدار داده است که از ابزار‌های هوش مصنوعی می‌توان برای تولید تصاویر کودک آزاری و تبلیغات تروریستی استفاده کرد.

قرار است جزئیات کد صنعتی جدیدی که موتور‌های جست‌وجو را پوشش می‌دهد، منتشر شود، این کد شرکت‌های بزرگ فناوری مانند گوگل، بینگ مایکروسافت و داک‌داک‌گو را ملزم می‌کند تا مطالب کودک آزاری را از نتایج جست‌وجوی خود حذف کنند و گام‌هایی برای اطمینان از عدم استفاده از محصولات هوش مصنوعی مولد برای تولید نسخه‌های جعلی از آن مطالب بردارند.

غول‌های فناوری در خط مقدم کاهش آسیب‌های کودک آزاری

جولی اینمن گرانت، کمیسر امنیت الکترونیک گفت که خود شرکت‌ها باید در خط مقدم کاهش آسیب‌هایی باشند که محصولات آن‌ها می‌تواند ایجاد کند. او گفت: شاهد استفاده از مواد کودک آزاری مصنوعی هستیم. سازمان‌های تروریستی از هوش مصنوعی مولد برای ایجاد تبلیغات استفاده می‌کنند. این اتفاق اکنون در حال رخ دادن است. این چیز تخیلی نیست. احساس کردیم که باید پوشش داده شود.

مایکروسافت و گوگل به تازگی اعلام کرده اند که قصد دارند ابزار‌های هوش مصنوعی خود به ترتیب چت‌جی‌پی‌تی و بارد را با موتور‌های جستجوی محبوب مشتریان خود ادغام کنند. اینمن گرانت گفت: پیشرفت فناوری هوش مصنوعی نیازمند بازنگری در کد جستجو است که این پلتفرم‌ها را پوشش می‌دهد.

بازبینی محتوای تولید شده توسط هوش مصنوعی

به گفته این عضو کمیسیون امنیت، نسخه قبلی این کد فقط مطالب آنلاینی را پوشش می‌داد که موتور‌های جستجو پس از جست وجو به آن‌ها پاسخ می‌دادند، نه مطالبی که این سرویس‌ها می‌توانستند تولید کنند. این قانون جدید موتور‌های جستجو را ملزم می‌کند تا به طور مرتب ابزار‌های هوش مصنوعی خود را بازبینی و بهبود دهند تا اطمینان حاصل شود که مطالب «کلاس‌ای ۱» از جمله سواستفاده جنسی از کودکان، مطالب حامی تروریسم و خشونت شدید در نتایج جستجو بازگردانده نمی‌شوند. (حتی با حذف و مسدود کردن نتایج جستجو)

این شرکت‌ها همچنین ملزم به تحقیق در مورد فناوری‌هایی خواهند بود که به کاربران در تشخیص و شناسایی تصاویر جعل عمیق در این سرویس‌ها کمک می‌کند. کمیسیون ایمنی الکترونیک معتقد است که این یکی از اولین چارچوب‌ها در نوع خود در جهان است.

اینمن گرانت توسعه سریع هوش مصنوعی را یک «مسابقه تسلیحاتی» توصیف کرد و گفت که تکامل این فناوری بیشتر سیاست‌گذاران، قانون‌گذاران و کشور‌های در حال پیشرفت را به خود جلب کرده است.

او گفت: به عنوان یک رگولاتور و مجری سیاست، هوش مصنوعی مولد به من پیشنهاد می‌کند که باید در مورد نحوه استفاده از ابزار‌های نظارتی متفاوت فکر کنیم.

اینمن گرانت می‌گوید که مقررات بیشتر این ابزار‌ها باید ازهمان ابتدا انجام شود، نه اینکه با پیشرفت مشکلات، تازه به فکر تنظیم آن بیافتیم. او این شرایط را به نیاز خودروسازان به نصب کمربند ایمنی تشبیه کرد.

وی گفت: انجام این کار از قبل منطقی است به جای اینکه ببینیم با هوش مصنوعی مولد چه اتفاقی می‌افتد. صنعت فناوری اکنون به لحظه کمربند ایمنی خود نیاز دارد.

انتهای پیام/

ارسال نظر
گوشتیران
قالیشویی ادیب