حذف مطالب کودکآزاری از موتورهای جستوجوی مبتنی بر هوش مصنوعی
به گزارش گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا به نقل از گاردین، کمیسر امنیت الکترونیک استرالیا با اعلام یک استاندارد صنعتی پیشرو در جهان که غولهای فناوری را ملزم میکند مطالب مربوط به کودک آزاری را در موتورهای جستوجوی مبتنی بر هوش مصنوعی حذف کنند، هشدار داده است که از ابزارهای هوش مصنوعی میتوان برای تولید تصاویر کودک آزاری و تبلیغات تروریستی استفاده کرد.
قرار است جزئیات کد صنعتی جدیدی که موتورهای جستوجو را پوشش میدهد، منتشر شود، این کد شرکتهای بزرگ فناوری مانند گوگل، بینگ مایکروسافت و داکداکگو را ملزم میکند تا مطالب کودک آزاری را از نتایج جستوجوی خود حذف کنند و گامهایی برای اطمینان از عدم استفاده از محصولات هوش مصنوعی مولد برای تولید نسخههای جعلی از آن مطالب بردارند.
غولهای فناوری در خط مقدم کاهش آسیبهای کودک آزاری
جولی اینمن گرانت، کمیسر امنیت الکترونیک گفت که خود شرکتها باید در خط مقدم کاهش آسیبهایی باشند که محصولات آنها میتواند ایجاد کند. او گفت: شاهد استفاده از مواد کودک آزاری مصنوعی هستیم. سازمانهای تروریستی از هوش مصنوعی مولد برای ایجاد تبلیغات استفاده میکنند. این اتفاق اکنون در حال رخ دادن است. این چیز تخیلی نیست. احساس کردیم که باید پوشش داده شود.
مایکروسافت و گوگل به تازگی اعلام کرده اند که قصد دارند ابزارهای هوش مصنوعی خود به ترتیب چتجیپیتی و بارد را با موتورهای جستجوی محبوب مشتریان خود ادغام کنند. اینمن گرانت گفت: پیشرفت فناوری هوش مصنوعی نیازمند بازنگری در کد جستجو است که این پلتفرمها را پوشش میدهد.
بازبینی محتوای تولید شده توسط هوش مصنوعی
به گفته این عضو کمیسیون امنیت، نسخه قبلی این کد فقط مطالب آنلاینی را پوشش میداد که موتورهای جستجو پس از جست وجو به آنها پاسخ میدادند، نه مطالبی که این سرویسها میتوانستند تولید کنند. این قانون جدید موتورهای جستجو را ملزم میکند تا به طور مرتب ابزارهای هوش مصنوعی خود را بازبینی و بهبود دهند تا اطمینان حاصل شود که مطالب «کلاسای ۱» از جمله سواستفاده جنسی از کودکان، مطالب حامی تروریسم و خشونت شدید در نتایج جستجو بازگردانده نمیشوند. (حتی با حذف و مسدود کردن نتایج جستجو)
این شرکتها همچنین ملزم به تحقیق در مورد فناوریهایی خواهند بود که به کاربران در تشخیص و شناسایی تصاویر جعل عمیق در این سرویسها کمک میکند. کمیسیون ایمنی الکترونیک معتقد است که این یکی از اولین چارچوبها در نوع خود در جهان است.
اینمن گرانت توسعه سریع هوش مصنوعی را یک «مسابقه تسلیحاتی» توصیف کرد و گفت که تکامل این فناوری بیشتر سیاستگذاران، قانونگذاران و کشورهای در حال پیشرفت را به خود جلب کرده است.
او گفت: به عنوان یک رگولاتور و مجری سیاست، هوش مصنوعی مولد به من پیشنهاد میکند که باید در مورد نحوه استفاده از ابزارهای نظارتی متفاوت فکر کنیم.
اینمن گرانت میگوید که مقررات بیشتر این ابزارها باید ازهمان ابتدا انجام شود، نه اینکه با پیشرفت مشکلات، تازه به فکر تنظیم آن بیافتیم. او این شرایط را به نیاز خودروسازان به نصب کمربند ایمنی تشبیه کرد.
وی گفت: انجام این کار از قبل منطقی است به جای اینکه ببینیم با هوش مصنوعی مولد چه اتفاقی میافتد. صنعت فناوری اکنون به لحظه کمربند ایمنی خود نیاز دارد.
انتهای پیام/