امکان سوءاستفاده سیاسی از چت جیپیتی در انتخابات ۲۰۲۴
به گزارش خبرنگار خبرگزاری علم و فناوری آنا به نقل از انگجت، «چت جیپیتی» (ChatGPT) با وجود سیاستهای «اوپنایآی» (OpenAI) به راحتی برای اطلاعات سیاسی مورد سوء استفاده قرار میگیرد.
در ماه مارس، اوپنایآی به دنبال این بود که از تقویت کمپینهای اطلاعات نادرست سیاسی با هوش مصنوعی مولد جلوگیری کند. با این حال، تحقیقات نشان میدهد که این چتبات همچنان به راحتی برای شکستن قوانین تحریک میشود و پیامدهای بالقوه شدیدی برای چرخه انتخابات ۲۰۲۴ دارد.
سیاستهای کاربری اوپنایآی بهطور خاص استفاده از هوش مصنوعی مولد را برای مبارزات سیاسی ممنوع میکند، مگر اینکه برای کمپینهای مدافع مردمی استفاده شود. این شامل تولید مطالب کمپین در حجم بالا، هدف قرار دادن آن مطالب در جمعیتشناسی خاص، ساخت رباتهای چت کمپین برای انتشار اطلاعات، مشارکت در حمایت سیاسی است.
اوپنایآی در ماه آوریل گفت که در حال توسعه یک طبقهبندی برای یادگیری ماشینی است که وقتی از چت جیپیتی خواسته میشود، حجم زیادی متن تولید کند، پرچمگذاری انجام شود.
«کیم مالفاچینی» که روی سیاست محصولات اوپنایآی کار میکند، گفت: «ما میخواهیم اطمینان حاصل کنیم که در حال توسعه راهکارهای فنی مناسبی هستیم که ناخواسته محتوای مفید را مسدود نمیکند. ماهیت ظریف قوانین، اجرای آن را به یک چالش تبدیل میکند.»
اوپنایآی در اواسط آگوست اعلام کرد که در حال پیاده سازی سیستم تعدیل محتوا است که مقیاسپذیر، سازگار و قابل تنظیم است. تلاشهای نظارتی در سال گذشته به کندی شکل گرفته، اگرچه اکنون در حال افزایش است.
سناتورهای آمریکایی در ماه ژوئن قانون بند ۲۳۰ را برای مصونیت هوش مصنوعی معرفی کردند که از مصونیت آثار تولید شده توسط شرکتهای «جن اِیآی» (genAI) در برابر بند ۲۳۰ جلوگیری میکند.
از سوی دیگر، کاخ سفید بایدن با سرمایه گذاری ۱۴۰ میلیون دلاری برای راهاندازی هفت موسسه تحقیقاتی ملی هوش مصنوعی جدید، ایجاد طرحی برای منشور حقوق هوش مصنوعی و استخراج وعدهها از بزرگترین شرکتهای هوش مصنوعی صنعت، به موضوع اصلی مدیریت خود تبدیل کرده است.
علاوه بر این «کمیسیون فدرال تجارت» (FTC) تحقیقاتی را در مورد اوپنایآی و اینکه آیا سیاستهای آن به اندازه کافی از مصرفکنندگان محافظت میکند، آغاز کرده است.
انتهای پیام/