تشکیل کارگروه ویژه هوش مصنوعی/ دور مردم حفاظ امنیتی میکشیم!
به گزارش خبرگزاری علم و فناوری آنا به نقل از رویترز، مجلس نمایندگان آمریکا اعلام کرده است که در حال تشکیل یک کارگروه ویژه بررسی قوانین احتمالی برای رسیدگی به نگرانیهای مربوط به هوش مصنوعی است.
مایک جانسون (Mike Johnson) سخنگوی کاخ سفید اعلام کرده است: «کارگروه ویژه در مجلس نمایندگان و برای محافظت از مردم آمریکا در برابر تهدیدهای فعلی و نوظهور هوش مصنوعی تشکیل شده است تا حفاظهای امنیتی مناسب را ایجاد کند و و همچنین اصول راهنما، توصیهها و پیشنهادات سیاست دو حزبی را در این حوزه با مشورت کمیتههای کنگره توسعه خواهد داد.»
ظهور هوش مصنوعی مولد، که میتواند متن، عکس و ویدیو را در پاسخ به درخواستهای باز ایجاد کند، هم هیجان و هم ترس را برانگیخته است به این معنا که میتواند برخی از مشاغل را منسوخ کند، انتخابات را به هم بزند و به طور بالقوه بر انسانها چیره شود و منجر به اثرات فاجعهبار شود. این موضوع پس از ساختن یک ویدیوی جعل عمیق از جو بایدن، رئیسجمهور آمریکا در ماه ژانویه، مورد توجه جدیدی قرار گرفت. در این ویدیوی جعلی بایدن به دنبال منصرف کردن مردم از رأی دادن به او در انتخابات مقدماتی دموکراتها در نیوهَمپشایر (New Hampshire) بود. کمیسیون ارتباطات فدرال در همین ماه اعلام کرد که تماسهایی که با صدای تولید شده توسط هوش مصنوعی انجام میشود غیرقانونی است.
تلاشهای کنگره برای تصویب قانونی در مورد هوش مصنوعی با وجود برگزاری جلسات متعدد و سطح بالا و پیشنهادهای قانونی در سال گذشته متوقف شدواین کارگروه جدید با هدف ارائه جزئیات «استانداردهای نظارتی و اقدامات مهم کنگره آمریکا برای محافظت از کاربران و تقویت سرمایهگذاری و نوآوری مداوم در هوش مصنوعی» فعالیت خواهد کرد.
شرکتهای پیشرو در حوزه هوش مصنوعی، از جمله اُپن اِی آی، گوگل آلفابت، آنتروپیک، مایکروسافت، متا پلتفرم، اپل، آمازون داتکام و اِنویدیا در میان بیش از ۲۰۰ نهادی بودند که در ماه گذشته میلادی به کنسرسیوم جدید آمریکا برای پشتیبانی از استقرار ایمن هوش مصنوعی پیوستند.
در اکتبر ۲۰۲۳، بایدن یک فرمان اجرایی امضا کرد که هدف آن کاهش خطرات هوش مصنوعی بود و سپس در ژانویه، وزارت بازرگانی آمریکا پیشنهاد کرد که شرکتهای اَبری آمریکا باید ملزم شوند که گزارش دهند آیا نهادهای خارجی برای آموزش مدلهای هوش مصنوعی به مراکز داده آمریکا دسترسی دارند یا خیر.
انتهای پیام/