دانشمند علوم کامپیوتر: هوش مصنوعی امن وجود ندارد
به گزارش خبرنگار خبرگزاری علم و فناوری آنا، به گفتۀ آپوستول واسیلیف (Apostol Vassilev)، دانشمند علوم کامپیوتر در موسسه ملی استاندارد و فناوری ایالات متحده (NIST)، سیستمهای هوش مصنوعی پیشبینیکننده و مولد در معرض طیف وسیعی از حملات هستند. واسیلیف تأکید میکند که بهرغم پیشرفتهای چشمگیر در حوزۀ هوش مصنوعی و یادگیری ماشینی، این فناوریها در برابر حملات خرابکارانه آسیبپذیر هستند. این حملات میتواند منجر به رخدادهایی فاجعهبار با عواقبی جدی شود. او تاکید میکند که مشکلات نظری در مورد ایمنسازی الگوریتمهای هوش مصنوعی همچنان حل نشده باقی مانده است.
واسیلیف در مقالهای که در همین زمینه نوشته، میکوشد با کمک همکاران خود خطرات امنیتی که سیستمهای هوش مصنوعی میتوانند به وجود آورند طبقهبندی کند. در نهایت، نتایج پژوهش او چندان خوب به نظر نمیرسد.
این مقاله با عنوان «یادگیری ماشینی متخاصم: طبقهبندی و واژهنامۀ حملات و اقدامات واکنشی» نتیجۀ برنامهای ابتکاری به نام هوش مصنوعی امن موسسه ملی استاندارد و فناوری (NIST Trustworthy AI) است که اهداف گستردهتر دولت ایالات متحده برای اطمینان از ایمنی هوش مصنوعی را منعکس میکند. این مقاله تکنیکهای یادگیری ماشینی متخاصم را بر اساس تحقیقات این صنعت در چند دهۀ گذشته بررسی میکند. محققان بر روی چهار نگرانی امنیتی خاص تمرکز کردند: حملات فرّار، مسمومکننده، حمله به حریم خصوصی و حملات سوءاستفادهکننده. این نگرانیها میتواند برای مدلهای پیشبینیکننده (مانند هوش مصنوعی شناسایی اشیاء) یا مولد (مانند چتجیپیتی) هوش مصنوعی مشکلساز باشند.
در این مقاله تأکید شده است که نیاز مبرمی به رسیدگی به این نگرانیهای امنیتی وجود دارد تا ایمنی و یکپارچگی سیستمهای هوش مصنوعی تضمین شود. این مقاله بر اهمیت کاهش خطرات مرتبط با تکنیکهای یادگیری ماشینی متخاصم تأکید میکند و بر اهمیت تحقیق و توسعۀ مداوم در این زمینه اصرار دارد. یافتههای این تحقیق پیامدهایی برای پذیرش و استقرار گستردهتر فناوریهای هوش مصنوعی در حوزههای مختلف دارد و نیاز به اقدامات امنیتی و حفاظتی برای محافظت در برابر حملات و آسیبپذیریهای احتمالی را برجسته میکند.
انتهای پیام/