صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

دانشمند علوم کامپیوتر: هوش مصنوعی امن وجود ندارد

یک دانشمند علوم کامپیوتر می‌گوید: سیستم‌های هوش مصنوعی پیش‌بینی‌کننده و مولد در معرض طیف وسیعی از حملات هستند.
کد خبر : 889748

به گزارش خبرنگار خبرگزاری علم و فناوری آنا، به گفتۀ آپوستول واسیلیف (Apostol Vassilev)، دانشمند علوم کامپیوتر در موسسه ملی استاندارد و فناوری ایالات متحده (NIST)، سیستم‌های هوش مصنوعی پیش‌بینی‌کننده و مولد در معرض طیف وسیعی از حملات هستند. واسیلیف تأکید می‌کند که به‌رغم پیشرفت‌های چشمگیر در حوزۀ هوش مصنوعی و یادگیری ماشینی، این فناوری‌ها در برابر حملات خرابکارانه آسیب‌پذیر هستند. این حملات می‌تواند منجر به رخدادهایی فاجعه‌بار با عواقبی جدی شود. او تاکید می‌کند که مشکلات نظری در مورد ایمن‌سازی الگوریتم‌های هوش مصنوعی همچنان حل نشده باقی مانده است.

واسیلیف در مقاله‌ای که در همین زمینه نوشته، می‌کوشد با کمک همکاران خود خطرات امنیتی که سیستم‌های هوش مصنوعی می‌توانند به وجود آورند طبقه‌بندی کند. در نهایت، نتایج پژوهش او چندان خوب به نظر نمی‌رسد.

این مقاله با عنوان «یادگیری ماشینی متخاصم: طبقه‌بندی و واژه‌نامۀ حملات و اقدامات واکنشی» نتیجۀ برنامه‌ای ابتکاری به نام هوش مصنوعی امن موسسه ملی استاندارد و فناوری (NIST Trustworthy AI) است که اهداف گسترده‌تر دولت ایالات متحده برای اطمینان از ایمنی هوش مصنوعی را منعکس می‌کند. این مقاله تکنیک‌های یادگیری ماشینی متخاصم را بر اساس تحقیقات این صنعت در چند دهۀ گذشته بررسی می‌کند. محققان بر روی چهار نگرانی امنیتی خاص تمرکز کردند: حملات فرّار، مسموم‌کننده، حمله به حریم خصوصی و حملات سوءاستفاده‌کننده. این نگرانی‌ها می‌تواند برای مدل‌های پیش‌بینی‌کننده (مانند هوش مصنوعی شناسایی اشیاء) یا مولد (مانند چت‌جی‌پی‌تی) هوش مصنوعی مشکل‌ساز باشند.

در این مقاله تأکید شده است که نیاز مبرمی به رسیدگی به این نگرانی‌های امنیتی وجود دارد تا ایمنی و یکپارچگی سیستم‌های هوش مصنوعی تضمین شود. این مقاله بر اهمیت کاهش خطرات مرتبط با تکنیک‌های یادگیری ماشینی متخاصم تأکید می‌کند و بر اهمیت تحقیق و توسعۀ مداوم در این زمینه اصرار دارد. یافته‌های این تحقیق پیامدهایی برای پذیرش و استقرار گسترده‌تر فناوری‌های هوش مصنوعی در حوزه‌های مختلف دارد و نیاز به اقدامات امنیتی و حفاظتی برای محافظت در برابر حملات و آسیب‌پذیری‌های احتمالی را برجسته می‌کند.

انتهای پیام/

ارسال نظر