صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

شبکه‌های هوش مصنوعی آسیب‌پذیر‌تر از تصورات قبلی هستند

محققان دریافته‌اند که شبکه‌های هوش مصنوعی در برابر حملات آسیب‌پذیر‌تر از تصورات قبلی هستند.
کد خبر : 884302

به گزارش خبرگزاری علم و فناوری آنا به نقل از ساینس دیلی، پژوهش‌های محققان آمریکایی روی نقاط آسیب‌پذیر شبکه‌های عصبی مورد استفاده توسط هوش مصنوعی نشان می‌دهد که این سیستم‌ها بسیار آسیب‌پذیرتر از آنچه که تصور می‌شد هستند و حملات می‌توانند خسارات جبران‌ناپذیری به آن‌ها وارد کنند.

بر اساس یک مطالعه اخیر، سیستم‌های هوش مصنوعی (AI) نسبت به حملات هدفمند، آسیب‌پذیرتر از آنچه قبلاً تصور می‌شد، هستند. این حملات که به عنوان حملات خصمانه شناخته می‌شوند، از آسیب‌پذیری‌های موجود در سیستم‌های هوش مصنوعی با دستکاری داده‌های وارد شده به آن‌ها سوء استفاده می‌کنند. به عنوان مثال، قرار دادن یک برچسب خاص روی علامت توقف می‌تواند آن را برای یک سیستم هوش مصنوعی نامرئی کند. محققان نرم‌افزاری به نام کواداتک (QuadAttac_K) را برای آزمایش شبکه‌های عصبی یادگیری عمیق در برابر آسیب‌پذیری‌ها توسعه دادند و دریافتند که چهار شبکه پرکاربرد مورد استفاده اکثر ابزار‌های هوش مصنوعی، در برابر این حملات خصمانه بسیار آسیب‌پذیر هستند.

تیانفو وو (Tianfu Wu)، یکی از نویسندگان این مطالعه و دانشیار مهندسی برق و کامپیوتر در دانشگاه ایالتی کارولینای شمالی، بر اهمیت رسیدگی به این آسیب‌پذیری‌ها تأکید می‌کند و می‌گوید: «اگر یک سیستم هوش مصنوعی در برابر این نوع حملات مقاوم نباشد، این کار را انجام نمی‌دهید. نمی‌خواهیم از این سیستم استفاده عملی کنیم - به‌ویژه برای برنامه‌هایی که می‌توانند بر زندگی انسان تأثیر بگذارند.»

برای آزمایش آسیب‌پذیری شبکه‌های عصبی عمیق، محققان از کواداتک برای آزمایش چهار شبکه عصبی عمیق استفاده کردند: دو شبکه عصبی پیچشی، که همگشتی یا کانولوشن (convolutional) هم گفته می‌شوند، (ResNet-۵۰ و DenseNet-۱۲۱) و دو ترانسفورمر بینایی (ViT-B و DEiT-S). این چهار شبکه به این دلیل انتخاب شدند که در سیستم‌های هوش مصنوعی در سراسر جهان استفاده گسترده‌ای دارند. با کمال تعجب، مشخص شد که هر چهار شبکه در برابر حملات متخاصم بسیار آسیب‌پذیر هستند.

محققان کواداتک را در دسترس دیگران قرار داده‌اند تا در آزمایش شبکه‌های عصبی از آن استفاده کنند. قدم بعدی یافتن راه‌هایی برای به حداقل رساندن این آسیب‌پذیری‌ها است. وو می‌گوید: «اکنون که می‌توانیم این آسیب‌پذیری‌ها را بهتر شناسایی کنیم، قدم بعدی یافتن راه‌هایی برای به حداقل رساندن این آسیب‌پذیری‌ها است».

نویسنده اول این مقاله علمی توماس پانیوگوآ (Thomas Paniagua)، دانشجوی دکتری دانشگاه ایالتی کارولینای شمالی، به همراه دانشجوی دیگر رایان گرینجر (Ryan Grainger)، این پژوهش را زیر نظر دکتر وو انجام داده‌اند.

نتایج این مطالعه در شانزدهم ماه جاری میلادی (دسامبر ۲۰۲۳) در سی و هفتمین کنفرانس سیستم‌های پردازش اطلاعات عصبی (NeurIPS ۲۰۲۳) در نیواورلئان ارائه خواهد شد. بودجه لازم برای این تحقیق توسط دفتر تحقیقات ارتش آمریکا و بنیاد ملی علوم آمریکا پرداخت شد. 

انتهای پیام/

ارسال نظر