صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

راه حلی که تصاویر را از بازیگوشی‌های هوش مصنوعی نجات می‌دهد

محققان با به‌کارگیری یک تکنیک جدید توانستند از تصاویر افراد در تلفن همراه برابر ویرایش مخرب هوش مصنوعی محافظت کنند.
کد خبر : 859856

به گزارش خبرنگار گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا به نقل از انگجت، محققان موسسه ام‌آی‌تی، با به کارگیری یک تکنیک در برنامه «فتوگارد» (PhotoGuard) توانستند از تصاویر افراد در برابر ویرایش مخرب هوش مصنوعی محافظت کنند.این تکنیک اختلالات تقریبا نامرئی را برای از بین بردن مدل‌های الگوریتمی معرفی می‌کند.

با گسترش سیستم‌های هوش مصنوعی و تلاش شرکت‌ها برای متمایز کردن محصولات خود از رقبایشان، چت بات‌ها در سراسر اینترنت در حال به دست آوردن قدرت ویرایش تصاویر و همچنین ایجاد آنها هستند؛ شاتراستاک و ادوبی در این راه نسبت به دیگر شرکت‌ها پیشرو هستند، اما با این قابلیت‌های جدید مبتنی بر هوش مصنوعی، مشکلات آشنایی مانند دستکاری غیرمجاز یا سرقت آشکار آثار هنری و تصاویر آنلاین موجود به وجود می‌آید. 

تکنیک‌های واترمارک کردن می‌توانند به کاهش مورد دوم کمک کنند، در حالی که تکنیک جدید توسعه یافته در برنامه فتوگارد می‌تواند به جلوگیری از مورد اول کمک کند.

فتوگارد با تغییر پیکسل‌های انتخابی در یک تصویر به گونه‌ای کار می‌کند که توانایی هوش مصنوعی در درک آنچه تصویر است را مختل می‌کند. این اختلالات همانطور که تیم تحقیقاتی موسسه فناوری ماساچوست به آنها اشاره می‌کند، برای چشم انسان نامرئی هستند اما به راحتی توسط هوش مصنوعی قابل خواندن هستند.

روش حمله کدکننده برای معرفی این مصنوعات، نمایش پنهان مدل الگوریتمی تصویر هدف را هدف قرار می‌دهد؛ ریاضیات پیچیده‌ای که موقعیت و رنگ هر پیکسل در یک تصویر را توصیف می‌کند در اصل هوش مصنوعی را از درک آنچه به آن نگاه می‌کند، باز می‌دارد.

روش حمله نفوذ پیشرفته‌تر و از نظر محاسباتی فشرده‌تر،  تصویر را به عنوان یک تصویر متفاوت در چشم هوش مصنوعی استتار می‌کند. تصویر هدف را تعریف و اختلالات موجود در تصویر را به گونه‌ای بهینه سازی می‌کند که شبیه به تصویر هدف باشد. هر ویرایشی که یک هوش مصنوعی سعی کند روی این تصاویر ایمن شده انجام دهد، روی تصاویر جعلی هدف اعمال خواهد شد که منجر به ایجاد تصویری با ظاهر غیر واقعی می‌شود.

هادی سلمان، دانشجوی دکترای موسسه فناوری ماساچوست و نویسنده اصلی مقاله، به وبسایت خبری انگجت گفت: حمله کدکننده باعث می‌شود الگوریتم هوش مصنوعی فکر کند که تصویر ورودی (برای ویرایش) تصویر دیگری است (به عنوان مثال یک تصویر خاکستری).

وی در بیانیه‌ای گفت: کار بر روی این مساله مهم امروز از اهمیت بالایی برخوردار است و در حالی که من خوشحالم که توانستم برای این نگرانی عمومی اقدامی انجام دهم اما لازم به ذکر است که کار زیادی لازم است تا این حفاظت عملی شود. شرکت‌هایی که این مدل ها را توسعه می دهند، باید روی ایمن سازی مهندسی در برابر تهدیدهای احتمالی ناشی از این ابزارهای هوش مصنوعی سرمایه گذاری کنند.

انتهای پیام/

ارسال نظر