راه حلی که تصاویر را از بازیگوشیهای هوش مصنوعی نجات میدهد
به گزارش خبرنگار گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا به نقل از انگجت، محققان موسسه امآیتی، با به کارگیری یک تکنیک در برنامه «فتوگارد» (PhotoGuard) توانستند از تصاویر افراد در برابر ویرایش مخرب هوش مصنوعی محافظت کنند.این تکنیک اختلالات تقریبا نامرئی را برای از بین بردن مدلهای الگوریتمی معرفی میکند.
با گسترش سیستمهای هوش مصنوعی و تلاش شرکتها برای متمایز کردن محصولات خود از رقبایشان، چت باتها در سراسر اینترنت در حال به دست آوردن قدرت ویرایش تصاویر و همچنین ایجاد آنها هستند؛ شاتراستاک و ادوبی در این راه نسبت به دیگر شرکتها پیشرو هستند، اما با این قابلیتهای جدید مبتنی بر هوش مصنوعی، مشکلات آشنایی مانند دستکاری غیرمجاز یا سرقت آشکار آثار هنری و تصاویر آنلاین موجود به وجود میآید.
تکنیکهای واترمارک کردن میتوانند به کاهش مورد دوم کمک کنند، در حالی که تکنیک جدید توسعه یافته در برنامه فتوگارد میتواند به جلوگیری از مورد اول کمک کند.
فتوگارد با تغییر پیکسلهای انتخابی در یک تصویر به گونهای کار میکند که توانایی هوش مصنوعی در درک آنچه تصویر است را مختل میکند. این اختلالات همانطور که تیم تحقیقاتی موسسه فناوری ماساچوست به آنها اشاره میکند، برای چشم انسان نامرئی هستند اما به راحتی توسط هوش مصنوعی قابل خواندن هستند.
روش حمله کدکننده برای معرفی این مصنوعات، نمایش پنهان مدل الگوریتمی تصویر هدف را هدف قرار میدهد؛ ریاضیات پیچیدهای که موقعیت و رنگ هر پیکسل در یک تصویر را توصیف میکند در اصل هوش مصنوعی را از درک آنچه به آن نگاه میکند، باز میدارد.
روش حمله نفوذ پیشرفتهتر و از نظر محاسباتی فشردهتر، تصویر را به عنوان یک تصویر متفاوت در چشم هوش مصنوعی استتار میکند. تصویر هدف را تعریف و اختلالات موجود در تصویر را به گونهای بهینه سازی میکند که شبیه به تصویر هدف باشد. هر ویرایشی که یک هوش مصنوعی سعی کند روی این تصاویر ایمن شده انجام دهد، روی تصاویر جعلی هدف اعمال خواهد شد که منجر به ایجاد تصویری با ظاهر غیر واقعی میشود.
هادی سلمان، دانشجوی دکترای موسسه فناوری ماساچوست و نویسنده اصلی مقاله، به وبسایت خبری انگجت گفت: حمله کدکننده باعث میشود الگوریتم هوش مصنوعی فکر کند که تصویر ورودی (برای ویرایش) تصویر دیگری است (به عنوان مثال یک تصویر خاکستری).
وی در بیانیهای گفت: کار بر روی این مساله مهم امروز از اهمیت بالایی برخوردار است و در حالی که من خوشحالم که توانستم برای این نگرانی عمومی اقدامی انجام دهم اما لازم به ذکر است که کار زیادی لازم است تا این حفاظت عملی شود. شرکتهایی که این مدل ها را توسعه می دهند، باید روی ایمن سازی مهندسی در برابر تهدیدهای احتمالی ناشی از این ابزارهای هوش مصنوعی سرمایه گذاری کنند.
انتهای پیام/