چگونه ویدئو و عکس دیپفیک را تشخیص دهیم؟
به گزارش خبرگزاری علم و فناوری آنا به نقل از سیجیتیان، جعلی بودن فناوری هوش مصنوعی بهسرعت در حال تبدیل به یکی از بزرگترین مشکلاتی است که ما در فضای آنلاین با آن روبهرو هستیم. تصاویر، ویدئوها و صداهای فریبنده در نتیجه افزایش و استفاده نادرست از ابزارهای هوش مصنوعی مولد در حال گسترش هستند.
از آنجایی که تقریباً هر روز دیپفیکهای هوش مصنوعی منتشر میشوند و همه افراد از تیلور سویفت گرفته تا دونالد ترامپ را به تصویر میکشند، تشخیص اینکه چه چیزی واقعی و چه چیزی واقعی نیست سختتر میشود. شرکتهای تولیدکننده ویدئو و تصویر مانند اپنایآی، ساخت دیپفیک را با دسترسیهایی که در اختیار میگذارند برای افراد بدون نیاز به هیچگونه مهارت فنی خاصی آسان کردهاند، به این شکل که فقط کافی است درخواست خود را تایپ کنند و آنچه که مدنظرشان است را تحویل بگیرند. این تصاویر جعلی ممکن است بی ضرر به نظر برسند، اما میتوان از آنها برای کلاهبرداری و سرقت هویت یا تبلیغات و دستکاری در انتخابات استفاده کرد.
در اینجا به نکاتی درباره چگونگی جلوگیری از فریب خوردن توسط دیپفیک اشاره شده است:
چگونه ویدئو یا عکس دیپفیک را تشخیص دهیم؟
در روزهای اولیه دیپفیک، این فناوری به دور از ایدئال بود و اغلب نشانههای آشکاری از اینکه ویدئو و تصاویر دستکاری شدهاند بر جای میگذاشت. بررسیکنندگان این موضوع و آنهایی که موظف به تشخیص درست از غلط بودند به تصاویری با خطاهای آشکار اشاره کردهاند، مانند دستهایی با ۶ انگشت یا عینکهایی که عدسیهایی با شکل متفاوت دارند، اما با بهبود هوش مصنوعی و خروجی تصاویر و ویدئوها با خطاهای بسیاز کمتر کار بسیار دشوارتر شده است.
هنری آژدر، متخصص برجسته هوش مصنوعی مولد میگوید: برخی توصیههای مشترک مانند جستجوی الگوهای چشمک زدن غیرطبیعی بین افراد در ویدئوهای دیپفیک دیگر قابل اجرا نیستند و باید به دنبال چیزهای جدیدتری بود.
وی توضیح میدهد: بسیاری از عکسهای دیپفیک هوش مصنوعی، بهویژه تصاویر افراد، دارای درخشندگی الکترونیکی هستند، «یک نوع اثر صافکننده زیباییشناختی» که باعث میشود پوست «بهطور باورنکردنی براق به نظر برسد».
با این حال، این متخصص هوش مصنوعی مولد هشدار داد که بهرهگیری از خلاقیت گاهی اوقات میتواند این و بسیاری از نشانههای دستکاری شده توسط فناوری هوش مصنوعی را از بین ببرد.
سازگاری سایهها و نور
وی پیشنهاد میدهد، سازگاری سایهها و نور بررسی شود. اغلب سوژه در فوکوس واضح است و به طور متقاعد کنندهای واقعی به نظر میرسد، اما عناصر موجود در پس زمینه ممکن است چندان واقعی یا صیقلی نباشند.
توجه به لبههای صورت
تعویض چهره یکی از رایجترین روشهای دیپفیک است. کارشناسان توصیه میکنند که لبههای صورت را با دقت نگاه کنید. آیا رنگ پوست صورت با بقیه قسمتهای سر یا بدن مطابقت دارد؟ لبههای صورت تیز هستند یا تار؟ اگر مشکوک هستید که ویدئوی صحبت کردن یک فرد تحت تأثیر این فناوری قرار گرفته و دستکادی شده، به دهان او نگاه کنید. آیا حرکات لب آنها کاملاً با صدا مطابقت دارد؟ آژدر پیشنهاد میکند که به دندانها نیز با دقت نگاه شود که واضح و شفاف هستند یا خیر و به نوعی ظاهر دندانها با زندگی واقعی سازگارند؟
شرکت امنیت سایبری نورتون میگوید که الگوریتمها ممکن است هنوز به اندازه کافی برای تولید دندانهای فردی پیچیده نباشند، بنابراین فقدان خطوط کلی برای دندانهای فردی میتواند یک سرنخ باشد.
استفاده از هوش مصنوعی برای یافتن تصاویر و ویدئوهای تقلبی
روش دیگر استفاده از هوش مصنوعی برای مبارزه با خود آن است. مایکروسافت ابزار احراز هویتی را توسعه داده است که میتواند عکسها یا ویدئوها را تجزیه و تحلیل کند تا در مورد دستکاری شدن یا نشدن آن اطمینان کسب کند. شرکت سازنده تراشه اینتل، از الگوریتمهایی برای تجزیه و تحلیل پیکسلهای یک تصویر استفاده میکند تا تشخیص دهد که آنها واقعی یا جعلی هستند.
همچنین ابزارهای آنلاینی وجود دارند که در صورت آپلود فایل یا چسباندن پیوند به مطالب مشکوک، جعلی را شناسایی میکنند، اما برخی، مانند احراز هویت مایکروسافت، فقط برای مشترکان منتخب در دسترس هستند و برای عموم امکان استفاده از آنها وجود ندارد به این دلیل که با در اختیار گذاشتن این فضا برای همه افراد، نتیجه معکوس دریافت نشود.
انتهای پیام/