کشیدن نقاب هوش مصنوعی؛ چگونه دیپفیک را تشخیص دهیم؟
خبرگزاری علم و فناوری آنا؛ دیپفیک (DeepFake) یا «جعل عمیق» چیست و چگونه میتوانید آن را تشخیص دهید؟ شاید شما جزء آن دسته از افرادی هستید که دستکم میتوانند به یکی از بخشهای این سؤال پاسخ بدهند؛ اما مطالعهای که در مقیاس جهانی از سوی «آی پروو» (iProov) انجام شده که یک شرکت فناوری پیشرو در ارائه خدمات احراز هویت بیومتریک است، نشان میدهد که ۷۱ درصد از مردم پاسخی برای بخش نخست این پرسش ندارند و ۴۳ درصد از آنها هم اگرچه با پدیدهای به نام دیپفیک آشنایی دارند، اما قادر به تشخیص مرز میان حقیقت و دروغ نیستند.
دیپفیک یا جعل عمیق چیست؟
عبارت دیپفیک ترکیبی از دو مفهوم «یادگیری عمیق» و «جعلی» است و کنایه از محتوای دروغینی دارد که محصول یادگیری عمیق به عنوان زیرمجموعهای از یادگیری ماشینی و شاخهای از هوش مصنوعی است.
این تکنیک کلاهبرداری دادههای مبتنی بر حرکتهای فیزیکی، ویژگیهای چهره و صدا را جمعآوری و آنها را به کمک الگوریتم رمزگذاری هوش مصنوعی یا شبکههای مولد تخاصمی پردازش میکند. خروجی این کار یک محصول سمعی-بصری یا گرافیکی دروغین است که متأسفانه بیش از حد واقعی به نظر میرسد.
به بیان دیگر، شما با تصویر، فیلم یا صدایی مواجه میشوید که با نمونه اصلی آن در دنیای واقعی مو نمیزند.
البته قصد نداریم دیپفیک را یک فناوری شرورانه جا بزنیم؛ چراکه سالها استودیوهای فیلمسازی هالیوود به آن به چشم یک ابزار حرفهای نگاه میکردند. آنچه به تغییر کاربری این فناوری به عنوان یک ابزار کلاهبرداری منجر شد، عرضه بیرویه از سوی اپلیکیشنهای تجاری و بالاگرفتن تب استفاده از آن از سوی عموم مردم و البته برخی از افراد سودجو بود.
متأسفانه گزارش اخیر یوروپل حاکی از آن است که اکثر دیپفیکها با اهداف بدخواهانه تولید و پخش میشوند. اهدافی مثل:
*پورنوگرافی و نقض حقوق اخلاقی
*دستکاری تصاویر و صداها به منظور هک کردن گذرواژههای بیومتریک
*کلاهبرداری در پلتفرمهای دیجیتال
*اشاعه اخبار کذب و اطلاعات جعلی
*سرقت هویت
*اخاذی از راه تهدید به انتشار عکسها یا اخبار جعلی
در این میان، آنچه به نگرانیها دامن میزند، این است که با ارزانتر شدن فناوری دیپفیک، شمار افراد سودجو و جرایمی که با اتکا به ابزار جعل عمیق انجام میشود نیز افزایش خواهد یافت.
برای همین است که توصیه میکنیم روشهای شناسایی محتوای تولیدشده با جعل عمیق را بشناسید و خود را برای مقابله با آن آماده کنید.
چطور جعل عمیق را تشخیص دهیم؟
اگرچه چهرهها یا صداهای مبتنی بر فناوری هوش مصنوعی به گونهای غیرقابل باور شبیه نمونههای واقعی هستند، همچنان راههایی برای تشخیص جعلی بودن آنها وجود دارد و این مسئله با کمی دقت و ریزبینی، حل میشود.
دفعات پلک زدن
با دقیق شدن به تعداد دفعاتی که سوژه مورد نظر پلک میزند، میتوانیم تشخیص دهیم که آیا تصویر متعلق به یک آدم حقیقی است یا محصول فناوری جعل عمیق است؛ چراکه دیپفیکها تمایل کمتری به پلک زدن دارند و حتی این حرکت را خیلی غیرطبیعی انجام میدهند.
حالتهای چهره و بدن
اغلب دیپفیکها محدود به حالتهای چهره هستند؛ بنابراین یکی از راههای تشخیص آنها دقیق شدن در ناهماهنگی میان حرکتهای صورت و بدن است.
برای مثال در پخش زنده، مثل مصاحبه کاری یا صحبت با یک اینفلوئنسر اینستاگرامی میتوانید از طرف مقابل بخواهید که نیم رخ خود را به شما نشان دهد؛ چراکه مدلهای هوش مصنوعی به همان اندازه که در ارائه تمام رخ چهره انسان مهارت دارند، در ارائه نیمرخ ضعیف عمل میکنند.
اغلب، دست دیپفیکها وقتی رو میشود که سرشان در زاویه ۹۰ درجه قرار میگیرد و نیمرخ شان به نمایش درمیآید. در واقع، نرمافزار برای بازآفرینی چهره باید ویژگیهای اختصاصی صورت فرد را ردیابی کند؛ اما در حالت نیمرخ، الگوریتمها فقط به نیمی از آن ویژگیها دسترسی دارند.
روش کاربردی دیگر این است که از طرف مقابل بخواهیم دستانش را مقابل صورتش تکان بدهد. این حربه موجب سردرگمی مدل هوش مصنوعی میشود و ناهماهنگی میان صدا و حرکات بدن را عیان میکند.
مدت زمان فیلم
در فناوریهای قدیمیتر، جعل عمیق و در عین حال باکیفیت، مستلزم تلاشی چندساعته برای آموزش الگوریتم و ویدئوی خروجی معمولاً بسیار کوتاه و زیر یک دقیقه است.
صدای فیلم
البته که نرمافزارهایی برای جعل صدا وجود دارد، اما معمولاً نرمافزارها برای تغییر چهره آموزش دیدهاند. با این حساب شما باید به ویدئوهای صامت یا آنهایی که در آنها صدا با حالتهای چهره و حرکتهای لب همخوانی ندارد، مشکوک باشید.
علاوه بر این، گاهی اوقات صداهایی مثل سرفه یا عطسه به گوش میرسد که با آنچه در ویدئو میبینید همخوانی ندارد.
داخل دهان
فناوری تولید دیپفیک مهارت زیادی در بازآفرینی زبان، دندان و حرکتهای دهان ندارد و کاستیهای این بخش راهنمای خوبی برای تشخیص واقعیت از دروغ است.
سایر جزئیات
جزئیات پاشنه آشیل دیپفیک است. با این اوصاف، با دقت در سایههای مات دور چشم، صافی یا چین و چروک اغراقآمیز پوست، موی غیرطبیعی و رنگ غیرطبیعی لب، میتوانید مچ هوش مصنوعی را بگیرید.
*به گونهها و چشمها دقت کنید. آیا پوست بیش از حد صاف یا چروکیده است؟ آیا نسبت پیری پوست با پیری چشمها و موها همخوانی دارد؟ ویژگیهای ظاهری دیپفیکها ممکن است از برخی جهات با یکدیگر همخوانی نداشته باشد.
*به چشمها و ابروها دقت کنید. آیا سایهها همان جایی است که انتظار دارید؟ دیپفیکها ممکن است در نمایش ویژگیهای طبیعی یک صحنه ضعیف عمل کنند.
*به عینک طرف مقابل دقت کنید. آیا در آن نور افتاده است؟ آیا نورخیرهکننده است؟ آیا زاویه تابش با حرکت بدن سوژه تغییر میکند؟ دیپفیک ممکن است در نمایش ویژگیهای فیزیکی نور عملکرد ضعیفی داشته باشد.
*آیا موی صورت سوژه طبیعی به نظر میرسد؟ دیپفیکها ریش، سبیل و خط ریش را خیلی طبیعی جلوه نمیدهند.
*به خالها و کک و مک صورت هم دقت کنید. آیا طبیعی به نظر میرسند؟
*حواستان به پلک زدن هم باشد. طرف مقابل زیاد پلک میزند یا کم؟
*به حرکتهای لب هم دقت کنید. بعضی از دیپفیکها مبتنی بر لبخوانی هستند. آیا حرکت لبها طبیعی است؟
پاسخ به این ۷ سوال میتواند راهگشای شما در تشخیص واقعیت از جعل عمیق باشد.
توسل به فناوری
در مواقعی که تشخیص آسان نیست، میتوان به نرمافزارهای ردیابی دیپفیک یا سامانههای ردیابی آنلاین هم متوسل شد. دو نمونه از این سیستمهای تشخیص فوری برای شرکتهای اینتل و فیسبوک هستند.
در پایان، مانند تمام تهدیدهای ناشی از دنیای دیجیتال، قدرت تشخیص مردم ویژگی است که ما بیش از همه باید آن را تقویت کنیم. آنها باید مراقب محتوای مشکوک باشند و نحوه تشخیص دیپفیک را با جزئیات بیاموزند.
انتهای پیام/