واقعیتها میدوند، جعل عمیق پرواز میکند/ نبرد نفسگیر انسان با فناوری
خبرگزاری علم و فناوری آنا؛ ویدئوها یا تصاویر جعل عمیق (دیپ فیک) که با استفاده از هوش مصنوعی ساخته میشوند گاهی آنقدر واقعی به نظر میرسند که تشخیص آنها از واقعیت دشوار است. این فناوری بارها مشکلساز شده و از آن برای انتشار اخبار و اطلاعات نادرست و فریب مردم استفاده کردهاند. با پیشرفت فناوری، تشخیص محتوای جعلی هر روز دشوارتر میشود و کارشناسان حوزه فناوری در تلاش هستند تا راههایی برای شناسایی و پیشگیری از آسیبهای جعل عمیق پیدا کنند.
به تازگی عکسی جعلی از یک زن مسن در شبکه اجتماعی فیسبوک منتشر شده است که مقابل کیک تولد ۱۲۲ سالگی خود نشسته و شرح عکس چنین است: «من از پنج سالگی پختن کیک را آغاز کردم و میخواهم همچنان آن را ادامه دهم.» این عکس بیش از ۴۰ هزار بار به اشتراک گذاشته شده، ۲۰ هزار کامنت گرفته و ۱۰۰ هزار واکنش دریافت کرده است. عکس مورد اشاره بیشک جعلی است و با هوش مصنوعی ساخته شده، یکی از شمعها روی کیک نیست و در هوا شناور است و حبابهای بیشکل و عجیبی در پسزمینه عکس دیده میشود. اما هر چه هوش مصنوعی مولد بهتر و بهتر میشود، به دوران پایان تشخیص محتواهای جعلی بیشتر نزدیک میشویم. انگار در حال مسابقه دادن با زمان هستیم.
رشد سریع هوش مصنوعی و کمبود راهحلهای موجود
آیا سرانجام میتوانیم راههایی جدید و قطعی برای تشخیص محتواهای جعلی از موارد واقعی پیدا کنیم؟ مایک اسپیرز (Mike Speirs) از مؤسسه مشاوره هوش مصنوعی «فَکالتی ای آی» که در زمینه نظارت بر اطلاعات نادرست و جعلی فعالیت دارد میگوید: «مدلهای هوش مصنوعی با چنان سرعتی در حال توسعه هستند که از نظر فنی باورنکردنی و هشداردهنده است و بنابراین ما برای شناسایی آنها زمان کم میآوریم. برای تشخیص تصاویر جعلی انواع مختلفی از تکنیکهای دستی وجود دارد برای مثال، غلطهای املایی در متن، پوست ناهمگون، چشمهای غیرطبیعی و یا دستها نمونههای خوبی برای تشخیص عکس و محتواهای ساختهشده با هوش مصنوعی هستند؛ اما حتی چنین موارد واضحی هم زمانبر هستند، چون مدلها هر روز بهتر میشوند.»
بهروزرسانی نرمافزارهای پیشرو
مولد تصویر دال-ای (Dall-E) متعلق به اُپنای آی از سال ۲۰۲۱ سه نسخه منتشر کرده است که هر کدام نسبت به نسخه قبلی قابلیتهای بیشتری دارند و در کنار آن مدل رایگان و منبع باز استیبل دیفیوژن (Stable Diffusion) نیز نسخه سوم خود را منتشر کرده است.
نسخه ششم میدجِرنی (Midjourney) و مدل جمنای گوگل نیز به این موج از فناوری پیوستهاند. هرچه این فناوری قویتر میشود استفاده از آن هم آسانتر میشود. جدیدترین نسخه دال-ای در چت جیپیتی و بینگ نیز تعبیه شده و در این میان گوگل ابزارهای خود را به رایگان در اختیار کاربران قرار میدهد.
تکاپوی غولهای فناوری برای تشخیص محتوای جعلی
سیل تولید رسانههای جدید، واکنش شرکتهای فناوری را برانگیخته است و غولهای فناوری، چون بیبیسی، گوگل، مایکروسافت و سونی در تلاش هستند که برای تأیید منشأ و اصالت محتوا ائتلاف کنند و استانداردهایی را برای برچسبگذاری محتواهای تولیدشده با هوش مصنوعی تعیین کنند.
در همین راستا، اُپنای آی در فوریه گذشته اعلام کرد که چنین موازینی را برای دال-ای اتخاذ خواهد کرد. اکنون، تصاویر تولید شده توسط این ابزار دارای یک برچسب قابل مشاهده و واترمارک قابل خواندن توسط ماشین است. متا نیز برای افزودن برچسبهای خود به محتوای تولیدشده توسط هوش مصنوعی دستبهکار شده است و میگوید که پستهایی را که برچسب ندارند حذف خواهد کرد. چنین سیاستهایی ممکن است به مقابله با فراگیرشدن اطلاعات نادرست یا شوخیهای اقلیتی در اینترنت کمک کند.
اسپیرز میگوید: «چنین اقداماتی میتواند امنیت کاذب ایجاد کند و اگر مردم به دیدن چنین برچسبهایی عادت کنند، شاید به طور ناخودآگاه دیگر به آنهایی که برچسب ندارند اعتماد نکنند.»
آیا برچسبگذاری و واترمارک بازدارنده است؟
بنابراین برچسبگذاری میتواند مشکلساز شود، چون یک روند جهانی نیست. شرکتهای بزرگی مانند اُپنای آی شاید با برچسبگذاری آثار خود موافقت کنند، اما استارتآپهایی، چون میدجِرنی چنین ظرفیت یا حتی فرصتی ندارند. از طرفی، برچسبگذاری یا واترمارک گذاشتن برای پروژههای منبعِ باز مانند استیبل دیفیوژن غیرممکن است، زیرا این امکان را به شما میدهد که فناوری را در اختیار بگیرید و محتوای خودتان را بسازید.
هنری پارکر، کارشناس بررسی واقعیت منطقی، میگوید: «دیدن واترمارک لزوماً آن تأثیری که ما فکرش را میکنیم ندارد. اگر به کسی از قبل بگویید که قرار است یک ویدیوی جعل عمیق را تماشا کند، روانشناسی اجتماعی آن ویدئو به قدری قدرتمند است که طرف شک میکند شاید واقعی باشد! بنابراین تنها کاری که میتوانید انجام دهید این است که ببینید چگونه میتوانیم مدت زمان گردش این محتوا در فضای مجازی را کاهش دهیم.»
خیلی چیزها میتوانند در جهت جعل و دروغ پیش بروند، اما سمتوسوی حقیقت تغییر نمیکند
برای این کار لازم است محتوای تولیدشده توسط هوش مصنوعی پیدا و حذف شود، اما از نظر پارکر این کار سختی است. او میگوید: «ما پنج سال است که در این زمینه تلاش کردهایم و تازه بهدقت ۷۰ درصدی رسیدیم.» در کوتاهمدت، رقابت بین «تشخیص» و «ایجاد» خواهد بود و حتی تولیدکنندگان چنین محتواهایی، که بسیاری از آنها نیت بدی ندارند، میخواهند نرمافزارهای تشخیص جعل عمیق را شکست دهند.
به گفته پارکر، راه حل مقابله با اطلاعات نادرست، نظارت بر گفتگوهایی است که در سراسر اینترنت اتفاق میافتد تا عوامل بدی که قصد انتشار اطلاعات نادرست را دارند، شناسایی شوند. این را میتوان با زیر نظر گرفتن حسابهای مشکوک توسط ناظران دولتی انجام داد. راهاندازی پویشهای اجتماعی با مشارکت طرفداران یا مخالفان این فناوری نیز میتواند چالش مفیدی باشد.
دلگرمیهای واقعی برای آینده
گروهی دیگر، اما خوشبینترند. بن کُلمن (Ben Colman)، مدیرعامل استارتآپ تشخیص تصویر ریلیتی دیفِندر (Reality Defender)، شرکتی که از فناوری پیشرفته برای تشخیص تصاویر جعلی استفاده میکند، همیشه نشانههایی برای شناسایی یک تصویر یا ویدیوی جعلی وجود دارد. این علائم میتواند هر چیزی باشد، از فیلترهای قوی که تصویر را بیشازحد صاف نشان میدهد تا جزئیات طبیعی و واقعی که در ویدیوهای جعلی وجود ندارد، برای مثال فردی که دچار هیجان میشود به دلیل پمپاژ خون بیشتر، چهرهاش گل میاندازد که اگر ویدیو واقعی باشد چنین چیزی را میتوان در آن دید. کلمن نتیجه میگوید: «خیلی چیزها میتوانند در جهت جعل و دروغ پیش بروند، اما سمتوسوی حقیقت تغییر نمیکند.»
فناوری تنها راه حل مشکل اخبار جعلی نیست. اگر عدهای از مردم باور میکنند که عکس یک زن ۱۲۲ ساله و کیک تولدی که خودش پخته واقعیت دارد، فریب دادن آنها برای چیزهای بدتر و جدیتر کار سختی نخواهد بود. با این همه، هنوز هم میتوان از فناوری برای مقابله با این مشکل استفاده کرد. تازه در آغاز راه هستیم.
گزارش حاضر از مجله گاردین به فارسی برگردان شده است.
انتهای پیام/