دیگر به چشمتان هم اعتماد نکنید!
به گزارش گروه رسانههای دیگر خبرگزاری آنا، در این روزهای داغ كارزار انتخابات آمریكا شما هم این فیلم را دیدهاید كه باراك اوباما، رئیس جمهور سابق آمریكا، دونالد ترامپ را «احمقی به تمام معنا» خطاب میكند؟ یا فیلمی كه مارك زاكربرگ، صاحب شبكه اجتماعی فیسبوك، ادعا میكند كنترل كاملی روی اطلاعات دزدیده شده میلیونها كاربر دارد؟ یا فیلمی كه شخصیتهای بزرگ و مبارز تاریخ كشورمان از میرزاكوچكخان جنگلی و ستارخان گرفته تا شهید همت و شهید چمران، سرود «ایرانِ من» از همایون شجریان را میخوانند؟ اگر پاسخ شما به یكی از این سوالها مثبت است، باید بگویم آنچه شما دیدهاید فیلمی بوده كه با فناوری جعل عمیق (Deep Fake) ساخته شده است! فناوری جعل عمیق در واقع با كمك شكلی از فناوری هوش مصنوعی كه یادگیری عمیق (Deep Leaning) نامیده میشود، تصاویر یا فیلمهایی از اتفاقات غیرواقعی میسازد.
برای همین آن را جعل عمیق مینامند. این فناوری نو به افرادی كه در زمینه هوش مصنوعی تخصصی ندارند، اجازه میدهد با داشتن تعداد زیادی عكس، یك ویدئوی جعلی بسازند. ساخت این فیلمهای جعلی به خصوص در دنیای چهرههای مشهور با سرعت بیشتری گسترش پیدا كرده است. اگر دوست دارید خودتان جای ستاره فیلم مورد علاقهتان بازی كنید، یا حرفهای مورد نظر خودتان را از زبان فرد دیگری بگویید، فناوری جعل عمیق یاریگر شماست! در ادامه به 10 سوال مهمی كه معمولا در مورد جعل عمیق پرسیده میشود پاسخ میدهیم.
آیا جعل عمیق فقط در مورد ویدئوهاست؟
خیر. فناوری جعل عمیق میتواند از صفر، تصاویری كاملا ساختگی اما باورپذیر بسازد. برای مثال پروفایل توییتری و لینكداین كاربری با نام Maisy Kinsley كه خود را خبرنگار ارشد رسانه بلومبرگ (Bloomberg) معرفی كرده است، وجود خارجی ندارد و یك پروفایل جعل عمیق است. همین طور حساب كاربری Katie Jones كه ادعا میكند در مركز مطالعات راهبردی و بینالمللی كار میكند نیز یك پروفایل جعل عمیق است كه احتمالا برای عملیات جاسوسی ساخته شده است. حتی جعل عمیق در قالب صوتی نیز میتواند باشد، یعنی یك صدای شبیهسازیشده از اشخاص معروف ساخته شود.
فروردین گذشته شركتی بریتانیایی در حوزه انرژی یک تماس تلفنی از سوی شركت مادر خود در آلمان دریافت میكند. در این تلفن از او خواسته میشود مبلغی نزدیك به 200 هزار دلار را به حساب بانكی در مجارستان واریز كند. اما در واقعیت آن سوی تلفن كلاهبردارانی نشسته بودند كه صدای مدیرعامل شركت آلمانی را تقلید كرده بودند. شركت بیمه معتقد است صدا جعل عمیق بوده است، اما هنوز شواهد كافی در دست ندارد. گفته میشود كلاهبرداران از پیامهای صوتی ضبط شده در واتساپ استفاده كرده بودند.
جعل عمیق چطور ساخته میشود؟
مدتهاست پژوهشگران دانشگاهها و استودیوهای جلوههای ویژه مرزهای هر آنچه را كه میتوان با دستكاری فیلمها و صداها انجام داد، جابهجا كردهاند. به طور كلی دو روش برای ساخت فیلمهای جعل عمیق وجود دارد:
در روش اول تنها چند قدم طول میكشد تا ویدئویی با تغییر چهرهها بسازید. فرض كنید چهره دو نفر الف و ب را میخواهید با هم جابهجا كنید. ابتدا هزاران عكس از صورت این دو نفر را انتخاب كنید. حالا تمام تصاویر چهرههای الف و ب را میدهیم به الگوریتمی از هوش مصنوعی كه رمزنگار (encoder) نامیده میشود.
رمزنگار شباهتهای بین دو چهره را پیدا میكند، آنها را یاد میگیرد و بعد آنها را كدگذاری میكند. در قدم دوم الگوریتم هوش مصنوعی دیگری كه رمزگشا (decoder) نامیده میشود، قرار است تصاویر كدشده را بازسازی كند. اما چون چهره دو نفر با هم تفاوت دارد، برای هر چهره رمزگشای مجزایی را باید تعریف كرد. رمزگشای اول تصویر چهره نفر الف و رمزگشای دوم تصویر نفر ب را بازسازی میكند. حالا در یك قدمی جابهجایی تصاویر هستیم. كافی است تصویر كدگذاریشده نفر الف را بهعنوان ورودی به رمزگشای دوم بدهیم. رمزگشای دوم چهره نفر ب را با حالت و موقعیت چهره نفر الف بازسازی میكند. برای ساخت یك ویدئوی باورپذیر هم كافی است اینكار را برای هر فریم تكرار كرد. روش دوم شبكههای مولد تخاصمی (Generative Adversarial Network) یا گَن (GAN) نام دارد.
در این روش دو الگوریتم هوش مصنوعی در برابر یكدیگر قرار میگیرند. الگوریتم اول كه مولد (generator) نام دارد، دادههای تصادفی را به تصویر تبدیل میكند. سپس تصویر ساختگی به زنجیرهای از تصاویر واقعی (مثل تصاویر افراد معروف) اضافه میشود و بهعنوان ورودی به الگوریتم دوم كه متمایزگر (discriminator) است، منتقل میشود. الگوریتم دوم كار ارزیابی دادههای ورودی و تشخیص واقعی یا جعلیبودن تصاویر را برعهده دارد. هر بار كه متمایزگر تشخیص درستی از جعلیبودن تصویر داشته باشد به مولد بازخورد میدهد. مولد هم بر اساس بازخوردها، خطاهایش را تصحیح و جعل جدیدی میسازد. این فرآیند بیشمار مرتبه تكرار میشود تا عملكرد مولد و متمایزگر بهبود یابد تا جایی كه مولد، چهرههایی كاملا واقعی از افراد معروفی میسازد كه اصلا وجود خارجی ندارند.
آیا جعل عمیق میتواند ویرانگر باشد؟
با روند فعلی باید منتظر جعل عمیقهای بیشتری باشیم كه قصدشان آزار رساندن، ترساندن، تحقیركردن، بیاعتبارسازی و ایجاد بیثباتی است. اما آیا جعل عمیق در عرصه بینالمللی نیز خطرناك است؟
در این مورد وضعیت مشخص نیست. اما آنچه مشخص است این که یک ویدئوی جعل عمیق از رهبران مهم دنیا یا تصاویر جعلی که تجمع نیروهای نظامی را در مرزها نشان میدهد، جنجال غیرقابل كنترلی به پا نخواهد كرد و در بیشتر كشورها مردم به دستگاه امنیتی خود اعتماد دارند.
اما به هر حال قابلیتهای این فناوری فضای كافی برای آشوبآفرینی را دارد. آیا جعل عمیق میتواند قیمت سهام را تغییر دهد یا بر رایدهندهها تاثیر بگذارد یا به تنشهای مذهبی دامن بزند؟ بله ممكن است، اما بهتر است امیدوار باشیم با افزایش آگاهی عمومی این موارد قابل كنترل خواهد بود و خطر زیادی نخواهد داشت.
چه كسی جعل عمیق را میسازد؟
همه! از پژوهشگران دانشگاهی و صنعتی گرفته تا افراد غیرحرفهای که از روی علاقه این کار را دنبال میكنند. سیاسیون نیز ممكن است بهعنوان قسمتی از استراتژیهای آنلاین خود برای بیاعتباركردن و بر هم زدن انسجام گروههای رقیب افراطی یا برقراری تماس با فردی خاص در این فناوری سَرَك بكشند.
چه نوع فناوریای برای جعل عمیق نیاز است؟
اگر تا اینجا به فكر ساخت تصویر، ویدئو یا صدایی با فناوری جعل عمیق افتادهاید، بد نیست بدانید ساخت ویدئو، صدا یا عكسی در قالب جعل عمیق باكیفیت، آن هم با رایانههای معمولی كار سختی است. بیشتر این فیلمها با رایانههای رده بالا با کارت گرافیک قدرتمند و از آن بهتر با قدرت محاسبه در فضای ابری ساخته میشود. زمان پردازش نیز از هفتهها و روزها به چند ساعت كاهش مییابد. همینطور سازندگان به مهارت بالایی در از بین بردن لرزش تصویر و دیگر عیبهای بصری در ویدئوها نیاز دارند. ولی ناامید نشوید، امروزه شركتهای زیادی ابزار و نرمافزارهایی را برای ساخت جعل عمیق در اختیارمان قرار میدهند و میتوانیم چهره خود را جایگزین بازیگرهای بعضی از برنامههای تلویزیونی كنیم.
آیا اعتماد به مستندات از بین میرود؟
در جامعهای كه مردم نمیتوانند یا این زحمت را به خود نمیدهند كه اخبار درست را از اخبار جعلی متمایز كنند، تاثیرات توطئهآمیز جعل عمیق در كنار اخبار جعلی، به گسترش بیاعتمادی در جامعه دامن میزنند. وقتی اعتماد از بین برود، ایجاد شبهه در مورد وقایع خاص آسانتر خواهد بود.
با دسترسی بیشتر به این فناوری، جعل عمیق میتواند مشكلات زیادی را در دادگاهها به وجود آورد. بهویژه در مورد پروندههای اخذ حضانت فرزندان و شركتهای بیمه كه اتفاقات غیرواقعی ممكن است به عنوان شاهد به دادگاه ارائه شوند.
جعل عمیق حتی میتواند امنیت اشخاص را نیز تهدید كند. جعل عمیق با تقلید از اطلاعات زیستسنجی (بیومتریك)، هر سامانهای را كه متكی به تشخیص چهره، صدا، رگهای خونی چشم یا نحوه راهرفتن باشد، فریب میدهد. تا اینجا احتمال كلاهبرداری مشخص است. برای مثال اگر بیمقدمه كسی با شما تماس بگیرد و تقاضای پول كند، بعید است به حساب بانكی كسی كه نمیشناسید، به آسانی پول واریز كنید. ولی اگر یكی از اعضای خانوادهتان از طریق تماس تصویری همین درخواست را داشته باشد، چه؟! حتما نتیجه فرق خواهد كرد!
چگونه جعل عمیق را تشخیص دهیم؟
به سختی! با پیشرفت فناوری این كار سختتر هم میشود. سال 97 بود که پژوهشگران دریافتند چهرههایی كه با جعل عمیق ساخته شدهاند، پلك نمیزنند. اما این كشف، كاربردی در مورد تصاویر جعل عمیق ندارد. چون همیشه افراد با چشم باز عكس میگیرند. ولی درمورد ویدئوها راه حلی جادویی به نظر میرسید. اما با انتشار این یافته، بلافاصله جعل عمیقهایی ساخته شد كه در آنها پلکزدن هم وجود داشت. این طبیعت بازی است. به محض پیداشدن یك ضعف، آن را برطرف میکنند. تشخیص جعل عمیقهای با كیفیت پایین سادهتر است.
ممكن است حركت لبها همگام نشده یا رنگ پوست ناهمگون باشد. همینطور صورت كه جابهجا میشود و لرزش تصویر وجود داشته باشد. بهویژه جزئیات ریز مثل موها در جعل عمیق معمولا با كیفیت ساخته نمیشود. جواهرات، دندانها، روشنایی نامناسب محیط و بازتاب نور در عنبیه چشم نیز میتواند سرنخی در این تشخیص باشد. دولتها، دانشگاهها و شركتهای فناوری همه به دنبال توانایی تشخیص جعل عمیق هستند. اولین مسابقه تشخیص جعل عمیق با حمایت شركتهایی مثل مایكروسافت، فیسبوك و آمازون در سراسر جهان در حال برگزاری است. با نزدیك شدن به انتخابات آمریكا، شبكههای مجازی، ویدئوهای جعل عمیقی را حذف میكنند كه حاوی اطلاعات نادرست باشند. اما این سیاست شامل ویدئوهای جعل كم عمق (shallow fakes) نمیشود.
آیا جعل عمیق همیشه مخرب است؟
خیر! اتفاقا بسیار سرگرمكننده و مفید میتواند باشد. برای مثال در جعل عمیق صوتی، میتوان صدای افرادی را برگرداند كه بهدلیل بیماری صدای خود را از دست دادهاند. ویدئوهای جعل عمیق به گالریها و موزهها روح تازهای میبخشند. موزه سالوادور دالی در فلوریدا از نقاش سوررئالیست خود ویدئوی جعل عمیقی ساخته است كه آثار خود را به بازدیدكنندگان معرفی و با آنها عكس سلفی میگیرد. در صنعت سرگرمی از این فناوری برای دوبله فیلمها هم استفاده میشود. حتی این فناوری برای زنده كردن بازیگرانی كه از دنیا رفتهاند هم پیشنهاد میشود.
راه حل ما در برابر قابلیتهای جعل عمیق چیست؟
از قضا هوش مصنوعی، راهحلی برای این فناوری در آستین دارد. در حال حاضر با كمك هوش مصنوعی میتوان ویدئوهای جعلی را تشخیص داد. ولی این الگوریتمهای تشخیص، ضعفی جدی دارند؛ زیرا جعل عمیق برای افراد مشهور كه ساعتها فیلم رایگان از آنها در دسترس است بهترین عملكرد را دارد. شركتهای فناوری تلاش میكنند محتوای جعلی را در هر جا كه منتشر میشود، تشخیص دهند. استراتژیهای دیگری هم وجود دارد. برای مثال استفاده از واترمارك دیجیتال كه البته چندان هم بیخطر نیست. اما یك سیستم بلاكچین میتواند ویدئوها، تصاویر و صداهای جعلی و هر دستكاری را تشخیص دهد و نسخه اصلی آنها را پیدا كند.
ماجرای محتواهای جعل كم عمق از چه قرار است؟
فیلمهای جعل كمعمق (shallow fakes) در بستری متفاوت ارائه میشوند و ابزارهای ویرایش سادهای دارند. در این ویدئوها برای فریب مخاطب، سرعت پخش قسمتی از فیلم آهسته یا سریع میشود تا برداشت متفاوتی از فیلم را القا کند. گرچه برخی از این ویدئوها ناشیانه ساخته میشوند ولی تاثیر چشمگیری دارند.
جیم آكوستا، خبرنگار سیانان مجوز ورودش به كاخ سفید پس از تنش لفظی با دونالد ترامپ لغو شد. پس از آن فیلم جعل كمعمقی منتشر شد كه نشان میداد در نشست خبری ترامپ، زمانی که کارمند کاخسفید قصد داشته میکروفن را از آقای آکوستا بگیرد، وی رفتار تهاجمی داشته است. بعدا مشخص شد این فیلم درست در لحظه حساس سرعتش بیشتر شده و حرکت دست آکوستا تهاجمی جلوه داده شده است. پس از این اتفاق وی دوباره به كارش بازگشت.
چه با جعل عمیق و چه با جعل كمعمق این دردسرها روزبهروز بیشتر میشود و این فناوری نهتنها از بین نمیرود، بلکه كمكم جهان اطرافمان را غیرواقعیتر میكند.
منبع: روزنامه جام جم
انتهای پیام/
انتهای پیام/