دیده بان پیشرفت علم، فناوری و نوآوری
22 مهر 1399 - 10:26

دیگر به چشمتان هم اعتماد نکنید!

در پی انتشار ویدئویی در فضای مجازی از خواندن ترانه «ایران من» با لبخوانی جمعی از چهره‌های مشهور تاریخ معاصر ایران كه با فناوری «جعل عمیق» ساخته شده بود، به ابعاد گوناگون کاربردهای این فناوری می‌پردازیم.
کد خبر : 522913
1.jpg

به گزارش گروه رسانه‌های دیگر خبرگزاری آنا، در این روزهای داغ كارزار انتخابات آمریكا شما هم این فیلم را دیده‎اید كه باراك اوباما، رئیس جمهور سابق آمریكا، دونالد ترامپ را «احمقی به تمام معنا» خطاب می‎كند؟ یا فیلمی كه مارك زاكربرگ، صاحب شبكه اجتماعی فیسبوك، ادعا می‎كند كنترل كاملی روی اطلاعات دزدیده شده میلیون‎ها كاربر دارد؟ یا فیلمی كه شخصیت‎های بزرگ و مبارز تاریخ كشورمان از میرزاكوچك‌خان جنگلی و ستارخان گرفته تا شهید همت و شهید چمران، سرود «ایرانِ من» از همایون شجریان را می‎خوانند؟ اگر پاسخ شما به یكی از این سوال‎ها مثبت است، باید بگویم آنچه شما دیده‌اید فیلمی بوده كه با فناوری جعل عمیق (Deep Fake) ساخته شده است! فناوری جعل عمیق در واقع با كمك شكلی از فناوری هوش مصنوعی كه یادگیری عمیق (Deep Leaning) نامیده می‎شود، تصاویر یا فیلم‎هایی از اتفاقات غیرواقعی می‎سازد.


برای همین آن را جعل عمیق می‎نامند. این فناوری نو به افرادی كه در زمینه هوش مصنوعی تخصصی ندارند، اجازه می‎دهد با داشتن تعداد زیادی عكس، یك ویدئوی جعلی بسازند. ساخت این فیلم‎های جعلی به خصوص در دنیای چهره‌های مشهور با سرعت بیشتری گسترش پیدا كرده است. اگر دوست دارید خودتان جای ستاره فیلم مورد علاقه‎تان بازی كنید، یا حرف‎های مورد نظر خودتان را از زبان فرد دیگری بگویید، فناوری جعل عمیق یاریگر شماست! در ادامه به 10 سوال مهمی كه معمولا در مورد جعل عمیق پرسیده می‌شود پاسخ می‌دهیم.


آیا جعل عمیق فقط  در مورد ویدئوهاست؟


خیر. فناوری جعل عمیق می‎تواند از صفر، تصاویری كاملا ساختگی اما باورپذیر بسازد. برای مثال پروفایل توییتری و لینكداین كاربری با نام Maisy Kinsley كه خود را خبرنگار ارشد رسانه بلومبرگ (Bloomberg) معرفی كرده است، وجود خارجی ندارد و یك پروفایل جعل عمیق است. همین طور حساب كاربری Katie Jones كه ادعا می‎كند در مركز مطالعات راهبردی و بین‎المللی كار می‎كند نیز یك پروفایل جعل عمیق است كه احتمالا برای عملیات جاسوسی ساخته شده است. حتی جعل عمیق در قالب صوتی نیز می‎تواند باشد، یعنی یك صدای شبیه‎سازی‌شده از اشخاص معروف ساخته شود.


فروردین گذشته شركتی بریتانیایی در حوزه انرژی یک تماس تلفنی از سوی شركت مادر خود در آلمان دریافت می‎كند. در این تلفن از او خواسته می‎شود مبلغی نزدیك به 200 هزار دلار را به حساب بانكی در مجارستان واریز كند. اما در واقعیت آن سوی تلفن كلاهبردارانی نشسته بودند كه صدای مدیرعامل شركت آلمانی را تقلید كرده بودند. شركت بیمه معتقد است صدا جعل عمیق بوده است، اما هنوز شواهد كافی در دست ندارد. گفته می‎شود كلاهبرداران از پیام‎های صوتی ضبط شده در واتس‌اپ استفاده كرده بودند.


جعل عمیق چطور ساخته می‎شود؟


مدت‎هاست پژوهشگران دانشگاه‎ها و استودیوهای جلوه‎های ویژه مرزهای هر آنچه را كه می‎توان با دستكاری فیلم‎ها و صداها انجام داد، جابه‎جا كرده‎اند. به طور كلی دو روش برای ساخت فیلم‎های جعل عمیق وجود دارد:


در روش اول تنها چند قدم طول می‎كشد تا ویدئویی با تغییر چهره‎ها بسازید. فرض كنید چهره دو نفر الف و ب را می‎خواهید با هم جابه‎جا كنید. ابتدا هزاران عكس از صورت این دو نفر را انتخاب كنید. حالا تمام تصاویر چهره‎های الف و ب را می‎دهیم به الگوریتمی از هوش مصنوعی كه رمزنگار (encoder) نامیده می‎شود.


رمزنگار شباهت‎های بین دو چهره را پیدا می‎كند، آنها را یاد می‎گیرد و بعد آنها را كدگذاری می‎كند. در قدم دوم الگوریتم هوش مصنوعی دیگری كه رمزگشا (decoder) نامیده می‎شود، قرار است تصاویر كدشده را بازسازی كند. اما چون چهره دو نفر با هم تفاوت دارد، برای هر چهره رمزگشای مجزایی را باید تعریف كرد. رمزگشای اول تصویر چهره نفر الف و رمزگشای دوم تصویر نفر ب را بازسازی می‎كند. حالا در یك قدمی جابه‎جایی تصاویر هستیم. كافی است تصویر كدگذاری‌شده نفر الف را به‌عنوان ورودی به رمزگشای دوم بدهیم. رمزگشای دوم چهره نفر ب را با حالت و موقعیت چهره نفر الف بازسازی می‎كند. برای ساخت یك ویدئوی باورپذیر هم كافی است این‎كار را برای هر فریم تكرار كرد. روش دوم شبكه‎های مولد تخاصمی (Generative Adversarial Network) یا گَن (GAN) نام دارد.


در این روش دو الگوریتم هوش مصنوعی در برابر یكدیگر قرار می‎گیرند. الگوریتم اول كه مولد (generator) نام دارد، داده‎های تصادفی را به تصویر تبدیل می‎كند. سپس تصویر ساختگی به زنجیره‌ای از تصاویر واقعی (مثل تصاویر افراد معروف) اضافه می‎شود و به‌عنوان ورودی به الگوریتم دوم كه متمایزگر (discriminator) است، منتقل می‎شود. الگوریتم دوم كار ارزیابی داده‎های ورودی و تشخیص واقعی یا جعلی‌بودن تصاویر را برعهده دارد. هر بار كه متمایزگر تشخیص درستی از جعلی‌بودن تصویر داشته باشد به مولد بازخورد می‎دهد. مولد هم بر اساس بازخوردها، خطاهایش را تصحیح و جعل جدیدی می‎سازد. این فرآیند بی‎شمار مرتبه تكرار می‎شود تا عملكرد مولد و متمایزگر بهبود یابد تا جایی كه مولد، چهره‎هایی كاملا واقعی از افراد معروفی می‎سازد كه اصلا وجود خارجی ندارند.


آیا جعل عمیق می‎تواند ویرانگر باشد؟


با روند فعلی باید منتظر جعل عمیق‎های بیشتری باشیم كه قصدشان آزار رساندن، ترساندن، تحقیركردن، بی‌اعتبارسازی و ایجاد بی‎ثباتی است. اما آیا جعل عمیق در عرصه بین‎المللی نیز خطرناك است؟


در این مورد وضعیت مشخص نیست. اما آنچه مشخص است این که یک ویدئوی جعل عمیق از رهبران مهم دنیا یا تصاویر جعلی که تجمع نیروهای نظامی را در مرزها نشان می‌دهد، جنجال غیرقابل كنترلی به پا نخواهد كرد و در بیشتر كشورها مردم به دستگاه امنیتی خود اعتماد دارند.


اما به هر حال قابلیت‌های این فناوری فضای كافی برای آشوب‌آفرینی را دارد. آیا جعل عمیق می‎تواند قیمت سهام را تغییر دهد یا بر رای‌دهنده‎ها تاثیر بگذارد یا به تنش‎های مذهبی دامن بزند؟ بله ممكن است، اما بهتر است امیدوار باشیم با افزایش آگاهی عمومی این موارد قابل كنترل خواهد بود و خطر زیادی نخواهد داشت.


چه كسی جعل عمیق را می‎سازد؟


همه! از پژوهشگران دانشگاهی و صنعتی گرفته تا افراد غیرحرفه‎ای که از روی علاقه این کار را دنبال می‌كنند. سیاسیون نیز ممكن است به‌عنوان قسمتی از استراتژی‎های آنلاین خود برای بی‌اعتباركردن و بر هم زدن انسجام گروه‎های رقیب افراطی یا برقراری تماس با فردی خاص در این فناوری سَرَك بكشند.


چه نوع فناوری‌ای برای جعل عمیق نیاز است؟


اگر تا اینجا به فكر ساخت تصویر، ویدئو یا صدایی با فناوری جعل عمیق افتاده‎اید، بد نیست بدانید ساخت ویدئو، صدا یا عكسی در قالب جعل عمیق باكیفیت، آن هم با رایانه‌های معمولی كار سختی است. بیشتر این فیلم‌ها با رایانه‌های رده بالا با کارت گرافیک قدرتمند و از آن بهتر با قدرت محاسبه در فضای ابری ساخته می‌شود. زمان پردازش نیز از هفته‎ها و روزها به چند ساعت كاهش می‎یابد. همین‎طور سازندگان به مهارت بالایی در از بین بردن لرزش تصویر و دیگر عیب‎های بصری در ویدئوها نیاز دارند. ولی ناامید نشوید، امروزه شركت‎های زیادی ابزار و نرم‌افزار‎هایی را برای ساخت جعل عمیق در اختیارمان قرار می‎دهند و می‎توانیم چهره خود را جایگزین بازیگرهای بعضی از برنامه‎های تلویزیونی كنیم.


آیا اعتماد به مستندات از بین می‎رود؟


در جامعه‏ای كه مردم نمی‎توانند یا این زحمت را به خود نمی‎دهند كه اخبار درست را از اخبار جعلی متمایز كنند، تاثیرات توطئه‎آمیز جعل عمیق در كنار اخبار جعلی، به گسترش بی‌اعتمادی در جامعه دامن می‌زنند. وقتی اعتماد از بین برود، ایجاد شبهه در مورد وقایع خاص آسان‎تر خواهد بود.


با دسترسی بیشتر به این فناوری، جعل عمیق می‎تواند مشكلات زیادی را در دادگاه‎ها به وجود آورد. به‌ویژه در مورد پرونده‎های اخذ حضانت فرزندان و شركت‎های بیمه كه اتفاقات غیرواقعی ممكن است به عنوان شاهد به دادگاه ارائه شوند.


جعل عمیق حتی می‎تواند امنیت اشخاص را نیز تهدید كند. جعل عمیق با تقلید از اطلاعات زیست‌سنجی (بیومتریك)، هر سامانه‌ای را كه متكی به تشخیص چهره، صدا، رگ‎های خونی چشم یا نحوه راه‌رفتن باشد، فریب می‎دهد. تا اینجا احتمال كلاهبرداری مشخص است. برای مثال اگر بی‌مقدمه كسی با شما تماس بگیرد و تقاضای پول كند، بعید است به حساب بانكی كسی كه نمی‎شناسید، به آسانی پول واریز كنید. ولی اگر یكی از اعضای خانواده‌تان از طریق تماس تصویری همین درخواست را داشته باشد، چه؟! حتما نتیجه فرق خواهد كرد!


چگونه جعل عمیق را تشخیص دهیم؟


به سختی! با پیشرفت فناوری این كار سخت‎تر هم می‎شود. سال 97 بود که پژوهشگران دریافتند چهره‎هایی كه با جعل عمیق ساخته شده‌اند، پلك نمی‎زنند. اما این كشف، كاربردی در مورد تصاویر جعل عمیق ندارد. چون همیشه افراد با چشم باز عكس می‎گیرند. ولی درمورد ویدئوها راه حلی جادویی به نظر می‎رسید. اما با انتشار این یافته، بلافاصله جعل عمیق‎هایی ساخته شد كه در آنها پلک‌زدن هم وجود داشت. این طبیعت بازی است. به محض پیداشدن یك ضعف، آن را برطرف می‌کنند. تشخیص جعل عمیق‎های با كیفیت پایین ساده‎تر است.


ممكن است حركت لب‎ها همگام نشده یا رنگ پوست ناهمگون باشد. همین‎طور صورت كه جابه‎جا می‎شود و لرزش تصویر وجود داشته باشد. به‌ویژه جزئیات ریز مثل موها در جعل عمیق معمولا با كیفیت ساخته نمی‎شود. جواهرات، دندان‎ها، روشنایی نامناسب محیط و بازتاب نور در عنبیه چشم نیز می‎تواند سرنخی در این تشخیص باشد. دولت‎ها، دانشگاه‎ها و شركت‎های فناوری همه به دنبال توانایی تشخیص جعل عمیق هستند. اولین مسابقه تشخیص جعل عمیق با حمایت شركت‎هایی مثل مایكروسافت، فیسبوك و آمازون در سراسر جهان در حال برگزاری است.  با نزدیك شدن به انتخابات آمریكا، شبكه‎های مجازی، ویدئوهای جعل عمیقی را حذف می‌كنند كه حاوی اطلاعات نادرست باشند. اما این سیاست شامل ویدئوهای جعل كم عمق (shallow fakes) نمی‎شود.


آیا جعل عمیق همیشه مخرب است؟


خیر! اتفاقا بسیار سرگرم‌كننده و مفید می‎تواند باشد. برای مثال در جعل عمیق صوتی، می‎توان صدای افرادی را برگرداند كه به‌‎دلیل بیماری صدای خود را از دست داده‎اند. ویدئوهای جعل عمیق به گالری‎ها و موزه‎ها روح تازه‎ای می‎بخشند. موزه سالوادور دالی در فلوریدا از نقاش سوررئالیست خود ویدئوی جعل عمیقی ساخته است كه آثار خود را به بازدیدكنندگان معرفی و با آنها عكس سلفی می‎گیرد. در صنعت سرگرمی از این فناوری برای دوبله فیلم‎ها هم استفاده می‎شود. حتی این فناوری برای زنده كردن بازیگرانی كه از دنیا رفته‎اند هم پیشنهاد می‎شود.


راه حل ما در برابر قابلیت‌های جعل عمیق چیست؟


از قضا هوش مصنوعی، راه‌حلی برای این فناوری در آستین دارد. در حال حاضر با كمك هوش مصنوعی می‎توان ویدئوهای جعلی را تشخیص داد. ولی این الگوریتم‎های تشخیص، ضعفی جدی دارند؛ زیرا جعل عمیق برای افراد مشهور كه ساعت‎ها فیلم رایگان از آنها در دسترس است بهترین عملكرد را دارد. شركت‎های فناوری تلاش می‎كنند محتوای جعلی را در هر جا كه منتشر می‎شود، تشخیص دهند. استراتژی‎های دیگری هم وجود دارد. برای مثال استفاده از واترمارك دیجیتال كه البته چندان هم بی‎خطر نیست. اما یك سیستم بلاك‌چین می‎تواند ویدئوها، تصاویر و صداهای جعلی و هر دستكاری را تشخیص دهد و نسخه اصلی آنها را پیدا كند.


ماجرای محتواهای جعل كم عمق از چه قرار است؟


فیلم‎های جعل كم‌عمق (shallow fakes) در بستری متفاوت ارائه می‎شوند و ابزارهای ویرایش ساده‎ای دارند. در این ویدئوها برای فریب مخاطب، سرعت پخش قسمتی از فیلم آهسته یا سریع می‎شود تا برداشت متفاوتی از فیلم را القا کند. گرچه برخی از این ویدئوها ناشیانه ساخته می‎شوند ولی تاثیر چشمگیری دارند.


جیم آكوستا، خبرنگار سی‌ان‌ان مجوز ورودش به كاخ سفید پس از تنش لفظی با دونالد ترامپ لغو شد. پس از آن فیلم جعل كم‌عمقی منتشر شد كه نشان می‎داد در نشست خبری ترامپ، زمانی که کارمند کاخ‌سفید قصد داشته میکروفن را از آقای آکوستا بگیرد، وی رفتار تهاجمی داشته است. بعدا مشخص شد این فیلم درست در لحظه حساس سرعتش بیشتر شده و حرکت دست آکوستا تهاجمی جلوه داده شده است. پس از این اتفاق وی دوباره به كارش بازگشت.


چه با جعل عمیق و چه با جعل كم‌عمق این دردسرها روزبه‎روز بیشتر می‎شود و این فناوری نه‎تنها از بین نمی‌رود، بلکه كم‌كم جهان اطراف‎مان را غیرواقعی‎تر می‌كند.


منبع: روزنامه جام جم


انتهای پیام/


انتهای پیام/

ارسال نظر
قالیشویی ادیب