دیده بان پیشرفت علم، فناوری و نوآوری
08 فروردين 1400 - 12:00
آنا گزارش می‌دهد؛

«دیپ فیک» چه بر سر واقعیت می‌آورد؟/ وقتی فناوری ترسناک می‌شود

ویدئوی جعل عمیق هنرپیشه 58 ساله آمریکایی در حین بازی گلف به صورتی اشتراک‌گذاری شد که کمتر کسی در نگاه اول تصور می‌ کرد این ویدئو حقیقی نباشد.
کد خبر : 571409
هوش مصنوعی دیپ فیک

گروه فناوری خبرگزاری آنا- نوید فرخی: فناوری جعل عمیق(deep fake) به ویدئوهایی جعلی اطلاق می‌شود که در آن جاعلان با دستکاری محتوای ویدئو تلاش می‌کنند چیزی را در دهان شما بچپانند! هدف از تولید ویدئوهای جعل عمیق می‌توان بسیار متنوع باشد و در بسیاری اوقات نیت تنها سرگرمی و شوخی تا حتی کاربردهای هنری و سینمایی است. اما این فناوری یک وجه ترسناک دارد و آن اینکه اگر روزی نتوانیم حقیقت را از دروغ تشخیص دهیم، چطور به کسی اعتماد خواهیم کرد؟



به‌تازگی ویدئویی از تام کروز در شبکه اشتراک‌گذاری ویدئو تیک‌تاک پخش شده است که در نگاه اول هر یک از ما را متقاعد می‌کند که فرد درون ویدئو همان هنرپیشه سری فیلم‌های مأموریت غیرممکن است. با این وجود نام حساب کاربری کسی که ویدئو را درج کرده بود لو داد که فرد درون ویدئو تام کروز نیست.


فضای مجازی عرصه تولید محتوای جعل عمیق


ویدئوی مزبور توسط کاربری در شبکه مجازی تیک‌تاک منتشر شده و سراسر جعلی است. در حال حاضر به نظر می‌رسد هدف جاعل از تولید این دست ویدئوها به وسیله هوش مصنوعی، تقلید از افراد مشهور و چهره‌های سرشناس است.


«دیپ فیک» چه بر سر واقعیت می‌آورد؟/ وقتی فناوری ترسناک می‌شود


قبلاً نیز ویدئوهای جعل عمیق زیادی ساخته شده بود و حتی نرم‌افزارهای آن نیز در فضای مجازی عرضه می‌شود. با این وجود تفاوتی که در این ویدئو نسبت به ویدئوهای پیشین شاهد هستیم این است که محتوای آن کاملاً واقعی به نظر می‌رسد و شاید از این طریق بتوان بسیاری از افراد را فریب داد. در ویدئو جاعل توانسته است از طرز خیره شدن تا قهقهه و حتی حالت حواس‌پرتی را دقیقاً شبیه خودِ تام کروز به تصویر بکشد.


با این وجود چند خطا همچنان وجود داشت، شخصی که در واقع ادای تام کروز را به لطف فناوری جعل عمیق درآورده است به وضوح قدبلندتر از این هنرپیشه 1.7 متری است. همچنین نور به‌خصوص در اطراف چشم بسیار تند است و چشم را می‌زند. با این وجود این ویدئو از زمان توسعه فناوری جعل عمیق، قانع‌کننده‌ترین و شاید باید گفت عمیق‌ترین جعلی بوده که تاکنون به نمایش درآمده است.


وحشت از فناوری


باید پذیرفت اکنون در مرحله‌ای هستیم که جعل عمیق کاملاً ممکن است در صورت عدم کنترل، به صورت افسار گسیخته‌ای فضای مجازی را غبارآلودتر از چیزی که هست کند. بدین منظور شاید لازم باشد هر شخص سرشناس حتماً دارای یک حساب تأییدشده باشد(حتی اگر نمی‌خواهد محتوا تولید کند). در عین حال توسعه‌دهندگان جعل عمیق باید خود را متعهد سازند که در ویدئوی تولیدی واترمارک درج کنند تا همه با نگاهی اجمالی به ساختگی بودن آن پی ببرند.


جعل عمیق چیز جدیدی نیست و اولین بار وقتی هراس‌آفرین شد که از آن در ساخت ویدئوهای جعلی غیراخلاقی هنرپیشگان مورد استفاده قرار گرفت و بحث‌های زیادی را برانگیخت. اما ویدئوها آن قدر غیرواقعی بودند که هر کاربری با کمی دقت می‌توانست پی به جعلی بودن آن ببرد. با این وجود، ویدئوی اخیر مرزهای ساخت ویدئوی جعلی را جابه‌جا کرده است.


Deepfake یا جعل عمیق ترکیبی از اسامی «یادگیری عمیق» و «جعلی» بودن است. در حال حاضر این کار از طریق تعویض صورت یک شخص روی بدن شخص دیگر انجام می‌شود به همین علت است که کروز در ویدیوهای کاربر deeptomcruise قدبلندتر به نظر می‌رسد.


تمرکز روی چهره


با این وجود بخش هوشمندانه و اصلی که مرتبط با چهره است با استفاده از هوش مصنوعی انجام می‌گیرد. بدین منظور فرد جاعل از نرم‌افزار تشخیص چهره و دو مجموعه هوش مصنوعی به نام رمزگذارنده خودکار متغیر(VAE) استفاده می‌کند. یکی از VAEها بر روی تصاویر چهره سوژه قرار می‌گیرد و دیگری می‌تواند در مورد طیف گسترده‌ای از چهره‌ها در شرایط نوری مختلف قرار بگیرد و اصطلاحاً آموزش ببیند. در اینجا برنامه‌نویس با ترکیب هر دو VAE، قادر به شبیه‌سازی سوژه انتخابی خود است که به طور طبیعی در جهان راه می‌رود و حرف می‌زند.


«دیپ فیک» چه بر سر واقعیت می‌آورد؟/ وقتی فناوری ترسناک می‌شود


با این وجود اکثر ویدئوهای جعل‌ عمیقی که تاکنون منتشر شده بود به روشی قدیمی CGI عرضه می‌شده و به سادگی قابل تشخیص بوده است. به عنوان مثال استفاده از این فناوری در ویدئوهای فیلم The Irishman محصول سال 2019 به کارگردانی مارتین اسکورسیزی(Martin Scorsese) انتقادات زیادی را برانگیخت زیرا تماشاگران در تشخیص اینکه چهره‌ها تقریباً انسان نیستند، کار سختی را در پیش نداشتند و در اینجا بود که پدیده دره وهمی رخ داد(Uncanny valley)، فرضیه‌ای که می‌گوید ویژگی‌ها و حرکت‌های یک سوژه مصنوعی برای اغلب بینندگان و تماشاگران دافعه‌برانگیز خواهد بود.


اما ویدئوهایی از این دست نشان می‌دهد که فناوری جعل عمیق چه ظرفیت‌هایی دارد و تاکنون تا چه حد پیشرفت کرده است. به عنوان مثال، همین ویدئو  را با ویدئوی قدیمی‌تری قیاس کنید که در آن بیل هادر(Bill Hader) در حضور دیوید لترمن(David Letterman) به آرامی به تام کروز تبدیل می‌شد.


در حال حاضر جعل عمیق بیشتر در مورد ستارگان سینما و شخصیت‌های سیاسی به کار می‌رود و برای کاربردهای سرگرم‌کننده منتشر شده است اما باید توجه به این حقیقت داشت که اگر بتوان به‌راحتی تصاویر و ویدئوهای افراد را جعل کرد، چه پرسش‌های اخلاقی و حقوقی نگران‌کننده‌ای مطرح خواهد بود. در عین حال هر یک از ما که فضای مجازی را انبار ذخیره تصاویر و ویدئوهای خود کرده‌ایم ممکن است خوراک بعدی جاعلان ویدئو باشیم.


انتهای پیام/4160/پ



انتهای پیام/

ارسال نظر
گوشتیران
قالیشویی ادیب