«دیپ فیک» چه بر سر واقعیت میآورد؟/ وقتی فناوری ترسناک میشود
گروه فناوری خبرگزاری آنا- نوید فرخی: فناوری جعل عمیق(deep fake) به ویدئوهایی جعلی اطلاق میشود که در آن جاعلان با دستکاری محتوای ویدئو تلاش میکنند چیزی را در دهان شما بچپانند! هدف از تولید ویدئوهای جعل عمیق میتوان بسیار متنوع باشد و در بسیاری اوقات نیت تنها سرگرمی و شوخی تا حتی کاربردهای هنری و سینمایی است. اما این فناوری یک وجه ترسناک دارد و آن اینکه اگر روزی نتوانیم حقیقت را از دروغ تشخیص دهیم، چطور به کسی اعتماد خواهیم کرد؟
بهتازگی ویدئویی از تام کروز در شبکه اشتراکگذاری ویدئو تیکتاک پخش شده است که در نگاه اول هر یک از ما را متقاعد میکند که فرد درون ویدئو همان هنرپیشه سری فیلمهای مأموریت غیرممکن است. با این وجود نام حساب کاربری کسی که ویدئو را درج کرده بود لو داد که فرد درون ویدئو تام کروز نیست.
فضای مجازی عرصه تولید محتوای جعل عمیق
ویدئوی مزبور توسط کاربری در شبکه مجازی تیکتاک منتشر شده و سراسر جعلی است. در حال حاضر به نظر میرسد هدف جاعل از تولید این دست ویدئوها به وسیله هوش مصنوعی، تقلید از افراد مشهور و چهرههای سرشناس است.
قبلاً نیز ویدئوهای جعل عمیق زیادی ساخته شده بود و حتی نرمافزارهای آن نیز در فضای مجازی عرضه میشود. با این وجود تفاوتی که در این ویدئو نسبت به ویدئوهای پیشین شاهد هستیم این است که محتوای آن کاملاً واقعی به نظر میرسد و شاید از این طریق بتوان بسیاری از افراد را فریب داد. در ویدئو جاعل توانسته است از طرز خیره شدن تا قهقهه و حتی حالت حواسپرتی را دقیقاً شبیه خودِ تام کروز به تصویر بکشد.
با این وجود چند خطا همچنان وجود داشت، شخصی که در واقع ادای تام کروز را به لطف فناوری جعل عمیق درآورده است به وضوح قدبلندتر از این هنرپیشه 1.7 متری است. همچنین نور بهخصوص در اطراف چشم بسیار تند است و چشم را میزند. با این وجود این ویدئو از زمان توسعه فناوری جعل عمیق، قانعکنندهترین و شاید باید گفت عمیقترین جعلی بوده که تاکنون به نمایش درآمده است.
وحشت از فناوری
باید پذیرفت اکنون در مرحلهای هستیم که جعل عمیق کاملاً ممکن است در صورت عدم کنترل، به صورت افسار گسیختهای فضای مجازی را غبارآلودتر از چیزی که هست کند. بدین منظور شاید لازم باشد هر شخص سرشناس حتماً دارای یک حساب تأییدشده باشد(حتی اگر نمیخواهد محتوا تولید کند). در عین حال توسعهدهندگان جعل عمیق باید خود را متعهد سازند که در ویدئوی تولیدی واترمارک درج کنند تا همه با نگاهی اجمالی به ساختگی بودن آن پی ببرند.
جعل عمیق چیز جدیدی نیست و اولین بار وقتی هراسآفرین شد که از آن در ساخت ویدئوهای جعلی غیراخلاقی هنرپیشگان مورد استفاده قرار گرفت و بحثهای زیادی را برانگیخت. اما ویدئوها آن قدر غیرواقعی بودند که هر کاربری با کمی دقت میتوانست پی به جعلی بودن آن ببرد. با این وجود، ویدئوی اخیر مرزهای ساخت ویدئوی جعلی را جابهجا کرده است.
Deepfake یا جعل عمیق ترکیبی از اسامی «یادگیری عمیق» و «جعلی» بودن است. در حال حاضر این کار از طریق تعویض صورت یک شخص روی بدن شخص دیگر انجام میشود به همین علت است که کروز در ویدیوهای کاربر deeptomcruise قدبلندتر به نظر میرسد.
تمرکز روی چهره
با این وجود بخش هوشمندانه و اصلی که مرتبط با چهره است با استفاده از هوش مصنوعی انجام میگیرد. بدین منظور فرد جاعل از نرمافزار تشخیص چهره و دو مجموعه هوش مصنوعی به نام رمزگذارنده خودکار متغیر(VAE) استفاده میکند. یکی از VAEها بر روی تصاویر چهره سوژه قرار میگیرد و دیگری میتواند در مورد طیف گستردهای از چهرهها در شرایط نوری مختلف قرار بگیرد و اصطلاحاً آموزش ببیند. در اینجا برنامهنویس با ترکیب هر دو VAE، قادر به شبیهسازی سوژه انتخابی خود است که به طور طبیعی در جهان راه میرود و حرف میزند.
با این وجود اکثر ویدئوهای جعل عمیقی که تاکنون منتشر شده بود به روشی قدیمی CGI عرضه میشده و به سادگی قابل تشخیص بوده است. به عنوان مثال استفاده از این فناوری در ویدئوهای فیلم The Irishman محصول سال 2019 به کارگردانی مارتین اسکورسیزی(Martin Scorsese) انتقادات زیادی را برانگیخت زیرا تماشاگران در تشخیص اینکه چهرهها تقریباً انسان نیستند، کار سختی را در پیش نداشتند و در اینجا بود که پدیده دره وهمی رخ داد(Uncanny valley)، فرضیهای که میگوید ویژگیها و حرکتهای یک سوژه مصنوعی برای اغلب بینندگان و تماشاگران دافعهبرانگیز خواهد بود.
اما ویدئوهایی از این دست نشان میدهد که فناوری جعل عمیق چه ظرفیتهایی دارد و تاکنون تا چه حد پیشرفت کرده است. به عنوان مثال، همین ویدئو را با ویدئوی قدیمیتری قیاس کنید که در آن بیل هادر(Bill Hader) در حضور دیوید لترمن(David Letterman) به آرامی به تام کروز تبدیل میشد.
در حال حاضر جعل عمیق بیشتر در مورد ستارگان سینما و شخصیتهای سیاسی به کار میرود و برای کاربردهای سرگرمکننده منتشر شده است اما باید توجه به این حقیقت داشت که اگر بتوان بهراحتی تصاویر و ویدئوهای افراد را جعل کرد، چه پرسشهای اخلاقی و حقوقی نگرانکنندهای مطرح خواهد بود. در عین حال هر یک از ما که فضای مجازی را انبار ذخیره تصاویر و ویدئوهای خود کردهایم ممکن است خوراک بعدی جاعلان ویدئو باشیم.
انتهای پیام/4160/پ
انتهای پیام/