چه کسانی قربانی دیپفیک میشوند؟
به گزارش گروه رسانههای دیگر خبرگزاری آنا، ما در دنیایی زندگی میکنیم که به کمک نرمافزارها و فناوری میتوان کارها و فعالیتهای بسیاری انجام داد. فعالیتهایی فراتر از آنچه قابل تصور یا حتی قابل فکر کردن باشد. یا بگذارید به سادهترین شکل ممکن بنویسیم که اگر در گذشته تنها ممکن بود عکسها و فیلمها توسط نرمافزارهای مختلف گرافیکی دستکاری شود و چیزی خلاف واقعیت را به بیننده نشان دهد، امروز با فناوریهای عجیبتری روبهرو هستیم که میتواند چهره و صدای شما را به طرز شگفتآوری تقلید و در قالب ویدئوهای غیرواقعی منتشر کند. اتفاقی که گاه ممکن است به جای «عجیب» بودن، «خطرناک» باشد.
هیچچیز واقعی نیست
تصور کنید در حال دیدن کلیپی هستید که در آن دو سیاستمدار روبهروی یکدیگر نشستهاند و در حال مذاکرهاند. همه چیز طبیعی است؛ دیالوگها، محیط و صدای افراد. هرچیزی که میبینید واقعی است و تصمیم میگیرید آن را با یکی از دوستان خود به اشتراک بگذارید؛ دوست شما آن را برای افراد دیگری میفرستد و این چرخه ادامه پیدا میکند و همینطور ویدئو دستبهدست میشود. پس از مدتی متوجه میشوید هر دو فرد حاضر در جلسه در واقعیت آنجا نبودهاند و صورت آنها روی صورت فرد دیگری گذاشته شده است و این ویدئو اصلا واقعی نیست، ولی بارها در میان مردم «به اشتباه» چرخیده است.
دیپفیک
تاکنون بارها و در گزارشهای متعدد از هوش مصنوعی نوشته بودیم. فناوریای که هم میتواند در جهت رفاه حال انسان تنهای امروز مفید باشد و هم مضراتی غیرقابلجبران به بشر برساند و این اتفاق تنها در گرو این است که چگونه از آن استفاده شود. اما در خصوص گزارش امروز که یکی از محصولات هوش مصنوعی است باید گفت: دیپفیک نام یک تکنیک نرمافزاری مبتنی بر هوش مصنوعی است که در محتوای صوتی و تصویری دست میبرد، آن را به شکل دلخواه تغییر میدهد و در نهایت محتوایی به دست میآید که کاملا متفاوت از حقیقت است.
دیپفیک، ترکیب دو کلمه یادگیری عمیق (Deep Leaning) و جعل (Fake) است که بهخوبی عملکرد این تکنیک را تشریح میکند. در واقع این فناوری برای ایجاد محتوای صوتی و تصویری متقاعدکننده و درعینحال غیرواقعی ساخته شده که بهسرعت در حال رشد و بهبود است و انتظار میرود روزبهروز استفاده از آن گستردهتر شود.
چرا خطرناک است؟
شاید بگویید تا پیش از این هم اپلیکیشنها و نرمافزارهایی بودند که به طرق مختلف قادر به چنین کاری بودند. نمونه ملموس آن فتوشاپ است که سالها کاری مشابه را از طریق جعل کردن تصاویر انجام میداد؛ اما چیزی که اکنون با آن روبهرو هستیم، مبحثی کاملا متفاوت و نگرانکنندهتر از جعل عکس یک نفر در فتوشاپ است. چرا از عبارت نگرانکننده استفاده میکنیم؟ چون در دیپفیک تلفیق تصاویر و فیلمهای موجود با منبع مورد نظر ویدئویی به نحوی صورت میگیرد که انگار ترکیب هر دو تصویر یا هر دو فیلم یکی است و در یک صحنه رخ میدهد.
این ترکیب پیچیده بهعنوان مثال میتواند فرد یا افراد مختلف را به گفتن جملات و یا در حال انجام کارهایی نشان دهد که هرگز در واقعیت رخ ندادهاند. فیلمهای تولیدشده از تکنیک دیپفیک میتوانند به این شکل ایجاد شوند که حضور شخصی را در فیلمها و مکانهایی نمایش دهند و این در حالی است که روح فرد هم از این اتفاق خبر ندارد!
قربانیان چه کسانی هستند؟
فناوری دیپفیک یا همان جعل عمیق در طول ظهور و پیدایش خود، نهتنها جامعه بازیگران و سلبریتیها را هدف گرفته بلکه به حریم چهرههای بزرگ سیاستمدار نیز تجاوز کرده است. یعنی از آنجا که این فناوری بر مبنای هوش مصنوعی است و نیازی به دخالت مستقیم انسان ندارد، هر فردی میتواند از طریق دیپفیک، ویدئوی جعلی و درعینحال واقعگرایانه تولید کند و این مساله نشان میدهد هر فردی میتواند قربانی آن باشد و نهفقط سیاستمداران و چهرههای معروف.
در نتیجه متاسفانه افراد با اهداف خصمانه میتوانند فیلمهای غیراخلاقی تهیه و تولید کنند و زندگی شخصی را بهراحتی به خطر بیندازند. گفتنی است این فناوری سبب کسب درآمد نیز شده است و افراد بسیاری در انجمنهای اینترنتی مختلفی وجود دارند که حاضرند برای ساخت یک ویدئوی دیپفیک و غیراخلاقی از فرد موردنظرشان پول زیادی پرداخت کنند.
نمونه عینی که بهخاطر دارید
عینیترین نمونه دیپفیک را میتوان ویدئویی از باراک اوباما، رئیسجمهوری اسبق آمریکا دانست که در آن ویدئو اوباما، روبه دوربین مینشیند و جانشین خود یعنی دونالد ترامپ را فردی کاملا غیرمنطقی و حقیر خطاب میکند. ویدئویی که به سرعت فراگیر شد و واکنشهای بسیاری در سراسر جهان داشت.
اما او اوباما نبود. دیپفیک بود و پس از این گفتگو و واکنشهای آن شخص اوباما از پیشرفت دیپفیک ابراز نگرانی کرد و گفت: «افراد قادر به تکثیر من و تغییر سخنهایم هستند و این کار بهاندازهای دقیق انجام میشود که گویی نسخه تکثیر شده، بهواقع من هستم و آن صحبتها از زبان من گفته میشود؛ درحالیکه همهچیز کاملا ساختگی است. اگر به مرحلهای برسیم که نتوان مرز بین حقیقت و دروغ را تشخیص داد، پایههای دموکراسی ما که برمبنای حقیقت بنا شده به لرزه خواهد افتاد.»
همیشه هم بد نیست
بسیاری از دیپفیکها سرگرمکننده و نیز مفید هستند. دیپفیکهای صدا میتوانند وقتی شخصی از دست رفته، صدای او را برگرداند. فیلمهای دیپفیک میتوانند گالریها و موزهها را زنده کنند. موزه «سالوادور دالی» دیپفیکی از این نقاش سوررئالیست دارد که خود را معرفی و حتی با بازدیدکنندگان عکس سلفی هم میگیرد. در صنعت سرگرمی میتوان از این فناوری در بهبود دوبله فیلمها یا حتی زنده کردن بازیگران از دنیا رفته استفاده کرد. برای مثال جیمز دین فقید قرار است در فیلمی به نام Finding Jack که مربوط به جنگ ویتنام است، بازی کند. با این حال، اما گویا استفاده منفی از آن در جهان امروز بیشتر شده است.
جنگهای تحریف شده
۱- در گابن، پس از انتشار ویدئویی ظاهرا جعلی از رهبر آنها علی بونگو که اعلام میکرد رئیسجمهوری آنها دیگر از سلامت کافی برای اداره کشور برخوردار نیست، ارتش کودتایی نافرجام را آغاز کرد.
۲- در بلژیک، یک گروه سیاسی دیپفیکی از نخستوزیر بلژیک پخش کرد که در آن او طی یک سخنرانی شیوع ویروس کرونا را به آسیبهای زیستمحیطی ربط داد و خواستار اقدام سریع در مورد تغییرات اقلیمی شد.
مردم نگران شدهاند
چرا نیازمند قوانین جدید در فضای مجازی هستیم؟ چون مردم بابت دیپفیکها و اپلیکیشنهایی با محوریتهایی اینچنینی نگران شدهاند. برای مثال اپلیکیشن چینی Zao که چندی پیش بهعنوان یکی از پرسروصداترین اپها شناخته میشد، قادر است در کسری از ثانیه با دریافت چند عکس از کاربر، چهره او را به سلبریتی مورد علاقهاش تبدیل کند، اما پس از چندی کاربران بسیاری به سرعت موجی از نارضایتی خود را درخصوص نقض حریم خصوصی اعلام کردند و حال این نرمافزار، سیاستهای خود را بعد از واکنش جدی و بازخوردهایی که از سوی کاربران دریافت کرده، تغییر داده است! ماجرایی که رویترز گزارش مفصلی از آن ارائه داد و بارها به این اپلیکیشن بابت نقض حریم خصوصی کاربرانش تاخت. آخرین نمونه آن اپلیکیشن گرادینت است که در حال حاضر همهگیر شده و بهشدت امنیت و حفظ حریم خصوصی استفادهکنندگان از آن زیر سوال است.
برای مقابله چه کنیم؟
شرکتهای فناوری در حال کار کردن روی سیستمهای ردیابی هستند که هر زمان که ویدئوی تقلبی ظاهر شد آن را تشخیص دهند. روش دیگر تمرکز روی منشأ و منبع اصلی رسانه است. واترمارکهای دیجیتالی هم بدون ایراد نیستند، اما یک منبع آنلاین بلاکچین میتواند سابقهای از نسخه اصلی فیلمها در خود داشته باشد تا بتوان به منبع و منشأ آنها برای تشخیص نسخه تقلبی دسترسی داشت. بن لام، مدیرعامل یکی از شرکتهای هوش مصنوعی در اینباره گفت: «هیچ راهحل مشخصی فعلا برای حل این تهدید رو به رشد وجود ندارد. با این حال تعداد و راهحل ایدههای جدید در دنیای هوش مصنوعی برای مقابله با این تهدید در حال ظهور است، اما هنوز راهحل اول انسانها هستند!»
چالشهای پیشرو
۱) دیپفیک میتواند واقعیات جامعه را تحریف کرده و اطلاعات نادرست و غیرواقعی به افراد جامعه ارائه کند.
۲) حریم خصوصی افراد بهراحتی مورد هدف قرار گرفته و دموکراسی و امنیت ملی یک کشور نیز به خطر میافتد.
۳) در آیندهای نهچندان دور و با گسترش فناوری دیپفیک، عملا تشخیص بین مرز حقیقت و دروغ غیرممکن خواهد شد.
۴) با گسترش دیپفیک، میزان اعتماد به رسانهها کمتر میشود، چون مرز واقعیت و تحریف باریکتر از مو میشود.
۵) دیپفیک غیرقانونی نیست، اما تولیدکنندگان و توزیعکنندگان میتوانند بهراحتی با آن از قانون سرپیچی کنند. یک دیپفیک بسته به محتوایی که دارد، میتواند کپیرایت یا قانون حفاظت از محتوا را نقض کند و اگر قربانی را مورد تمسخر قرار دهد، میتواند افترا آمیز باشد.
منبع: روزنامه جام جم
انتهای پیام/
انتهای پیام/