صفحه نخست

آناتک

آنامدیا

دانشگاه

فرهنگ‌

علم

سیاست و جهان

اقتصاد

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

همدان

هرمزگان

یزد

پخش زنده

۱۳:۵۸ | ۲۵ / ۱۱ /۱۴۰۴
| |
یک پژوهشگر حوزه فرهنگ و رسانه:

یک تأخیر و مکث کوتاه، احتمال بازنشر فیک‌نیوز را کاهش می‌دهد

یکی از قدرتمند‌ترین ابزارهای مقابله با فیک‌نیوز، یک تاخیر کوتاه است. به گفته صالح اصغری، پژوهشگر حوزه فرهنگ و رسانه، این تأخیر کوتاه شناختی می‌تواند احتمال بازنشر این نوع اخبار را به‌طور معناداری کاهش دهد.
کد خبر : 1030369

پیشرفت تکنولوژی به تسهیل اکثر فعالیت‌ها کمک کرده است، اما عده‌ای سواستفاده‌گر با به کارگیری این تکنولوژی برای اهداف خاص خود اقدام به تولید فیک‌نیوز می‌کنند. صالح اصغری، پژوهشگر حوزه فرهنگ و رسانه با تاکید بر ضرورت راه‌های مقابله با فیک‌نیوز، نحوه تشخیص این نوع اخبار را در گفت‌و‌گو با خبرنگار آناتک بررسی می‌کند.

نقش هوش مصنوعی در ساخت فیک‌نیوز

این پژوهشگر درباره تأثیر هوش مصنوعی بر انتشار فیک‌نیوز‌ها می‌گوید: «پژوهش‌ها نشان می‌دهد که هوش مصنوعی، به‌ویژه مدل‌های مولد (Generative AI)، باعث افزایش کمی و کیفی فیک‌نیوز شده است. هوش مصنوعی امکان ساخت متن‌های خبری شبه‌واقعی به‌صورت انبوه را فراهم کرده است. تولید تصاویر و ویدئو‌های جعلی با دیپ‌فیک و ساخت پیام‌های فریبنده برای گروه‌های خاص به‌صورت هدفمند و شخصی‌سازی‌شده از جمله این امکانات است. این روند موجب کاهش هزینه تولید فیک‌نیوز شده و عملیات تأثیرگذاری شناختی را وارد مرحله‌ای جدید و پیچیده‌تر کرده است.»

چگونه ویدئوهای جعلی را تشخیص دهیم

اصغری در ادامه درباره نحوه تشخیص ویدئو‌هایی که با هوش مصنوعی ساخته شده‌اند، می‌گوید: «تشخیص ویدئو‌های تولیدشده با هوش مصنوعی یا دیپ‌فیک کار ساده‌ای نیست، اما نشانه‌هایی وجود دارد که می‌توان به آنها توجه کرد. ناهماهنگی حرکات چهره، مانند پلک‌زدن غیرطبیعی یا عدم هماهنگی لب و صدا، یکی از این نشانه‌ها است. کیفیت غیرعادی تصویر، از جمله تاری در اطراف صورت یا نورپردازی ناسازگار با محیط نیز می‌تواند به‌عنوان علامت هشداردهنده در نظر گرفته شود.»

اصغری: تشخیص ویدئو‌های تولیدشده با هوش مصنوعی یا دیپ‌فیک کار ساده‌ای نیست، اما نشانه‌هایی وجود دارد که می‌توان به آنها توجه کرد. ناهماهنگی حرکات چهره، مانند پلک‌زدن غیرطبیعی یا عدم هماهنگی لب و صدا، یکی از این نشانه‌ها است

وی می‌افزاید: «رفتار یا گفتار غیرمعمول فرد، مانند بیان جملاتی برخلاف سابقه شخص یا لحن و لهجه ناهماهنگ، از دیگر نشانه‌های قابل توجه است. بررسی منبع اولیه و انتشاردهنده اهمیت زیادی دارد و باید مشخص شود که آیا ویدئو ابتدا در یک رسانه معتبر منتشر شده است یا خیر. علاوه بر این، استفاده از ابزار‌های تشخیص دیپ‌فیک که مبتنی بر هوش مصنوعی است، می‌تواند در شناسایی محتوای جعلی مؤثر باشد.»

مسئولیت مخاطب هنگام رویارویی با فیک‌نیوزها

او درباره مسئولیت مخاطب هنگام رویارویی با فیک‌نیوز‌ها نیز تأکید می‌کند: «مهم‌ترین اقدامات پیشنهادی هنگام رویارویی با فیک‌نیوز شامل مکث و تأمل قبل از بازنشر است، زیرا واکنش سریع می‌تواند به گسترش خبر جعلی کمک کند. راستی‌آزمایی خبر از چند منبع معتبر، گزارش محتوا در پلتفرم‌ها، اصلاح اطلاعات غلط در صورت انتشار ناخواسته و گفت‌وگوی محترمانه و مبتنی بر شواهد با دیگران از دیگر اقدامات ضروری در این زمینه است. مطالعات نشان می‌دهد حتی یک تأخیر کوتاه شناختی می‌تواند احتمال بازنشر فیک‌نیوز را به‌طور معناداری کاهش دهد.»

صالح اصغری درباره تأثیر سواد رسانه‌ای و اهمیت تفکر انتقادی نیز می‌گوید: «سواد رسانه‌ای و تفکر انتقادی باعث می‌شود مخاطب از حالت مصرف‌کننده منفعل خارج شود و به کنشگر آگاه رسانه‌ای تبدیل شود. این مهارت‌ها کمک می‌کند تا ساختار قدرت و منافع پشت پیام‌ها شناسایی، هیجانات کنترل و تحلیل عقلانی تقویت شود. همچنین با انجام این اقدامات مخاطب قربانی عملیات روانی و جنگ شناختی نخواهد شد. با انجام این کار‌ها مسئولیت اجتماعی در بازنشر اطلاعات شکل خواهد گرفت. پژوهش‌ها نشان می‌دهد آموزش سواد رسانه‌ای، تاب‌آوری شناختی جامعه را در برابر فیک‌نیوز افزایش می‌دهد.»

انتهای پیام/

ارسال نظر
captcha