هوش مصنوعی؛ شمشیر دولبه/ وقتی فناوری به کمک تشخیص اخبار جعلی میآید
خبرگزاری علم و فناوری آنا؛ اخبار جعلی در حال حاضر بیاعتمادی نسبت به رسانهها، سیاستها و نهادهای مستقر در سراسر جهان را بیشتر کرده است. تکنولوژیهای جدیدی همچون هوش مصنوعی و ابزارهای آن حتی میتواند این اوضاع را بیش از پیش بدتر کند، اما با همه خطراتی که ممکن است با خود به همراه داشته باشد، در عین حال میتواند برای مبارزه با اطلاعات غلط و نادرست هم استفاده شود. این فناوریها میتوانند عصر جدیدی را در شناسایی اخبار جعلی و اطلاعات نادرست آغاز کنند.
در این راستا و با توجه به نیازی که در این زمینه حس میشود، بسیاری از محققان و کارشناسان در حال ساخت ابزارهای نرمافزاری برای کمک به تشخیص و مبارزه با اخبار جعلی و نادرست هستند.
امروزه، تصاویر و ویدئوها را با فتوشاپ ساده و یا تکنیکهای پیچیدهتری مانند جعل و هک کردن میتوان بهراحتی دستکاری کرد. از این رو باید از سیستمهایی بهره گرفت که بتوانند این تغییرات را مهندسی معکوس کنند و از الگوریتمهایی برای کمک به تشخیص محتوای دستکاری شده استفاده کنند.
وقتی این ابزارها به فرم محتوا نگاه میکنند، بررسی نمیکنند که آیا خود محتوا ادعاهای نادرستی مطرح میکند یا خیر. آنها داستانهایی را لینک میکنند که توسط حقیقتیابهای انسانی نادرست بودن آنها ثابت شده است و به دنبال صفحات آنلاین یا پستهای رسانههای اجتماعی با کلمات و ادعاهای مشابه میگردند.
به گفته «فرانچسکو نوچی»، مدیر تحقیقات اپلیکیشن «فاندانگو» (Fandango) در ایتالیا «هوش مصنوعی مشکلات بسیاری را با خود به همراه دارد؛ اما گاهی اوقات میتواند راه حل هم باشد. شما میتوانید از هوش مصنوعی به روشهای غیر اخلاقی برای مثال ساخت و پخش اخبار جعلی استفاده کنید، اما میتوانید از آن برای مبارزه با اطلاعات غلط نیز استفاده کنید.»
موانع زبانی؛ چالش هوش مصنوعی برای تشخیص اخبار جعلی
«مایکل برونشتاین»، استاد دانشگاه لوگانو در سوئیس و کالج سلطنتی لندن در بریتانیا معتقد است که «با این حال تشخیص اخبار جعلی نهتنها ممکن است مسئله پیدا کردن ادعاهای نادرست باشد، بلکه میتواند تجزیه و تحلیل مقادیر زیادی از الگوهای اشتراکگذاری رسانههای اجتماعی باشد.»
وی رهبری پروژهای به نام «گود نیوز» (GoodNews) را برعهده دارد که از هوش مصنوعی برای اتخاذ رویکردی غیرمعمول برای تشخیص اخبار جعلی استفاده میکند. برونشتاین در این باره میگوید: «بیشتر رویکردهای موجود به محتوا نگاه میکنند و ویژگیهای معنایی را که مشخصه اخبار جعلی هستند، تحلیل میکنند؛ که تا حدی جواب میدهد، اما مشکلات دیگری را هم به دنبال دارد. برای مثال، موانع زبانی وجود دارد، پلتفرمهایی مانند واتساپ به شما اجازه دسترسی به محتوا را نمیدهند، زیرا رمزگذاری شده و در بسیاری از موارد اخبار جعلی ممکن است یک تصویر باشد که تحلیل آن با استفاده از تکنیکهایی مانند پردازش زبان طبیعی سختتر است.»
به گفته وی «مطالعات گذشته نشان میدهد که داستانهای جعلی به روش متفاوتی نسبت به داستانهای واقعی به اشتراک گذاشته میشوند. "گود نیوز" با تشخیص الگوهای این چنینی، امتیاز اعتبار را به یک آیتم خبری اختصاص میدهد.»
این گروه تحقیقاتی اولین نمونه خود را ساخته است که از یادگیری ماشینی مبتنی بر گراف استفاده میکند. این نمونه اولیه براساس دادههای توییتر آموزش داده میشود که در آن محققان داستانهایی را ردیابی میکنند که توسط روزنامهنگاران و خبرنگاران بررسی شده و جعلی بودن آن تأیید میشود. آنها به این ترتیب الگوریتم هوش مصنوعی را با نشان دادن اینکه کدام داستانها جعلی هستند و کدام درست هستند، آموزش میدهند.
آنها امیدوار هستند این محصول را تا پایان سال عرضه کنند. آنها داشتن مشتریانی از شرکتهای بزرگ رسانهای همانند فیسبوک، توییتر و همچنین کاربران شخصی را پیشبینی میکنند. به گفته برونشتاین «چشمانداز بزرگتر این است که ما میخواهیم به یک موسسه رتبهبندی اعتبار برای اخبار تبدیل شویم، به همان شیوهای که برخی شرکتها امتیاز اعتبار مصرفکنندگان خود را رتبهبندی میکنند.»
سادهلوحانه است که انتظار داشته باشیم فناوری مشکل اخبار جعلی را حل کند!
نوچی تاکید میکند که مفهوم اخبار جعلی مورد بحث است و داستانها اغلب کاملا درست نیستند، اما به طور قطعی هم غلط نیستند. اخبار جعلی یک پرسش ریاضی از الگوریتمها و دادهها نیست، بلکه یک پرسش بسیار فلسفی از نحوه برخورد ما با حقیقت است. با این وجود فناوری میتواند به بهبود شفافیت در مورد ادعاهای جعلی و اطلاعات غلط کمک کند.
اما پروفسور برونشتاین اعتقاد دیگری دارد. وی در این باره میگوید: «سادهلوحانه است که انتظار داشته باشیم فناوری مشکل اخبار جعلی را حل کند. موضوع فقط تشخیص اخبار جعلی نیست. مشکل اعتماد و فقدان تفکر انتقادی است. مردم اعتماد خود را به رسانهها و مؤسسات سنتی از دست میدهند و این چیزی نیست که تنها از طریق فناوری بتوان آن را کاهش داد. این کار نیاز به تلاش همه ذینفعان دارد.»
از طرفی؛ محققان دانشگاه زوریخ در تلاش هستند تا با استفاده از هوش ماشینی و یادگیری عمیق، سوگیری در پوشش خبری را شناسایی کنند. این پروژه بخشی از ابتکار جامعه دیجیتال جدید دانشگاه است، شبکهای میان رشتهای از دانشگاهیان و دانشمندان که در حال مطالعه چگونگی تاثیر دیجیتالی شدن جامعه بر ارتباطات، سلامت، کار، جامعه و دموکراسی هستند.
در زوریخ، پروژه اخبار جعلی توسط «کارستن دونا» استادیار رفتار سیاسی و رسانههای دیجیتال رهبری میشود. تلاش تیم این استادیار برای شناسایی و افشای اخبار مغرضانه، یکی از اولین تلاشهای جدی برای استفاده از هوش مصنوعی برای مبارزه با انتشار اطلاعات غلط و گمراه کننده در اینترنت است.
به گفته دونا «طبقهبندی اخبار اهمیت دارد. بهویژه مهم است که مردم بتوانند اطلاعات مغرضانه، نادرست و اغلب احساسی منتشر شده تحت پوشش گزارش خبری را شناسایی کنند. برای مثال دو جمله (بازرسان تسلیحاتی سازمان ملل اعلام کردند که دو هواپیمای شناسایی «یو-۲» (U-۲) را به دلایل امنیتی از عراق خارج کردهاند.) و (جنگندههای عراقی دو هواپیمای تجسسی آمریکایی یو-۲ را تهدید کردند و آنها را مجبور به لغو ماموریت و بازگشت کردند.) در جمله اول، کلمات حذفشده شناسایی و ایمنی خنثی هستند. با این حال، در جمله دوم، کلمات تهدید، نظارت و اجبار لحن تهدیدآمیزتری دارند. هر دو ممکن است از نظر فنی درست باشند، اما معانی کلمات میتواند برداشتهای متفاوتی به دنبال داشته باشد، بنابراین چارچوببندی آنها هم مختلف است.»
دونا معتقد است که «هدف نهایی این پروژه ایجاد یک وبسایت جمعآوری اخبار است که از یک ابزار هوش مصنوعی برای شناسایی سوگیری و فریب در اخبار روزانه استفاده میکند، سپس داستانها به شیوهای خنثی دستهبندی و ارائه شوند تا خوانندگان بتوانند بهراحتی آنها را درک کنند و به آنها اعتماد کنند. با این حال؛ این پروژه هنوز در مراحل اولیه خود به سر میبرد و مشکلات آن بسیار زیاد است. ابزار هوش مصنوعی باید یاد بگیرد که چگونه سوگیری را تشخیص دهد، به این معنی که باید بتواند تفاوتها را در زبان و زمینهای تجزیه کند که حتی خوانندگان انسانی دقیق نیز در تشخیص آن مشکل دارند.»
لزوم ایجاد یک مجموعه داده بزرگ از مثالهای زبانی برای ابزارهای هوش مصنوعی
در هر حال؛ برنامهنویسی یک کامپیوتر برای شناسایی تعصب انسانی در نوشتن به معنای آموزش نحوه خواندن آن است. اما خود خواندن یک فرآیند ذهنی پیچیده است که دانشمندان به طور کامل آن را درک نمیکنند و هوش مصنوعی تنها به اندازه برنامهنویسی و دادههایی که از آن پشتیبانی میکند، هوشمند است.
با این وجود؛ تیم دونا در تلاش است تا با تقلید از فرایندهای ناخودآگاهی که انسانها برای ارزیابی صحت اطلاعاتی که جذب میکنند، به هوش مصنوعی خود آموزش دهد تا سوگیری را تشخیص دهد. البته انسانها هم گاهی در تشخیص سوگیری خیلی خوب نیستند و از هوش مصنوعی نمیتوان انتظار بالاتری داشت. به هر حال حقیقت دست کم تا حدی به چشم میآید.
دشواری در حل مشکل اخبار جعلی با این درک آغاز میشود که فرآیند جمعآوری، گزارش، نوشتن، ویرایش و انتشار اخبار، خود ناقص است. برای مثال، سازمانهای خبری، تبلیغکنندگان و مخاطبان جامعه هدفی دارند و این عوامل در انتخاب و ارائه داستانهای آنها تاثیر میگذارند. همچنین، هر جملهای که یک نویسنده تولید میکند، مجموعهای از قضاوتها درباره آن به راه میافتد و هر برداشتی از آن، بازتابی از آموزش، تجربه، فرهنگ و ... آن جامعه دارد. همچنین دیدگاه خواننده هم باید در نظر گرفته شود.
به گفته دونا «یکی از اولین چالشهایی که با آن مواجه هستند، ایجاد یک مجموعه داده به اندازه کافی بزرگ از مثالهای زبانی برای یک ابزار هوش مصنوعی است تا بهعنوان چارچوبی برای تحلیل مورد استفاده قرار گیرد. تلاشهای گذشته برای ایجاد فرهنگ لغت کلمات و عبارات بهخوبی جواب نداده است. در عوض برای توسعه یک رویکرد یادگیری عمیق و کاملتر در تلاش هستیم که به دادههای حاشیهنویسی شده زیادی نیاز دارد.»
در یک پروژه آزمایشی نیاز است در ابتدا بر روی تجزیه و تحلیل احساسات تمرکز کرد تا نشان دهد که چگونه میتوان از این رویکرد برای سنجش میزان چارچوببندی ایدهها در یک داستان خبری به عنوان مثبت یا منفی استفاده کرد. چالش بزرگ بعدی میتواند گسترش منطق تجزیه و تحلیل احساسات برای ساخت یک پایگاه داده حاشیهنویسی شده برای به کارگیری تکنیکهای مدل سازی باشد که چگونگی درک معانی و نیت کلمات پیچیدهتر توسط مغز انسان را تقلید میکند.
برای این مهم شاید لازم باشد یک گروه تحقیقاتی متشکل از صدها کدکننده باید هزاران جمله را تجزیهوتحلیل و امتیازدهی کنند تا مجموعه دادههای معیار جدیدی برای تشخیص سوگیری رسانهای ایجاد شود. زمانی که ابزار هوش مصنوعی مثالهای کافی برای شناسایی مسائل سوگیری در سطح انتخاب کلمه و ساختار جمله را یاد بگیرد، میتواند تحلیل خود را به متن بزرگتر، پاراگرافها و کل داستانها گسترش دهد. با این اوصاف؛ به منظور تجزیه و تحلیل یک داستان خبری برای سوگیری و مقایسه آن با داستانهای دیگر در مورد یک موضوع، ابزار هوش مصنوعی باید بتواند تشخیص دهد که موضوعات اصلی و مفاهیم مورد بحث در چندین داستان به هم مرتبط هستند.
به اعتقاد دونا «ما درک میکنیم که این کار باید به صورت گام به گام انجام شود و گام بعدی افزایش قابلیتهای ابزار هوش مصنوعی برای شناسایی اطلاعات غلط و گمراهکننده یا اخبار جعلی است. تعیین صحت اخبار بسیار دشوار خواهد بود. چارچوببندی اخبار، خود یک سوگیری ذاتی ایجاد میکند.»
تبدیل تهدیدهای هوش مصنوعی به فرصتهای طلایی
با این وجود؛ امیدوار هستیم با سرعت و شتابی که هوش مصنوعی در توسعه تکنولوژیهای روز دنیا دارد تا سال آینده وبسایتی برای تشخیص اخبار جعلی و نادرست ایجاد شود. برای شروع، مجموعه دادههای مورد نیاز برای مدلسازی باید به طور قابل توجهی افزایش داده شوند، همچنین یک نمونه گسترده از اخبار در سراسر حوزهها و منابع کدگذاری شده و کیفیت کدگذاری که توسط انسانها انجام میشود، باید به طور مداوم بالا بماند.
البته هیچ تضمینی وجود ندارد که مردم به قضاوتهای هوش مصنوعی اعتماد کنند. اما همه کشورهای پیشرفته دنیا با توجه به اهمیت هوش مصنوعی و ابزارهای آن، با دانستن همه خطراتی که میتواند به دنبال داشته باشد به این سمت در حرکت هستند و با برنامهریزی و قانون گذاریها اقدامات پیشگیرانهای را لحاظ میکنند. برای عقب نماندن از این مسیر باید همرنگ جماعت شد و هر تهدیدی را با فراهم کردن تمهیدات لازم به فرصتهایی طلایی تبدیل کرد و از آن برای مسیر تحول و توسعه بیشتر کشور سود برد.
انتهای پیام/