شبکههای هوش مصنوعی میتوانند ادراک سیاسی و افکار عمومی را تغییر دهند
در سالهای اخیر، مجموعهای از هشدارهای علمی و رسانهای درباره ظهور تهدیدی نوین برای نظامهای دموکراتیک مطرح شده است؛ تهدیدی که نه از طریق خشونت خیابانی یا دستکاری مستقیم آرا، بلکه از طریق شبکههای گستردهای از عاملهای هوش مصنوعی شکل میگیرد که میتوانند در مقیاسی بیسابقه وارد فضای مجازی شوند و افکار عمومی را بدون جلب توجه تغییر دهند. این عاملها که در قالب پرسوناهای (AI persona) بسیار واقعی ظاهر میشوند، قادرند در بحثهای سیاسی شرکت کنند، لحن و رفتار انسانها را تقلید کنند و با هماهنگی درونی، روایتهای خاصی را تقویت کنند. پژوهشگران هشدار میدهند که این فناوری میتواند به آرامی اعتماد عمومی را تضعیف کند و فضای سیاسی را به سمت بیثباتی سوق دهد.
در کنار این هشدارها، اسناد علمی منتشرشده نشان میدهد که ترکیب مدلهای زبانی بزرگ با معماریهای چندعاملی یک مرز جدید در جنگ اطلاعاتی ایجاد کرده است. این ترکیب به سیستمها اجازه میدهد که با حداقل دخالت انسان، به شکل شبکههای خودمختار عمل کنند، محتوا تولید کنند، استراتژیهای خود را تغییر دهند و در مقیاسی گسترده بر رفتار اجتماعی اثر بگذارند. این وضعیت در شرایطی رخ میدهد که اعتماد عمومی به رسانه، علم و نهادهای دولتی در بسیاری از کشورها کاهش یافته است و این کاهش اعتماد، زمینه را برای پذیرش محتوای جعلی و عملیات نفوذ مبتنی بر هوش مصنوعی فراهم میکند.
پرسوناهای هوش مصنوعی و شکلدهی افکار عمومی
پرسوناهای هوش مصنوعی (AI persona) به عنوان هویتهای دیجیتالی بسیار واقعی، یکی از مهمترین ابزارهای این تهدید نوظهور محسوب میشوند. این پرسوناها (AI persona) میتوانند مانند یک کاربر واقعی رفتار کنند، لحن محلی را تقلید کنند، در بحثها شرکت کنند و برای مدت طولانی یک شخصیت ثابت را حفظ کنند. آنها قادرند میلیونها آزمایش کوچک انجام دهند تا بفهمند کدام پیامها بیشترین اثرگذاری را دارند و سپس همان الگوها را در مقیاس وسیع بازتولید کنند. نتیجه این فرآیند، شکلگیری یک اجماع مصنوعی است که میتواند کاربران را متقاعد کند یک دیدگاه خاص، نظر اکثریت جامعه است.
مطالعات علمی نشان میدهد که پروفایلهای جعلی با چهرههای تولیدشده توسط هوش مصنوعی حتی از پروفایلهای واقعی قابل اعتمادتر به نظر میرسند. پژوهشهای منتشرشده در نشریه «ساینس» (Science) تاکید میکند که این پرسوناها میتوانند در قالب شبکههای بزرگ و هماهنگ عمل کنند، به بازخوردها پاسخ دهند و در لحظه استراتژیهای خود را تغییر دهند. این توانایی، آنها را به ابزارهایی قدرتمند برای عملیات نفوذ سیاسی تبدیل میکند و امکان میدهد که در فضای مجازی به عنوان شهروندان معمولی ظاهر شوند و در بحثهای عمومی نقشآفرینی کنند.
زمینههای آسیبپذیری دموکراسی در برابر نفوذ هوش مصنوعی
اکوسیستم اطلاعاتی امروز پیشاپیش دچار ضعفهایی است که ازدحامهای هوش مصنوعی میتوانند از آن سوءاستفاده کنند. حبابهای فیلتر (Filter bubbles) کاربران را از دیدگاههای مخالف جدا میکنند، اخبار جعلی سریعتر از اخبار واقعی پخش میشوند و الگوریتمهای پلتفرمها محتوای تفرقهافکن را تقویت میکنند. گزارش منتشر شده در «ساینس دیلی» (Sciencedaily) این عوامل باعث میشود که زمینه اجتماعی برای پذیرش روایتهای جعلی آمادهتر از گذشته باشد و کاربران در معرض دستکاریهای نامحسوس قرار بگیرند.
اعتماد عمومی به رسانه، مراکز علمی و دولت در بسیاری از کشورها کاهش یافته است. این کاهش اعتماد، شرایط را برای عملیات نفوذ مبتنی بر هوش مصنوعی مناسبتر میکند، زیرا کاربران در فضای بیاعتمادی، بیشتر در معرض پذیرش محتوای جعلی قرار میگیرند. همچنین پژوهشها نشان میدهد که انسانها در تشخیص دیپفیکها (Deepfake) عملکردی بهتر از حد تصادف ندارند، موضوعی که دفاع در برابر محتوای جعلی را دشوارتر میکند و به عاملان مخرب اجازه میدهد که با استفاده از ابزارهای پیشرفته، واقعیت را بازسازی کنند.
سیستمهای هوش مصنوعی قادرند محتوای احساسی، تفرقهافکن یا هدفمند تولید کنند و آن را در میان گروههای مختلف پخش کنند. پژوهشها نشان میدهد که پروپاگاندای تولیدشده با هوش مصنوعی میتواند نگرش افراد را تغییر دهد و با ایجاد اجماع مصنوعی، کاربران را متقاعد کند که یک دیدگاه خاص، نظر غالب جامعه است. این فرآیند میتواند به تدریج فضای سیاسی را دچار دگرگونی کند و اعتماد به منابع معتبر را کاهش دهد
نمونههای واقعی از عملیات نفوذ دیجیتال
در سالهای گذشته، کشورهای مختلف شاهد موجهای گستردهای از عملیات اطلاعاتی بودهاند که نشان میدهد تهدیدهای دیجیتال تنها یک خطر نظری نیستند. در برزیل، باتهای سیاسی برای دامنزدن به فساد و قطبیسازی به کار گرفته شدند.
در فیلیپین، کارخانههای ترول حرفهای افکار عمومی را دستکاری کردند و در میانمار، ارتش با ساخت صدها حساب جعلی، نفرتپراکنی علیه اقلیت روهینگیا را تشدید کرد. در تایوان و هند، محتوای تولیدشده با هوش مصنوعی در دورههای انتخاباتی نقش قابل توجهی داشت و دولتها برای مقابله با آن سازوکارهای جدیدی ایجاد کردند.
این نمونهها نشان میدهد که عملیات نفوذ دیجیتال میتواند بر روندهای سیاسی، اجتماعی و امنیتی تاثیر بگذارد و ازدحامهای هوش مصنوعی میتوانند این الگوها را ارزانتر، سریعتر و گستردهتر کنند.
شبکههای اجتماعی و روایتسازی هوش مصنوعی
اینستاگرام بهعنوان یکی از بزرگترین بسترهای انتشار محتوای بصری، نقشی محوری در روند روایتسازی مبتنی بر هوش مصنوعی ایفا میکند. الگوریتمهای این پلتفرم که بر پایه تعامل، واکنش احساسی، زمان ماندگاری کاربر و اهداف و سیاستگذاریهای کلی این شرکت طراحی شدهاند، بهطور طبیعی محتوایی را تقویت میکنند که بیشترین تحریک عاطفی را ایجاد کند؛ ویژگیای که با توانایی مدلهای هوش مصنوعی در تولید تصاویر، ویدئوها و کپشنهای هدفمند همپوشانی کامل دارد.
در چنین محیطی، پرسوناهای هوش مصنوعی میتوانند با انتشار محتوای ظاهرا شخصی، روایتهای احساسی و هشتگهای هماهنگ، جریانهای ادراکی را بهصورت نامحسوس هدایت کنند. ساختار بسته فید و نبود شفافیت درباره منشا محتوا باعث میشود مرز میان کاربر واقعی و عامل مصنوعی بهسادگی محو شود و عملیات نفوذ در قالب «ترندهای طبیعی» ظاهر گردد. اینستاگرام به دلیل اتکای شدید به تصویر و روایتهای کوتاه، بستری فراهم میکند که در آن شبکههای هوش مصنوعی قادرند برداشت سیاسی و نگرش عمومی را از طریق بازنماییهای احساسی و تکرارشونده تغییر دهند.
اپ توئیتر (X) نیز بهدلیل ماهیت گفتوگویی، سرعت انتشار بالا و نقش آن در شکلدهی دستور کار رسانهای، یکی از حساسترین فضاها برای روایتسازی هوش مصنوعی محسوب میشود. در این پلتفرم، عاملهای هوش مصنوعی میتوانند با تولید انبوه توییتهای هماهنگ، پاسخهای زنجیرهای، بازنشرهای هدفمند و هشتگسازی، جریانهای گفتوگویی را در مدت کوتاهی منحرف یا تقویت کنند.
در این شبکه اجتماعی، شبکهای از رباتها مانند یک «ازدحام هماهنگ» عمل کند: برخی نقش تولیدکننده محتوا را بر عهده میگیرند، برخی دیگر تعامل را افزایش میدهند و گروهی با ارائه تحلیلهای شبهکارشناسی، روایت را معتبر جلوه میدهند. سرعت بالای گردش اطلاعات در توئیتر باعث میشود این سیگنالهای مصنوعی نهتنها بر کاربران عادی، بلکه بر روزنامهنگاران، سیاستگذاران و رسانههای رسمی نیز اثر بگذارد. نتیجه این فرآیند، شکلگیری اجماع مصنوعی و تغییر ادراک سیاسی در مقیاسی است که تشخیص منشا آن برای کاربران تقریبا ناممکن است.
چگونگی اثرگذاری ازدحامهای هوش مصنوعی بر افکار عمومی
ازدحامهای هوش مصنوعی میتوانند با هماهنگی فرابشری، روایتهای سیاسی را در شبکههای اجتماعی تقویت کنند. این سیستمها قادرند محتوای احساسی، تفرقهافکن یا هدفمند تولید کنند و آن را در میان گروههای مختلف پخش کنند. پژوهشها نشان میدهد که پروپاگاندای تولیدشده با هوش مصنوعی میتواند نگرش افراد را تغییر دهد و با ایجاد اجماع مصنوعی، کاربران را متقاعد کند که یک دیدگاه خاص، نظر غالب جامعه است. این فرآیند میتواند به تدریج فضای سیاسی را دچار دگرگونی کند و اعتماد به منابع معتبر را کاهش دهد.
علاوه بر این، ازدحامها میتوانند رفتار سیاستمداران را نیز تحت تاثیر قرار دهند. با ایجاد سیگنالهای جعلی از حمایت یا مخالفت، ممکن است سیاستمداران به سمت تولید محتوای تندتر و قطبیتر سوق داده شوند، موضوعی که پژوهشهای اجتماعی آن را تایید کرده است. این وضعیت میتواند چرخهای از قطبیسازی ایجاد کند که در آن، هم شهروندان و هم سیاستمداران تحت تاثیر سیگنالهای مصنوعی قرار میگیرند.
مسیرهای آسیب به دموکراسی
ازدحامهای هوش مصنوعی میتوانند از طریق چند مسیر اصلی به دموکراسی آسیب بزنند:
نخست، این سیستمها میتوانند با انتشار محتوای هدفمند، اعتماد عمومی به نهادهای انتخاباتی و دولتی را تضعیف کنند و زمینه بیثباتی سیاسی را فراهم کنند.
دوم، آنها قادرند با ایجاد اجماع مصنوعی، این تصور را ایجاد کنند که یک دیدگاه خاص، نظر اکثریت است و از این طریق بر تصمیمگیری شهروندان اثر بگذارند.
سوم، انتشار محتوای تفرقهافکن و نفرتپراکن میتواند به افزایش تنشهای اجتماعی و حتی خشونت واقعی منجر شود.
چهارم، ابزارهای نوشتاری مبتنی بر هوش مصنوعی میتوانند به شکل نامحسوس سوگیریهای خاصی را در محتوا تزریق کنند و به تدریج نگرشهای کاربران را تغییر دهند.
این مسیرها در مطالعات مختلف، از انتخابات تایوان تا پژوهشهای آزمایشگاهی درباره پروپاگاندای هوش مصنوعی، تایید شدهاند و نشان میدهند که تهدید ازدحامهای هوش مصنوعی یک خطر ساختاری برای دموکراسی است.
راهکارهای مقابله با تهدید و ضرورت اقدام هماهنگ
مقابله با تهدید ازدحامهای هوش مصنوعی نیازمند ترکیبی از سیاستگذاری، فناوری و آموزش عمومی است. اسناد علمی تاکید میکنند که شفافیت درباره محتوای تولیدشده با هوش مصنوعی، تقویت ابزارهای تشخیص دیپفیک و سختسازی فنی مدلهای زبانی از جمله اقدامات ضروری است.
همچنین استفاده از عاملهای هوش مصنوعی مفید برای مقابله با عاملهای مخرب، افزایش سواد رسانهای و بازطراحی شبکههای اجتماعی با سازوکارهای هویتسنجی میتواند نقش مهمی در کاهش اثرگذاری عملیات نفوذ داشته باشد. این راهکارها نشان میدهد که دفاع از دموکراسی در برابر تهدیدهای نوظهور هوش مصنوعی تنها با همکاری میان دولتها، شرکتهای فناوری و جامعه مدنی ممکن است و هرگونه تاخیر در این زمینه میتواند هزینههای سنگینی برای جامعه و سیاست به همراه داشته باشد.
انتهای پیام/