صفحه نخست

آناتک

آنامدیا

دانشگاه

فرهنگ‌

علم

سیاست و جهان

اقتصاد

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

همدان

هرمزگان

یزد

پخش زنده

۱۰:۴۰ | ۱۷ / ۰۲ /۱۴۰۵
| |

دکتر عاملی: هوش مصنوعی اخلاق جنگ را دگرگون کرده است/ خطر فاجعه‌بار خطای الگوریتمی در میدان نبرد

عضو شورای عالی انقلاب فرهنگی با هشدار نسبت به مخاطرات هوش مصنوعی در جنگ‌های نوین، تأکید کرد: هوش مصنوعی با حذف مواجهه انسانی در میدان نبرد و خودکارسازی فرآیند‌های ارتباطی و عملیاتی، پیچیدگی‌های اخلاقی و عملیاتی بی‌سابقه‌ای ایجاد کرده که نیازمند بازتعریف ضوابط جنگ عادلانه در عصر دیجیتال است.
کد خبر : 1054226

به گزارش خبرگزاری آنا، دکتر سعیدرضا عاملی، عضو شورای عالی انقلاب فرهنگی و رئیس شورای تحول و ارتقای علوم انسانی، در نشست تخصصی با موضوع «ظرفیت‌ها و مخاطرات هوش مصنوعی و فناوری‌های نو در جنگ» که با مشارکت دبیرکل سازمان یونسکو و جمعی از صاحب‌نظران حوزه فناوری و علوم انسانی برگزار شد، به تشریح ابعاد اخلاقی، فنی و راهبردی کاربرد هوش مصنوعی در عملیات نظامی پرداخت.

دکتر عاملی در ابتدای سخنان خود با اشاره به ماهیت ارتباطی هوش مصنوعی اظهار داشت: هوش مصنوعی یک ظرفیت خودکار است که هم ارتباط‌گر و هم ارتباط‌گیر را به تعبیری حذف می‌کند؛ یعنی رابطه «یکی با یکی»، «یکی با همه» و «همه با همه» را خودکار می‌سازد و در مسیر الگوریتم‌های طراحی‌شده، مسیر تصمیم‌گیری را هموار می‌کند.

وی افزود: وقتی هوش مصنوعی در ظرفیت جنگ قرار می‌گیرد، در واقع ظرفیتی بدون روح انسانی و بدون مواجهه مستقیم انسانی در بستر نبرد شکل می‌گیرد. این تحول، مخاطرات جنگ و عملیات نظامی را بسیار پیچیده‌تر کرده و خطای الگوریتمی در این فضا می‌تواند فاجعه‌آفرین باشد.

رئیس شورای تحول و ارتقای علوم انسانی با اشاره به حوادث تلخ ناشی از خطا‌های سیستمی در محیط‌های آموزشی و امنیتی، خاطرنشان کرد: خطای الگوریتمی اینجا می‌تواند فاجعه به وجود بیاورد؛ از جنس فاجعه‌ای که اگر خطا تلقی کنیم، در مدرسه شجره طیبه اتفاق افتاد و ۱۶۸ کودک مظلوم و معصوم قربانی شدند. خطا‌های بزرگ در ظرفیت الگوریتم‌ها، قدرت همزمانی دارد؛ یعنی می‌تواند بر اساس پارامتر‌های طراحی‌شده، ده‌ها عملیات را به صورت همزمان اجرا کند و از این جهت، مخاطرات کار را چندبرابر می‌کند.

فاصله فرماندهان از واقعیت میدان نبرد در جنگ هوشمند

دکتر عاملی با مقایسه جنگ‌های کلاسیک و جنگ‌های هوشمند تصریح کرد: در گذشته، فرماندهان نظامی هزینه انسانی جنگ را رویت می‌کردند؛ در میدان جنگ بودند، کشتار را می‌دیدند، خرابی‌ها را مشاهده می‌کردند و بوی باروت به مشامشان می‌خورد. اما در جنگ هوشمند، فضای دیگری حاکم می‌شود: جنگ از راه دور و تلفات جانی برای کسانی که در بستر تصمیم‌گیری قرار دارند، محسوس نیست. این فاصله ادراکی، چالش بزرگی برای رعایت اخلاق جنگ ایجاد می‌کند.

عضو شورای عالی انقلاب فرهنگی با تأکید بر ضرورت بازخوانی اصول جنگ عادلانه در پرتو فناوری‌های نوین گفت: اگرچه جنگ از بنیان ناعادلانه و همراه با تبعیض انسانی و اجتماعی است، اما با فرض وقوع آن، باید جنگی متناسب با ضوابط بین‌المللی صورت گیرد؛ ضوابطی که بر سه اصل «تفکیک»، «تناسب» و «کرامت انسانی» استوار است.

وی با نقل قولی از وزیر جنگ آمریکا افزود: وزیر جنگ آمریکا به وضوح از عدم رعایت اصول اخلاقی و منصفانه در جنگ صحبت می‌کند و تأکید دارد که ارتش کشورش «همیشه نوک نیزه بوده» و «مرگبارترین نیروی جنگی روی سیاره زمین باقی بماند». این منطق، متأسفانه در طول تاریخ ۲۵۰ ساله آمریکا و با سابقه‌ای از درگیری‌های نظامی در کامبوج، ویتنام و سایر نقاط جهان، به کشتار‌های گسترده و جنایت‌های سازمان‌یافته منجر شده است.

دکتر عاملی در بخش فنی سخنان خود، چهار ویژگی بنیادین هوش مصنوعی را برشمرد که درک آنها برای سیاست‌گذاری در حوزه امنیت و اخلاق فناوری ضروری است. وی با اشاره به ماهیت وقوعی (دیجیتال) به جای ماهیت شیئی (آنالوگ) گفت: هوش مصنوعی بر بستر منطق رقومی و پارامتر‌های دیجیتال طراحی می‌شود، نه بر پایه اشیاء فیزیکی مانند جنگ‌های کلاسیک.

دکتر عاملی با تاکید بر شبکه‌ای بودن به جای منفرد بودن گفت: هوش مصنوعی عناصر و شبکه‌ها را به هم متصل می‌کند و ماهیتی ماژولار دارد که امکان ارتباطات پیچیده «یکی با یکی»، «یکی با همه» و «همه با همه» را فراهم می‌سازد.

وی با اشاره به همزمانی و پردازش موازی ادامه داد: در هوش مصنوعی، پدیده‌ها جای یکدیگر را نمی‌گیرند (برخلاف فضای آنالوگ)، بلکه به صورت موازی و همزمان پردازش می‌شوند که ظرفیت عملیاتی بی‌سابقه‌ای ایجاد می‌کند.

وی افزود: در زمان مجازی، ما سه عنصر «فاصله»، «حرکت» و «سرعت» را بازتعریف می‌کنیم. وقتی فاصله را حذف می‌کنیم، حرکت و سرعت هم بی‌معنا می‌شود؛ همه در یک جا قرار می‌گیرند و آن مفهوم پویای «همه‌جا‌حاضر» تحقق پیدا می‌کند. این قابلیت کار مجازی، ماهیت تصمیم‌گیری و عملیات را دگرگون می‌سازد.

دکتر عاملی با اشاره به تحولات ریزفناوری‌ها خاطرنشان کرد: با توجه به ریزفناوری‌ها و ریزتراشه‌هایی که به وجود آمده، ما از عصر نانو شروع کردیم و امروز از کوانتوم صحبت می‌کنیم. هوش مصنوعی امروز یک ماهیت کوانتومی هم پیدا کرده است: معلق بودن، عدم قطعیت و ریزتراشه‌هایی که می‌توانند مقادیری بین صفر و یک ایجاد کنند. این پدیده، پیچیدگی محاسبات و تصمیم‌گیری را چندبرابر می‌کند و مدیریت خطا در این فضا را به چالشی راهبردی تبدیل می‌سازد.

رئیس شورای تحول و ارتقای علوم انسانی در بخش دیگری از سخنان خود، با ارائه یک دوره‌بندی تحلیلی از سیر تحول جنگ بر مبنای فناوری‌های به‌کاررفته، تأکید کرد: برای درک تحولات عصر هوش مصنوعی، باید بدانیم در چه نقطه‌ای از تاریخ جنگ ایستاده‌ایم. ما جنگ را بر اساس فناوری به دوره‌های مختلفی تقسیم می‌کنیم.

دکتر عاملی درباره نخستین دوره جنگ توضیح داد: دوره اول را «دوره صفر» یا ماقبل فناوری می‌نامیم؛ عصری که اصل، «عضله» و «اخلاق جنگل» بود. هرکس زور بازوی قوی‌تری داشت، در جنگ قدرتمندتر بود و می‌توانست مسیر را پیش ببرد. این دوره مربوط به پیش از انقلاب صنعتی و حدود سال ۱۸۰۰ میلادی است.

وی افزود: در این دوره، قدرت نظامی تابع معادله زیستی ساده‌ای به نام «چرخه سوخت‌وساز بدن» بود. محدودیت اصلی در میدان نبرد، «خستگی زیستی» رزمندگان بود؛ یعنی افراد آن‌قدر می‌جنگیدند تا از نفس بیفتند. از سده سوم پیش از میلاد تا دوره مغول‌ها در سده سیزدهم، جنگ‌ها با ابزار محدودی مانند نیزه و شمشیر انجام می‌شد و شتاب تأثیرگذاری جنگ خیلی زیاد نبود.

عضو شورای عالی انقلاب فرهنگی با اشاره به برتری لجستیکی مغول‌ها تصریح کرد: لشکر مغول می‌توانست در یک روز تا ۱۰۰ کیلومتر پیشروی کند، در حالی که ارتش‌های اروپایی در همان دوره حداکثر ۲۰ کیلومتر توان پیشروی داشتند. این تفاوت، ناشی از سازماندهی و تاکتیک‌های مبتنی بر همان فناوری‌های محدود عصر بود.

دکتر عاملی با توصیف گسست بزرگ فناوری در اواخر قرن نوزدهم گفت: دوره اول جنگ مدرن را «عصر شیمیایی» یا «کشتار خطی و صنعتی» می‌نامیم. نقطه عطف این دوره، اختراع مسلسل ماکسیم در سال ۱۸۸۴ توسط هیرام ماکسیم بود. برای نخستین بار در تاریخ، یک تک‌سرباز می‌توانست با سرعت ۶۰۰ گلوله در دقیقه و برد مؤثر بیش از هزار متر عملیات انجام دهد.

وی با اشاره به نخستین نمایش وحشتناک این سلاح افزود: در نبرد اومدورمان در سال ۱۸۹۳ در آفریقا، ۵۰ سرباز بریتانیایی مسلح به چهار قبضه مسلسل ماکسیم توانستند ۳۰۰۰ جنگجوی محلی را در عرض ۹۰ دقیقه از بین ببرند. این رویداد، آغاز عصر کشتار صنعتی بود.

دکتر عاملی با تأکید بر پیوند مستقیم پیشرفت فناوری جنگ و گسترش کشتار جمعی هشدار داد: هرچه فناوری جنگ جلوتر رفته، امکان کشتار جمعی فراگیرتر شده است. امروز وقتی از «ژنوساید» صحبت می‌کنیم، نباید تنها به جنایت‌های رژیم صهیونیستی بسنده کنیم؛ تاریخ معاصر شاهد ژنوساید‌های بسیار بزرگ‌تری بوده است.

وی با ارائه آمار تکان‌دهنده‌ای از تلفات جنگ‌های جهانی خاطرنشان کرد: در جنگ‌های جهانی اول و دوم، حدود ۹۷ میلیون انسان کشته شدند که بخش عمده‌ای از آنها غیرنظامیان بودند. جنگ جهانی اول، اوج کشتار خطی صنعتی بود؛ بشریت برای نخستین بار مجبور شد در برابر «تولید انبوه مرگ»، نخستین قوانین بازدارنده را وضع کند.

عضو شورای عالی انقلاب فرهنگی با اشاره به نبرد‌های نمادین این دوره گفت: در نبرد سُم، ۱.۲ میلیون نفر طی ۱۴۱ روز کشته شدند؛ یعنی میانگین ۸۵۰۰ نفر در روز. در نبرد وردن نیز ۷۰۰ هزار نفر جان باختند. سنگرها، گاز خردل، توپخانه‌های لوله‌بلند با نرخ آتش ۱۵ گلوله در دقیقه و بمب‌افکن‌های راهبردی مانند گوتای آلمان، جنگ صنعتی را متولد کردند.

تولد حقوق بین‌الملل بشردوستانه و تناقض در اجرا

دکتر عاملی با مرور تحولات حقوقی پس از جنگ‌های جهانی تصریح کرد: حجم بالای کشتار در فاصله سال‌های ۱۹۲۵ تا ۱۹۴۹ در اروپا، منجر به شکل‌گیری حقوق بین‌الملل بشردوستانه، کنوانسیون ژنو ۱۹۴۹، پروتکل‌های الحاقی ۱۹۷۷ و ممنوعیت سلاح‌های شیمیایی بر مبنای پروتکل ژنو ۱۹۲۵ شد.

وی با انتقاد از تبعیض در اجرای این قوانین افزود:، اما متأسفانه همین قوانین به صورت تبعیض‌آمیز اجرا شده‌اند. در جنگ هشت‌ساله تحمیلی علیه مردم ایران، سلاح‌های شیمیایی به‌طور گسترده استفاده شد و هنوز هم مجروحان شیمیایی آن جنگ، بر تخت‌های جانبازی شاهد رنج ناشی از نقض همین کنوانسیون‌ها هستند.

دکتر عاملی با اشاره به نقطه عطف دیگری در تاریخ جنگ‌های مدرن اظهار داشت: در ششم اوت ۱۹۴۵، بمب اتمی با نام مستعار «پسر کوچک» و با قدرت معادل ۱۵ کیلوتن تی‌ان‌تی، شهر هیروشیما را بمباران کرد. در عرض چند ثانیه، ۱۴۰ هزار نفر کشته شدند. سه روز بعد، بمب دوم با نام «مرد چاق» و قدرت ۲۱ کیلوتن، ناکازاکی را ویران کرد و ۷۰ هزار کشته بر جای گذاشت.

وی با تأکید بر تداوم تهدید هسته‌ای افزود: اگرچه ۸۱ سال از آخرین استفاده از بمب اتم می‌گذرد و خوشبختانه از یک سال پیش به این سو شاهد استفاده مجدد از آن نبوده‌ایم، اما وجود حدود ۱۲ هزار کلاهک هسته‌ای در جهان، جهان را تهدید می‌کند. استفاده از این سلاح‌ها می‌تواند منجر به «زمستان خاکستری» شود؛ پدیده‌ای که دمای کره زمین را تا منفی ۵۰ درجه کاهش داده و حیات موجودات را با خطر انقراض مواجه می‌سازد.

عصر دیجیتال، شبکه‌ای و جنگ از راه دور؛ عاری از رنجِ قربانی؟

عضو شورای عالی انقلاب فرهنگی با توصیف ویژگی‌های دوره سوم جنگ توضیح داد: در جنگ کلاسیک و فیزیکی، دو طرف کشته می‌دهند و «رنج قربانی» به صورت ملموس وجود دارد؛ چه در طرف حمله‌کننده و چه در طرف مورد حمله. اما در دوره سوم، ما با «جنگ از راه دور» مواجهیم؛ جنگی که اساساً درد و محنت ناشی از آن را حس نمی‌کند.

وی با اشاره به حوادث اخیر خاطرنشان کرد: در این نوع جنگ، یک دکمه فشرده می‌شود، سه راکت در مکانی خاص فرود می‌آیند و جمعی را عزادار و جمعی دیگر را دچار بحران می‌کنند. آن کسی که دکمه را فشار می‌دهد، در اتاقی خنک و دور از میدان نبرد نشسته است و درد خانواده‌های میناب یا هر نقطه دیگری را حس نمی‌کند. در همین ۴۰ روزی که جنگ سوم جریان داشت، فکر می‌کنم اکثر خانواده‌ها تجربه نگرانی و فشار اجتماعی را داشتند، حتی اگر ترس مستقیم را تجربه نکرده باشند.

دکتر عاملی با اشاره به ریشه‌های تاریخی این دوره گفت: این دوره را معمولاً پس از حملات ۱۱ سپتامبر و با ظهور اصطلاح «جنگ علیه ترور» تعریف می‌کنند. این جنگ، بخشی از «جنگ شناختی» است؛ جنگی که در آن می‌توان با غلبه معنایی، یک دروغ بزرگ را به حقیقتی انکارناپذیر تبدیل کرد.

وی با انتقاد از ریاکاری در سیاست‌های هسته‌ای قدرت‌های جهانی افزود: کشور‌هایی که خود هزاران کلاهک هسته‌ای آماده پرتاب دارند و سالانه ۹۰ میلیارد دلار برای نگهداری آنها هزینه می‌کنند، علیه برنامه هسته‌ای صلح‌آمیز ایران که برای انرژی، پزشکی و اهداف علمی استفاده می‌شود، جنگ‌افروزی و تحریم راه می‌اندازند. این تناقض، ماهیت سیاسی و تبعیض‌آمیز قوانین بین‌المللی در عصر جنگ شناختی را آشکار می‌سازد.

عصر الگوریتم و خودکارسازی جنگ؛ کشتار رایانه‌ای

دکتر عاملی با ورود به بحث محوری نشست هشدار داد: دوره چهارم را «عصر الگوریتم»، «خودکارسازی جنگ» یا «کشتار هوش» می‌نامیم. وقتی از یک مدل زبانی بزرگ مانند جی‌پی‌تی سؤال می‌کنید که برای استخراج داده از چند پارامتر استفاده می‌کند، پاسخ می‌دهد: «یک تریلیون و ۲۰۰ میلیارد پارامتر». این یعنی ما با محیطی کاملاً پارامتریک و الگوریتمیک مواجهیم.

وی با تشریح ماهیت الگوریتم‌های نظامی تصریح کرد: الگوریتم می‌تواند هزاران متغیر را در یک «بسته قطعی» قرار دهد. سیستم‌های خودکار، بسته‌های قطعی هستند؛ در آنها رأفت وجود ندارد، ترحم وجود ندارد، اخلاق وجود ندارد و حس و ادراک انسانی جایی ندارد. در صنعت آنالوگ، کسی باید پای ارابه می‌ایستاد، دکمه‌ها را فشار می‌داد، نظارت می‌کرد و استهلاک را مدیریت می‌نمود. اما در دنیای دیجیتال، ما با دنیایی بدون استهلاک، دنیای رقومی، دنیای ریاضی و منطقی مواجهیم که بر مبنای پارامتر‌ها عملیات انجام می‌دهد.

دکتر عاملی آغاز این دوره را ۲۴ فوریه ۲۰۲۲ و تهاجم روسیه به اوکراین دانست و گفت: این جنگ، برای اولین بار در تاریخ، مقیاس‌پذیری هوش مصنوعی در میدان نبرد واقعی را به نمایش گذاشت. هر دو طرف از سیستم‌های هوش مصنوعی استفاده کردند: روسیه از سامانه‌های محاسبات تخصصی برای هدف‌گیری توپخانه با دخالت محدود انسانی، و اوکراین از نرم‌افزار‌های سیستم اطلاعات جغرافیایی (GIS) برای توپخانه با قابلیت پردازش داده‌های ماهواره‌ای و پیشنهاد مختصات شلیک در کمتر از ۳۰ ثانیه.

وی افزود: پهپاد‌های انتحاری با قابلیت ردیابی خودکار هدف، نمونه‌های اولیه‌ای از «خودکارسازی زنجیره کشتار» بودند. با این حال، در تمام موارد ذکرشده، تصویب نهایی و تصمیم شلیک همچنان با یک اپراتور انسانی بود؛ منتها اپراتوری که در اتاقی با کولر، با امکانات رفاهی و در فضایی کاملاً دور از جنگ، تصمیم می‌گرفت که چه اقدامی صورت بگیرد. این فاصله ادراکی، خود چالشی اخلاقی است.

دکتر عاملی به هسته مرکزی حقوق بشردوستانه بین‌المللی پرداخت و اظهار داشت: حقوق بشردوستانه بین‌المللی بر این فرض بنیادین استوار است که حتی در گام خشونت سازمان‌یافته‌ای به نام جنگ، «انسانیت» خط قرمزی است که نمی‌توان از آن عبور کرد. کنوانسیون‌های ژنو ۱۹۴۹ و پروتکل الحاقی ۱۹۷۷، این خط قرمز را در قالب سه اصل کلیدی صورت‌بندی کرده‌اند: تفکیک، تناسب و احتیاط.

وی با طرح پرسشی بنیادین هشدار داد:، اما با ورود هوش مصنوعی به زنجیره نظامی، این پرسش اساسی مطرح می‌شود: آیا ماشینی که فاقد درک بافت انسانی، وجدان اخلاقی و مسئولیت‌پذیری حقوقی است، می‌تواند احترام به این اصول را تضمین کند؟ پاسخ منفی است.

عضو شورای عالی انقلاب فرهنگی با اشاره به مستندات حقوقی توضیح داد: اصل تفکیک در ماده ۵۱ پروتکل اول ژنو و ماده ۱۳ پروتکل دوم رمزگذاری شده است. این اصل مقرر می‌دارد که طرفین درگیر همواره باید میان «جمعیت غیرنظامی» و «رزمندگان» و نیز میان «اهداف غیرنظامی» و «اهداف نظامی» تفکیک قائل شوند و عملیات خود را تنها علیه اهداف نظامی جهت‌دهی کنند.

وی با بیان چالش هوش مصنوعی در این حوزه افزود: هوش مصنوعی ممکن است در تشخیص الگو‌های بصری یا سیگنالی مهارت داشته باشد، اما «درک بافت» (Contextual Understanding) ندارد. یک کودک با اسباب‌بازی شبیه سلاح، یک غیرنظامی در حال فرار، یا یک نیروی نظامی که تسلیم شده است، برای الگوریتم ممکن است تفاوت معناداری نداشته باشد. اینجاست که خطای الگوریتمی می‌تواند به فاجعه‌ای انسانی تبدیل شود.

دکتر عاملی با تأکید بر اصل اول حقوق جنگ اظهار داشت: اصل تفکیک در ماده ۵۱ پروتکل اول ژنو و ماده ۱۳ پروتکل دوم رمزگذاری شده و مقرر می‌دارد که طرفین درگیر همواره باید میان «نظامیان و غیرنظامیان» و نیز میان «اهداف نظامی و اشیاء غیرنظامی» - که شامل ساختمان‌ها، روستاها، جنگل‌ها و طبیعت می‌شود - تفاوت قائل شوند. حمله به اهداف غیرنظامی به طور مطلق ممنوع است.

وی با اشاره به تحولات سیاسی روز خاطرنشان کرد: این اصل اهمیت ویژه‌ای دارد. وقتی مقامی مانند آقای ترامپ در جایگاهی می‌نشیند و از عملیات نظامی سخن می‌گوید، باید توجه داشت که اولاً «جنگ ابتدایی» بر اساس همه قوانین بین‌المللی ممنوع است. هیچ کشوری نمی‌تواند آغازگر جنگ باشد؛ تنها دفاع مشروع مجاز است. در فرهنگ تشیع نیز جنگ ابتدایی اساساً حرام است و تنها در دوران امام معصوم (ع) می‌تواند رخ دهد. بنابراین، دیدگاه الهی و قرآنی با دیدگاه نهاد‌های بین‌المللی در عدم مشروعیت جنگ تهاجمی همسو است.

عضو شورای عالی انقلاب فرهنگی به اصل دوم پرداخت و گفت: اصل تناسب در بند ۵ بخش سوم ماده ۵۱ پروتکل اول ژنو آمده و حمله‌ای را ممنوع می‌کند که خسارتی به جان غیرنظامیان، جراحت آنان، آسیب به اشیاء غیرنظامی یا ترکیبی از اینها وارد آورد که در مقایسه با مزیت نظامی مستقیم و مورد انتظار، «زیاده‌روانه» باشد.

وی با طرح پرسشی انتقادی افزود: بالاخره باید تناسبی وجود داشته باشد. اگر فرضاً قصد هدف‌گیری منطقه‌ای مرتبط با سلاح‌های هسته‌ای را دارید، چرا شهر‌ها را بمباران می‌کنید؟ چرا خانواده‌ها را به عذاب می‌کشید؟ این تفکیک میان نظامی و غیرنظامی، هم از نظر اخلاقی و هم از نظر حقوقی، قابل‌تحمل و ضروری است.

دکتر عاملی با اشاره به حوادث اخیر تصریح کرد: نظامیانی که در ایران ترور شدند، به صورت ظالمانه و خارج از چارچوب‌های حقوقی هدف قرار گرفتند. این افراد شخصیت‌های رسمی بودند و در لحظه ترور، در حال اقدام نظامی نبودند. حتی هدف قرار دادن نظامیانی که فعلیت رزمی ندارند، نوعی اقدام علیه غیرنظامی محسوب می‌شود؛ زیرا آن فرد در آن لحظه، کار نظامی انجام نمی‌داده که مشمول قواعد درگیری شود.

دکتر عاملی به اصل سوم اشاره کرد و گفت: اصل احتیاط در ماده ۵۷ پروتکل اول ژنو آمده و تکلیف می‌کند که «همه اقدامات ممکن» برای تأیید نظامی بودن هدف و حداقل‌سازی خسارت جانبی انجام شود. یعنی فرمانده باید بگوید: «شاید این فرد نظامی نیست»، «شاید آن مکان، کاربرد غیرنظامی دارد». نمی‌توان با احتمالِ صرفِ وجود امکان نظامی در کنار یک مکان، عملیات انجام داد.

وی با انتقاد از توجیهات برخی عملیات‌ها افزود: بسیاری از این عملیات‌ها ادعا می‌کنند که «ما مکان‌های نظامی را نشانه گرفتیم»؛ اما وقتی خسارت جانبی گسترده‌ای به غیرنظامیان وارد می‌شود، این ادعا با اصل احتیاط در تضاد قرار می‌گیرد.

دکتر عاملی در بخش بعدی سخنان خود، به چالش‌های ذاتی هوش مصنوعی در میدان جنگ پرداخت و هشدار داد: نخستین چالش هوش مصنوعی در جنگ، «ناتوانی در درک بافت انسانی» است. هوش مصنوعی نظامی دچار «شکاف معنایی» است؛ به این معنا که الگوریتم، داده‌ها را به عنوان مجموعه‌ای از پیکسل‌ها، سیگنال‌ها یا مختصات جغرافیایی می‌بیند، اما «معنای انسانی» آن داده را درک نمی‌کند.

وی افزود: همان‌طور که بعضی مکان‌ها را صرفاً به اعتبار نامشان هدف قرار می‌دهند، در حالی که آن نام، بار معنایی واقعی آن مکان را ندارد. دکتر عاملی دومین چالش را مرتبط با اصل تناسب دانست و توضیح داد: در نظریه جنگ عادلانه و حقوق بشردوستانه بین‌المللی، «تناسب» یک ارزیابی کیفی و مبتنی بر زمینه است. یک فرمانده انسانی باید عواملی، چون اطمینان از اطلاعات، ابهامات موجود، ارزش‌های انسانی در خطر و حتی وجدان عمومی را در تصمیم خود دخیل کند.

وی با ذکر مثالی تکان‌دهنده گفت: برای مثال، یک فرمانده ممکن است خطر مرگ پنج غیرنظامی را برای کشتن ۱۰ سرباز دشمن بپذیرد؛ اما اگر آن پنج غیرنظامی، کودک باشند، ممکن است همان خطر را حتی برای کشتن ۲۰ سرباز نپذیرد. این تصمیم، مرتبط با «زمینه» است؛ با «معنا» است؛ با «ارزش‌گذاری اخلاقی» است. در سیستم‌های خودکار، این اراده و قضاوت انسانی حذف می‌شود و تصمیم بر مبنای پارامتر‌های از پیش‌تعیین‌شده گرفته می‌شود.

دکتر عاملی تأکید کرد: نکته سوم، پرهیز از کشتار جمعی هوشمند است. در اینجا باید و نباید‌های بسیاری وجود دارد. یک دوره‌ای بود که بشر آن‌قدر در هیجان و عصبیت جاهلیت زندگی می‌کرد که ذهنش به او حکم می‌کرد: «بکش اگر می‌خواهی قدرت پیدا کنی». امپراتوری‌ها با همین کشتار‌ها جلو رفتند.

وی افزود:، اما امروز که در قرن بیست‌ویکم میلادی قرار داریم و هزاره‌هایی از عمر بشر گذشته، توقع می‌رود که دیگر شاهد کشتار جمعی نباشیم. از این‌رو، گروه کارشناسان دولتی ذیل کنوانسیون سلاح‌های متعارف (CCW) از سال ۲۰۱۴ تاکنون مشغول بحث بر سر مفهوم «نظارت معنادار انسانی» است؛ اما با وجود گذشت بیش از یک دهه، هنوز به یک تعریف الزام‌آور دست نیافته‌اند.

دکتر عاملی با تشریح مولفه‌های نظارت معنادار گفت: با این حال، اجماع رو به رشدی در میان حقوق‌دانان، جامعه مدنی و بسیاری از دولت‌ها شکل گرفته که بر اساس آن، «نظارت معنادار» مستلزم آن است که یک انسان مسئول بتواند در زمان واقعی، بر فرآیند شناسایی، انتخاب و درگیری با هدف نظارت کند؛ و این نظارت نباید به یک «تأیید نمادین» تقلیل یابد.

وی سه عنصر کلیدی این نظارت را برشمرد: تصمیم‌گیرنده انسانی باید به تمام اطلاعات مرتبط با هدف دسترسی داشته باشد و این اطلاعات نباید توسط الگوریتم فیلتر یا تحریف شود. اگر الگوریتم فقط بخشی از داده‌ها را نمایش دهد، تصمیم انسانی مخدوش می‌شود. مسئولیت تصمیم نهایی باید همواره در اختیار انسان باقی بماند و سیستم نباید بتواند با تغییر پارامتر‌ها یا به‌روزرسانی خودکار، اختیار را از انسان سلب کند. انسان باید بتواند در هر لحظه، دستور توقف یا بازبینی صادر کند. باید زنجیره تصمیم‌گیری به گونه‌ای ثبت و ردیابی شود که در صورت وقوع خطا یا جنایت، مشخص باشد چه کسی، بر مبنای چه اطلاعاتی و با چه اختیاری تصمیم گرفته است. بدون پاسخگویی، نظارت معنادار بی‌معناست.

عضو شورای عالی انقلاب فرهنگی با اشاره به راهکار‌های فنی-اخلاقی پیشنهاد کرد: یکی از توصیه‌هایی که شاید در جمع‌بندی این نشست بتوانیم بر آن تأکید کنیم، پیشنهاد علمی مشخصی است که در این حوزه وجود دارد: «قفل اخلاقی» برای مهار رفتار ضد اخلاقی هوش مصنوعی در جنگ.

وی با تشریح این مکانیسم توضیح داد: ایجاد قفل اخلاقی در مدار‌های تصمیم نظامی به این صورت عمل می‌کند که اگر سیستم‌های هوش مصنوعی نتوانند با اطمینان ۹۹.۹ درصد، غیرنظامی یا نظامی بودن یک هدف را اثبات کنند، حمله به طور خودکار ممنوع شود و مورد بررسی انسانی قرار گیرد. این قفل، نه یک محدودیت فنی صرف، که یک تضمین اخلاقی برای حفظ کرامت انسانی در عصر الگوریتم‌هاست.

ضد اخلاقی‌های جنگ هوشمند علیه مردم ایران: از ترور سردار سلیمانی تا دکترین کم‌کشتار

دکتر عاملی در بخش پایانی سخنان خود، با اشاره به مصادیق عینی نقض اخلاق جنگ در عملیات‌های هوشمند علیه ایران اظهار داشت: نکته آخر من، ضد اخلاقی‌ها و ضد انسانیت‌های جنگ هوشمند علیه مردم ایران است. واقعاً چه بگوییم؟ رهبر عزیز ما را ترور کردند. دو شخصیت بزرگ را ترامپ دستور ترورشان را داد؛ یکی سردار شهید حاج قاسم سلیمانی بود که محبوب دل‌ها بود و بیش از ۱۰ میلیون نفر در تشییع جنازه‌اش شرکت کردند.

وی با تأکید بر ماندگاری یاد و نام سردار سلیمانی افزود: هرچقدر در محیط‌های شبکه‌های اجتماعی و رسانه‌ها بخواهند عکس سردار سلیمانی را حذف کنند، از دل‌ها که نمی‌توانند حذفش کنند. او انسانی با شخصیت، متمدن، الهی و عارف بود که برای حمایت از حریم انسانی جان خود را فدا کرد.

دکتر عاملی با تشریح رویکرد اخلاقی سردار سلیمانی در فرماندهی عملیات‌های نظامی گفت: در دکترین جنگ با فرماندهی سردار سلیمانی، «حداقل کشتار انسان» به عنوان یک متغیر اصلی در نظر گرفته می‌شد. ایشان بسیار پرهیز داشتند از کشتن، حتی در شرایط دشوار جنگی.

وی با نقل خاطره‌ای از شهید شعبان نصیری، از معاونان سردار سلیمانی که در روز‌های آخر جنگ دفاع از حرم به شهادت رسید، تصریح کرد: شهید شعبان نصیری به من می‌گفت: ما در فلوجه و در هر جایی که می‌خواستیم عملیات انجام دهیم، از قبل اطلاع‌رسانی می‌کردیم. به غیرنظامیان هشدار می‌دادیم که منطقه را ترک کنند. این یعنی رعایت اصل احتیاط و تفکیک، حتی در اوج درگیری.

دکتر عاملی افزود: این رویکرد، دقیقاً در تضاد با منطق جنگ هوشمند امروز است؛ جایی که یک الگوریتم در اتاقی خنک، بدون درک بافت انسانی، بدون احساس مسئولیت اخلاقی و بدون حضور در میدان، تصمیم می‌گیرد که چه کسی زنده بماند و چه کسی نه.

دکتر عاملی با اشاره به مصادیق عینی نقض اصول جنگ عادلانه اظهار داشت: متأسفانه شاهدیم که ناو‌های صلح و کشتی‌های غیرنظامی ما را بدون هیچ اطلاع قبلی و صرفاً به بهانه «تفریح» هدف قرار می‌دهند، دریانوردان صلح‌آمیز ما را به شهادت می‌رسانند و سپس می‌گویند: «می‌خواستیم تفریح کنیم، تفریح خوبی بود!» این یعنی لذت بردن از کشتن انسان‌ها؛ رفتاری که با هیچ معیار اخلاقی، انسانی یا دینی سازگار نیست.

عضو شورای عالی انقلاب فرهنگی با محکومیت ترور‌های هدفمند علیه شخصیت‌های مقاومت تصریح کرد: ما شاهد کشتار انسان‌های محبوب و مورد اعتماد مردم بودیم: رهبر شهیدمان به همراه خانواده‌اش، سردار شهید حاج قاسم سلیمانی، و فرماندهان نظامی که همگی از جنس مردم بودند؛ انسان‌هایی که وقتی می‌خواستی به آنها درجه بدهی، انگار باری سنگین بر دوششان می‌گذاشتی؛ آنها درجه‌پذیر نبودند، بلکه مسئولیت‌پذیر بودند.

وی با اشاره به آمار تکان‌دهنده تلفات غیرنظامی گفت: کودکان ما را نیز هدف قرار دادند؛ بیش از ۲۲۰ کودک در همین جنگ‌های اخیر که ما تاکنون می‌شناسیم، به شهادت رسیدند و بیش از هزار نفر از عزیزان ما به فیض شهادت نائل آمدند. این یک جنگ فاجعه‌آمیز بوده و فاجعه‌اش بزرگ‌تر از آن است که بخواهند آن را به «خطای هوش مصنوعی» نسبت دهند.

دکتر عاملی با رد توجیه «خطای فنی» در حمله به مدرسه شجره طیبه خاطرنشان کرد: زدن مدرسه شجره طیبه و به شهادت رساندن ۱۶۸ کودک معصوم را «خطای هوش مصنوعی» گرفتن، به نظر من درست نیست. اینها وحشت بزرگ می‌خواستند تولید کنند. در جنگ به سبک آمریکایی و اسرائیلی، پایه جنگ بر «وحشت» و «وحشت‌آفرینی» استوار است، نه بر اصول تفکیک، تناسب و احتیاط.

دکتر عاملی در جمع‌بندی نهایی سخنان خود تأکید کرد: تقویت اخلاق الهی در جنگ و تلاش برای از بین بردن ذهنیت جنگ‌طلبی و سلطه‌گری، شاید از همه قوانین بین‌المللی اهمیتش بیشتر باشد. چرا؟ چون قوانین بین‌المللی وقتی ضامن اجرایی نداشته باشند، وقتی قدرت‌های بزرگ آنها را نادیده بگیرند، به کاغذی پاره تبدیل می‌شوند.

وی با اشاره به رفتار‌های یکجانبه‌گرایانه دولت‌های سلطه‌گر افزود: شما می‌بینید که ترامپ نه یونسکو را می‌پذیرد، نه سازمان ملل را؛ او از بسیاری از تعهدات بین‌المللی خارج شده است. من در مقاله‌ای لیست کرده‌ام که از چه تعهداتی خارج شده و چه تعهداتی را تا به حال نقض کرده است. وقتی تعهدپذیری نباشد، قانون بین‌الملل چه تضمینی برای محافظت از غیرنظامیان دارد؟

دکتر عاملی با اشاره به هم‌صدایی ادیان الهی در محکومیت سلطه‌گری گفت: نگاه ما چیست؟ اخلاق جنگ در سنت الهی؛ سنتی که حتی پاپ فرانسیس نیز با شجاعت با روحیه سلطه‌طلبی مقابله کرد. همین سخن، میراث عیسی (ع)، موسی (ع)، ابراهیم (ع) و همه انبیای الهی است.

وی با تشریح رهنمود‌های پیامبر اکرم (ص) در آستانه اعزام نیرو‌های رزمی تصریح کرد: «پیامبر ما (ص) هرگاه جنگی صورت می‌گرفت، می‌فرمودند: «من شما را به جنگی می‌فرستم؛ از شما تقاضا می‌کنم که به نام خدا و در راه خدا و بر روش پیامبر او حرکت کنید.» سپس نخستین توصیه‌های اخلاقی خود را بیان می‌فرمودند: به دشمنان خویش خیانت نکنید؛ موقع مذاکره، جنگ را آغاز نکنید؛ اجساد را مثله نکنید؛ با دشمن مکر نورزید؛ پیرمرد ضعیف، زن و کودک را نکشید؛ درختان را قطع نکنید، مگر اینکه ناچار شوید؛ هر کس از مسلمانان، از کوچک و بزرگ، به یکی از مشرکان پناه دهد و او را امان دهد، آن فرد در امان است تا کلام خدا را بشنود؛ اگر از شما پیروی کرد، از برادران دینی شما محسوب می‌شود و اگر امتناع کرد، او را به منزلگاه امن خود برسانید.

دکتر عاملی با تأکید بر جامعیت اخلاق جنگ در اسلام خاطرنشان کرد: این رویکرد، نشان‌دهنده عمق نگاه اسلامی به جنگ است: جنگی که در آن «احترام به انسان» و «احترام به طبیعت» حتی در اوج درگیری، خط قرمز است. این همان جنگ عادلانه‌ای است که نه‌تنها با موازین بین‌المللی سازگار است، بلکه فراتر از آن، ریشه در وحی و فطرت انسانی دارد.

انتهای پیام/

ارسال نظر
captcha