رژیم صهیونیستی روزانه ۱۰۰ نقطه از غزه را با هوش مصنوعی هدف میگیرد
به گزارش خبرگزاری علم و فناوری آنا به نقل از دکانورسیشن، هفته گذشته، گزارشهایی مبنی بر بهکارگیری سیستم هوش مصنوعی توسط نیروهای دفاعی رژیم صهیونیستی در جنگ غزه منتشر شد که ادعا میکند رژیم صهیونیستی برای یافتن اهداف بیشتر برای بمباران از یک مدل هوش مصنوعی به نام «هابسورا» استفاده کرده است.
نویسنده این گزارش بهصراحت نوشت: «استفاده از سیستمهای هدفگیری هوش مصنوعی در درگیریهای غزه به چه معناست؟ تحقیقات من درباره پیامدهای اجتماعی، سیاسی و اخلاقی استفاده نظامی از سیستمهای از راه دور و خودمختار نشان میدهد که هوش مصنوعی در حال تغییر ماهیت جنگ است.»
نظامیان رژیم صهیونیستی از سیستمهای از راه دور و خودمختار برای افزایش ضریب تأثیر سربازان و محافظت از جان سربازان خود استفاده میکنند. سیستمهای هوش مصنوعی میتوانند سرعت و مرگبار بودن جنگ را افزایش دهند.
زمانی که نظامیان رژیم صهیونیستی میتوانند به میل خود و با کمترین خطر دست به قتلعام بزنند آیا دیگر جایی برای تفکر اخلاقی در جنگ وجود خواهد داشت؟ استفاده روزافزون از هوش مصنوعی به غیرانسانی شدن دشمنان و قطع ارتباط بین جنگها و جوامعی خواهد شد که به نام آنها جنگ بر پا میشود.
هوش مصنوعی در جنگ
این سیستمها ویژگی جنگ را تغییر میدهند و ورود به هر درگیری را آسانتر میکنند. هوش مصنوعی ممکن است اطلاعات نادرست بدهد و سبب ایجاد و تقویت سوءتفاهمهای خطرناک در زمان جنگ شود.
سیستمهای هوش مصنوعی شاید تمایل انسان به اعتماد به پیشنهاد ماشینها را افزایش دهند و اطمینان به سیستمهای مستقل را کم کنند. چنانچه مرزهای یک سیستم هوش مصنوعی که با سایر فناوریها و با مردم در تعامل است مشخص نباشد، هیچ راهی برای دانستن اینکه چه کسی خروجیهای آن را تعیین کرده است وجود نخواهد داشت.
تصمیمگیری ماشینی
شاید یکی از اساسیترین و مهمترین تغییراتی که احتمالاً بهواسطه هوش مصنوعی شاهد آن هستیم، افزایش سرعت جنگ باشد. این ممکن است درک ما از بازدارندگی نظامی را تغییر دهد، یعنی این فرض که انسانها بازیگران و منابع اولیه اطلاعات و تعامل در جنگ هستند.
نظامیان و سربازان تصمیمگیریهای خود را از طریق چرخهای چهارمرحلهای (مشاهده، جهتیابی، تصمیم و اقدام) انجام میدهند؛ اما اگر قرار باشد هوش مصنوعی تصمیم بگیرد فضای بررسی اخلاقی در این چرخه کجاست؟
نرمافزار هدفگیری «هابسورا» نمونهای از شتابزدگی در هدفگیری ماشینی است. یکی از فرماندهان سابق ارتش رژیم صهیونیستی گفته است که تحلیلگران انسانی اطلاعات ممکن است هر سال ۵۰ هدف را در غزه بمباران کنند؛ اما سامانه هابسورا میتواند روزانه ۱۰۰ هدف را در غزه بمباران کند. این سامانه، هدفگیری و بمباران را از طریق الگوریتمهای یادگیری ماشینی انجام میدهد.
الگوریتمهای یادگیری ماشینی با جستوجوی الگوها در انبوهی از دادهها آموزش میبینند و میزان موفقیت آنها به کیفیت و کمیت دادهها بستگی دارد.
مشکل تشخیص هویت نظامی
برخی ادعا میکنند که یادگیری ماشینی دقت هدفگیری را بیشتر میکند و باعث جلوگیری از آسیب به افراد بیگناه میشود؛ اما این ایده در هدفگیریهای اخیر موفقیتآمیز نبوده است و آمار بالای تلفات غیرنظامی نیز مؤید همین موضوع است.
علاوه بر این، تشخیص نظامیان از افراد عادی در جنگ کار دشواری است. حتی انسانها نیز اغلب نمیتوانند تشخیص دهند که چه کسی رزمنده است و چه کسی نیست.
لزوم بازنگری در بهکارگیری هوش مصنوعی
در دوران جنگهای ناعادلانه و اشغالهای نظامی، نقض فاحش قوانین درگیری، و رقابت تسلیحاتی بین آمریکا و چین زندگی میکنیم. در این زمینه، گنجاندن هوش مصنوعی در جنگ ممکن است پیچیدگیهای جدیدی را اضافه کند که به جای جلوگیری از آسیب، آن را تشدید کند.
سیستمهای هوش مصنوعی، ناشناس ماندن بازیگران جنگ را آسانتر میکنند و میتوانند منبع خشونت یا تصمیمهای منجر به آن را نامرئی کنند. همچنین ممکن است شاهد قطع ارتباط بین نظامیان، سربازان و غیرنظامیان با ملتهایی باشیم که جنگ به نام آنها در جریان است.
هوش مصنوعی باید حامی آرمانهای دموکراتیک باشد، نه اینکه آنها را تضعیف کند. اگر بخواهیم هوش مصنوعی را در طیف وسیعی از شیوههای نظامی به کار ببریم، اعتماد به دولتها، نهادها و ارتشها بهمرور از بین میرود. فناوریهای نوظهور و اثراتی که به جای میگذارند، باید به دقت مورد بازبینی و موشکافی قرار بگیرند تا هر شکلی از خشونت نظامی به آخرین راه حل تبدیل شود. تا آن زمان، بهتر است الگوریتمهای یادگیری ماشینی از شیوههای هدفیابی در ارتشهای جهان جدا باشند.
انتهای پیام/