صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

ورزش

سلامت

پژوهش

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

علم +

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
۰۰:۱۵ - ۲۴ فروردين ۱۴۰۰
آنا گزارش می‌دهد؛

آن‌روی سکه پیشرفت فناوری/ روبات‌ها آلت قتاله می‌شوند

بسیاری از کشورهای جهان بدون درنظرگرفتن جنبه اخلاقی، اتخاذ فناوری روباتیک در ادوات نظامی را پیش‌گرفته‌اند و این می‌تواند ضمن زیرپا گذاشتن اصول حقوق بشر، جنگ‌های آینده را دستخوش تحولات بزرگی کند.
کد خبر : 574126

به گزارش خبرنگار گروه علم و فناوری خبرگزاری آنا، حدود ۴ ماه پیش در تاریخ ۲۷ نوامبر ۲۰۲۰، «محسن فخری زاده» دانشمند هسته‌ای ایران در بزرگراهی خارج از تهران به‌همراه تیم امنیتی در حال عبور بود. ناگهان یک مسلسل کنترل‌شده توسط ماهواره، روی او «بزرگنمایی» (Zoom) کرد و با شلیک چندین گلوله او را به شهادت رساند. ترور او ناشی از به‌کارگیری سیستم روباتیک پیشرفته و مدرن جنگی بود، که این امر باعث شوک بیشتر جهانیان شد. قبل از این حادثه تروریستی، حتی زمانی که مردم از سلاح‌های خودکار و فناوری جنگی روباتیک آگاه بودند، کسی درواقع از آنها نمی‌ترسید. اما این حمله وحشیانه چراغی را در مورد وضعیت آینده جنگ روشن کرد.





هوش مصنوعی و روباتیک در جنگ برای بسیاری از ارتش‌های جهان چیز جدیدی نیست. در حال حاضر، بخش‌های دفاعی بسیاری از کشورها از «سیستم سلاح‌های خودکار کشنده» (LAWS) برای غنی‌سازی توانایی‌های نظامی خود استفاده می‌کنند. اما آنچه خیلی سریع پیش می‌رود، توسعه فناوری روباتیک در کاربردهای جنگی است. آنها بسیار پیچیده شده‌اند که در برخی موارد، مردم مفهوم «روبات‌های قاتل» را به‌کار می‌برند و از آنها ترس دارند. از طرف دیگر، افزایش استفاده از سلاح‌های خودکار وجود دارد که درنهایت منجر به موضع‌گیری‌های بحث‌برانگیز در مورد اصول اخلاقی آن می‌شود.




بیشتر بخوانید:


سیطره هوش مصنوعی بر جنگ‌های آینده/ به‌کارگیری میکروپهپادهای قاتل برای عملیات‌های تروریستی




چرا دنیا به سمت جنگ روباتیک و سلاح‌های خودکار می‌رود؟


هر وقت از روبات‌های پیشرفته جنگ می‌شنویم، ممکن است تعجب کنیم که آیا نیروهای ارتش برای انجام عملیات کافی نیستند؟ در جواب باید گفت، در دنیای دیجیتال که حول فناوری می‌چرخد، افراد ارتش با سلاح‌های پیشرفته در مقابل جنگ روباتیک حرفی برای گفتن ندارند! چهره جنگ به‌شدت در حال تغییر است. در دوران باستان مردم با شمشیر می‌جنگیدند، اما امروز، کشورها از تانک‌ها و سلاح‌های پیشرفته استفاده می‌کنند. این تحولی است که ما با فناوری تجربه می‌کنیم. علاوه بر این، انسان‌ها گوشت و خون هستند. درواقع انسان‌ها شرایط خاصی دارند، خسته می‌شوند و در برابر روبات‌ها که شبانه‌روزی می‌توانند کار کنند، نمی‌توانند مقابله کنند. بنابراین برخی کشورها از روبات‌های جنگی پیشرفته استفاده می‌کنند.





اخیراً یک مطالعه بر اساس متغیرهای جمعیتی از مشکلاتی که نیروهای نظامی در میدان جنگ با آن روبرو شده‌اند، پرده برداشته است. این مجموعه‌داده شامل چندین ویژگی بهداشتی و جمعیتی در میان بیماران سال ۲۰۱۳ است. طبق این مجموعه‌داده، سه بیماری مهم که کهنه سربازان از آن رنج می‌برند فشارخون، اختلالات چربی و دیابت است. علاوه بر این، استرس و فشارخون بالا نیز بر آمادگی نظامی تأثیر می‌گذارد.


افزایش اتخاذ «سیستم سلاح‌های خودکار کشنده» (LAWS)


«سیستم سلاح‌های خودکار کشنده» (LAWS) دسته خاصی از سیستم‌های تسلیحاتی است که با استفاده از مجموعه حسگرها و الگوریتم‌های رایانه‌ای به‌طور مستقل یک هدف را شناسایی می‌کند. سپس با استفاده از یک سیستم سلاح که روی آن قرار دارد هدف را بدون کنترل انسانی از بین می‌برد. اگرچه این سیستم‌ها هنوز به‌طور گسترده مورداستفاده قرار نگرفته‌اند، اما اعتقاد بر این است که آنها می‌توانند در محیط‌های پست، محروم و دورافتاده که ممکن است سیستم‌های سنتی قادر به کار نباشند، عملیات نظامی را انجام دهند.





جذابیت چنین فناوری‌هایی واضح است و انقلابی در جنگ ایجاد خواهد کرد. اگرچه ممکن است نگرانی‌ها برای سیستم سلاح‌های خودکار کشنده بیش‌ازحد باشد، اما وقتی به این فکر می‌کنید که از این سیستم‌ها برای مدیریت جنگ استفاده شود، سؤالات مهم‌تری در مورد اخلاق و الگوریتم مطرح می‌شود. درواقع احتیاط و تمرکز واقع‌بینانه بر حفظ مرکزیت انسان در تصمیم‌گیری درباره جنگ بسیار مهم خواهد بود.


مسائل اخلاقی جنگ روباتیک


نه‌تنها روباتیک، بلکه به‌طورکلی هوش مصنوعی نیز در جنگ با چالش‌های اخلاقی روبرو است. انسان‌ها چیزی به نام حس ششم دارند که تصمیم می‌گیرد که انجام برخی اعمال درست است یا غلط. درواقع در جنگ بین نیروهای انسانی، نیروهای ارتش تصمیم نهایی می‌گیرند که آیا به شخصی که اسلحه در دست دارد شلیک کنند یا خیر. اما جنگ رباتیک و سلاح‌های خودکار متفاوت است؛ آنها به طور خودکار برای شلیک به سمت افرادی که تهدید می‌کنند برنامه‌ریزی شده‌اند. درواقع به‌احتمال‌زیاد افراد بی‌گناه بسیاری در این میان کشته خواهند شد.





سؤالاتی ازجمله این‌که وقتی سلاح خودکار عمل اشتباهی انجام می‌دهد چه کسی مقصر است؟  اگر جنگ روباتیک از شرایط جنگی یک‌جانبه بدون ریسک پیروی نکند چه می‌شود؟ وقتی دستگاه تبعیض قائل می‌شود چه باید کرد؟ چگونه می‌توان الگوریتم مغرضانه هوش مصنوعی را که پشت روباتیک در جنگ است، مدیریت کرد؟ و غیره بی‌پاسخ مانده است. ازاین‌رو دولت‌ها باید قبل از اینکه با سلاح خودکار به جنگ بروند، ابتدا باید تکلیف چنین ابهامات و مسائلی را روشن کنند. موضوعاتی که اغلب با جان مردم سروکار دارد و می‌تواند برای یک ملت فاجعه‌بار باشد.


انتهای پیام/۴۱۱۲/

انتهای پیام/

ارسال نظر