صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
۰۸:۲۹ - ۳۰ آذر ۱۴۰۳

گوترش درباره خطرات استفاده از هوش مصنوعی در جنگ هشدار داد

دبیر کل سازمان ملل می‌گوید مسئله‌ای که بسیار نگران‌کننده است احتمال تلفیق هوش مصنوعی با سلاح‌های هسته‌ای و طراحی سامانه‌های کوانتومی هوش مصنوعی است که می‌توانند امنیت جهان را به خطر بیندازند.
کد خبر : 947486

به گزارش خبرگزاری آنا، «آنتونیو گوترش» دبیرکل سازمان ملل متحد علی‌رغم اشاره به کاربرد‌های مثبت هوش مصنوعی از جمله در زمینه مسائل اقلیمی درباره مخاطرات این فناوری هشدار‌هایی را مطرح کرد.

 دبیر کل سازمان ملل هشدار داد پیشرفت‌های سریع در عرصه هوش مصنوعی از توانایی بشریت برای مدیریت آنها سبفت گرفته‌اند. گوترش خواستار تدوین مکانیسم‌هایی بین‌المللی برای محافظت از بشر در برابر مخاطرات احتمالی هوش مصنوعی شد و درباره هر گونه تأخیر در این زمینه هشدار داده است. 

وی گفت: «هیچ کشوری نباید اقدام به طراحی، توسعه، استقرار یا استفاده از کاربرد‌های نظامی هوش مصنوعی در درگیری‌های مسلحانه کند. چنین کاربرد‌های ناقض قوانین بین‌المللی و حقوق بشری هستند.» 

بعد از آغاز جنگ اسرائیل در غزه برخی از رسانه‌های غربی گزارش داده بودند رژیم صهیونیستی با توسعه برنامه‌ای به نام «گاسپل» از هوش مصنوعی برای هدف قرار دادن اهداف مختلف از جمله مناطق مسکونی استفاده می‌کند. این مسئله در آن زمان یکی از دلایل اصلی بالا بودن تلفات غیرنظامیان در جنگ غزه عنوان شده بود. 

گوترش بدون نام بردن از رژیم صهیونیستی گفته است: «درگیری‌های اخیر به میادینی برای آزمایش کاربرد‌های نظامی هوش مصنوعی تبدیل شده‌اند.» 

گوترش گفت مسئله‌ای که بسیارنگران‌کننده است احتمال تلفیق هوش مصنوعی با سلاح‌های هسته‌ای و طراحی سامانه‌های کوانتومی هوش مصنوعی است که می‌توانند امنیت جهان را به خطر بیندازند. او تأکید کرد: «سرنوشت بشریت نباید به جعبه سیاه یک الگوریتم سپرده شود.»

انتهای پیام/

ارسال نظر