صفحه نخست

آناتک

آنامدیا

دانشگاه

فرهنگ‌

علم

سیاست و جهان

اقتصاد

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

همدان

هرمزگان

یزد

پخش زنده

۲۲:۵۸ | ۳۰ / ۱۱ /۱۴۰۴
| |

پنتاگون برای استفاده بی‌قیدوشرط نظامی از هوش مصنوعی، آنتروپیک را تهدید کرد

وزارت دفاع آمریکا در اقدامی کم‌سابقه، شرکت هوش مصنوعی آنتروپیک را به دلیل مقاومت در برابر استفاده نظامی نامحدود از ابزارهایش، تهدید به قطع همکاری و قرار دادن در لیست «ریسک زنجیره تأمین» کرده است. این تنش که بر سر تعیین چارچوب‌های اخلاقی برای به‌کارگیری مدل هوش مصنوعی کلود در عملیات‌های نظامی شکل گرفته، می‌تواند زمینه را برای تسلط کامل پنتاگون بر فناوری‌های نوظهور و استفاده از آن‌ها در مقاصد نظامی بدون نظارت فراهم کند.
کد خبر : 1034247

یک مقام ارشد پنتاگون به آکسیوس اعلام کرد پیت هگست، وزیر دفاع آمریکا، در آستانه قطع روابط تجاری با آنتروپیک و معرفی این شرکت به عنوان یک «ریسک در زنجیره تأمین» قرار دارد. چنین اقدامی، که معمولاً علیه نهاد‌های خارجی متخاصم به کار گرفته می‌شود، تمام شرکت‌های طرف قرارداد با ارتش آمریکا را ملزم می‌کند تا به همکاری خود با آنتروپیک پایان دهند. این مقام مسئول با اشاره به پیچیدگی‌های قطع این همکاری افزود: «این جداسازی فرایندی بسیار دشوار خواهد بود و ما اطمینان حاصل خواهیم کرد که آنها بهای این اقدام را بپردازند.» این رویکرد سخت‌گیرانه نشان‌دهنده عزم پنتاگون برای رفع هرگونه مانع در مسیر بهره‌برداری کامل از هوش مصنوعی در امور نظامی است.

ریشه این اختلاف به مذاکرات پرتنشی بازمی‌گردد که ماه‌ها میان پنتاگون و آنتروپیک بر سر شرایط استفاده ارتش از مدل هوش مصنوعی کلود در جریان بوده است. شرکت آنتروپیک با وجود آمادگی برای انعطاف در شرایط فعلی، به دنبال تضمین‌هایی است تا از ابزار‌های خود برای جاسوسی گسترده از شهروندان آمریکایی یا توسعه سلاح‌های کاملاً خودکار که بدون دخالت انسان شلیک می‌کنند، استفاده نشود. در مقابل، پنتاگون این محدودیت‌ها را غیرعملی و مانعی برای عملیات‌های خود می‌داند و اصرار دارد که باید بتواند از این فناوری برای تمام اهداف قانونی بهره‌برداری کند؛ عبارتی کلی که می‌تواند طیف وسیعی از فعالیت‌های نظامی را بدون شفافیت پوشش دهد.

اهمیت این مناقشه زمانی آشکار می‌شود که بدانیم مدل کلود آنتروپیک در حال حاضر تنها مدل هوش مصنوعی است که در سیستم‌های طبقه‌بندی‌شده ارتش آمریکا به کار گرفته شده و در بسیاری از کاربرد‌های تجاری نیز پیشرو محسوب می‌شود. قابلیت‌های این مدل به قدری در ساختار نظامی آمریکا نهادینه شده که بر اساس گزارش‌ها، در عملیات نظامی دی ماه علیه ونزوئلا نیز از آن استفاده شده است. شان پارنل، سخنگوی ارشد پنتاگون، در این باره گفت: «رابطه وزارت دفاع با آنتروپیک در حال بازبینی است. ملت ما ایجاب می‌کند که شرکای ما مایل به کمک به رزمندگان ما برای پیروزی در هر نبردی باشند.» این اظهارات نشان می‌دهد که پنتاگون هرگونه محدودیت اخلاقی را مانعی برای دستیابی به برتری نظامی تلقی می‌کند.

رویکرد تهاجمی پنتاگون در قبال آنتروپیک، پیامی روشن برای سایر شرکت‌های فناوری هوش مصنوعی مانند اوپن‌ای‌آی، گوگل و xAI است. این شرکت‌ها پیش از این با حذف برخی محدودیت‌ها برای استفاده از ابزارهایشان در سیستم‌های غیرطبقه‌بندی‌شده ارتش موافقت کرده‌اند، اما اکنون برای استفاده در حوزه‌های حساس‌تر و طبقه‌بندی‌شده تحت فشار قرار گرفته‌اند. یک مقام ارشد دولتی ابراز اطمینان کرده است که سه شرکت دیگر با استاندارد «استفاده برای تمام اهداف قانونی» موافقت خواهند کرد، اما منابع آگاه می‌گویند بسیاری از جزئیات این مذاکرات همچنان نامشخص باقی مانده و این فشار بر آنتروپیک، ابزاری برای وادار کردن سایرین به پذیرش خواسته‌های پنتاگون است.

اعمال تحریم ریسک زنجیره تأمین علیه آنتروپیک می‌تواند پیامد‌های اقتصادی و لجستیکی گسترده‌ای داشته باشد. با توجه به نفوذ گسترده آنتروپیک - که طبق گزارش‌ها، هشت شرکت از ده شرکت بزرگ آمریکایی از خدمات آن بهره می‌برند - این الزام می‌تواند اختلالات جدی در صنایع مختلف ایجاد کند. اگرچه ارزش قرارداد مورد تهدید پنتاگون (حدود ۲۰۰ میلیون دلار) بخش کوچکی از درآمد ۱۴ میلیارد دلاری آنتروپیک است، اما این مناقشه بیشتر بر سر تعیین اصول حاکم بر آینده همکاری میان بخش فناوری و مجتمع نظامی-صنعتی آمریکا است تا مسائل مالی.

ارسال نظر
captcha