جنگ انسان و هوش مصنوعی چگونه پایان مییابد؟
به گزارش خبرنگار خبرگزاری علم و فناوری آنا، بحث تسلط هوش مصنوعی و رباتها بر انسان، مدتهاست که ذهن دانشمندان و البته سازندگان فیلمهای علمی و تخیلی را به خود مشغول کرده است. این موضوع از دهههای ۸۰ و ۹۰ میلادی بهطور جدی وارد سینما شده و شاید مشهورترین نمونه این جریان، مجموعه ترمیناتور محسوب شود.
در سالهای اخیر نیز هشدارهای متعددی در مورد تهدید بالقوه ناشی از هوش مصنوعی مشاهده شده است و برخی تحلیلگران معتقدند رشد بیمرز و کنترل نشده هوش مصنوعی میتواند به تحولات ترسناکی منجر شده و درنهایت شاهد جنگ انسانها و روباتها باشیم.
بارزترین نگرانی مطرحشده در این رابطه، ترسیم آیندهای است که در آن هوش مصنوعی بهطور مستقل و با اراده خودش از سلاحها علیه انسان استفاده میکند.
پل شار (Paul Scharre)، نویسنده کتاب چهار میدان نبرد: قدرت در عصر هوش مصنوعی و معاون مرکز امنیت آمریکا و افسر آژانس پروژههای تحقیقاتی پیشرفته دفاعی در این رابطه تهدید هوش مصنوعی را مورد بررسی قرار داده است. وی در یک عملیات شبیهساز هوایی، یک خلبان انسانی را در برابر هوش مصنوعی قرار داده و نتیجه را بررسی کرد.
شار در این رابطه میگوید: هوش مصنوعی نهتنها خلبان انسانی را ۱۵ به صفر درهم کوبید، بلکه حرکاتی انجام داد که انسان هیچگاه نمیتواند انجام دهد. بهطور خاص، هوش مصنوعی قادر بود تیراندازی با دقت بسیار بالا و در کسری از ثانیه انجام دهد.
به باور بسیاری از محققان، چشمانداز قدرت بخشیدن به هوش مصنوعی و استفاده نظامی از این فناوری برای جنگیدن در میدان نبرد و تصمیمگیری در مورد زندگی یا مرگ انسانها، شرایط ناراحتکنندهای را ایجاد میکند. بهعنوان مثال، اگر یک هوش مصنوعی اشتباه کند و بهطور تصادفی یک غیرنظامی را بکشد، چه اتفاقی میافتد؟ شار میگوید: این یک جنایت جنگی است و مشکل اینجاست که در این شرایط شما نمیتوانید کسی را تنبیه کرده و اصولاً کسی پاسخگو نیست.
به باور متخصصین، در آیندهای نزدیک، محتملترین استفاده از هوش مصنوعی در جنگ در تاکتیکها و تحلیلها خواهد بود. باید اذعان داشت که هوش مصنوعی میتواند به پردازش اطلاعات بهتر و کارآمدتر کردن ارتشها کمک کند.
به گزارش آنا، شار در ادامه توضیحاتش میگوید: من فکر میکنم ارتشها دیر یا زود مجبور خواهند شد تصمیمگیریهای بیشتری را به هوش مصنوعی بسپارند، زیرا ارتش یک محیط رقابتی بیرحمانه است. باید اعتراف کرد که اگر مزیتی وجود داشته باشد و دشمن شما آن را بپذیرد و شما نگیرید، شکست خواهید خورد و این موضوع میتواند به یک مسابقه تسلیحاتی هوش مصنوعی، مشابه مسابقه تسلیحات هستهای منجر شود.
در حال حاضر برخی از محققان چینی در مورد شرایط تکینگی در میدان نبرد که دیگر شرایط عادی حکمفرما نیست فرضیههایی را مطرح کردهاند. این نقطه زمانی است که سرعت تصمیمگیری مبتنی بر هوش مصنوعی، سرعت توانایی انسان برای درک را تحتالشعاع قرار میدهد و انسانها باید بهطور مؤثر کلید سیستمهای مستقل را برای تصمیمگیری در میدان جنگ تحویل هوش مصنوعی داده و کورکورانه از آن پیروی کنند.
البته، در چنین سناریویی، این احتمال وجود دارد که کنترل هوش مصنوعی را از دست بدهیم و یا حتی هوش مصنوعی علیه ما باشد. از این رو این سیاست ایالاتمتحده است که انسانها همیشه در ارتباط با هر تصمیمی برای استفاده از سلاح هستهای در جریان هستند.
در اینجا یک نقل قول از ایلان ماسک میتواند موضوع را قابل فهمتر کند. در حقیقت هوش مصنوعی با انسان دشمنی ندارد، اما اگر بخواهد بهطور مستقل عمل کرده و برنامهای را پیاده کند و انسانها مانعی در این مسیر باشند، بدون ذرهای تردید انسان را از بین خواهد برد. برای نمونه فرض کنید مهندسان راهسازی در حال ساخت یک جاده هستند و یک لانه مورچه در مسیر آنها قرار دارد. آنها بدون تردید و ذرهای عذاب وجدان، لانه مورچهها را تخریب کرده و اصولاً به این موضوع فکر نمیکنند.
شار در این رابطه میگوید: در بسیاری از کشورها مانند روسیه و چین، قوانین محدودکننده هوش مصنوعی در حوزه نظامی مبهم است. بنابراین، نگرانیهای زیادی در این رابطه وجود دارد و اگر هوش مصنوعی توسط برخی کشورها بهطور کنترل نشده استفاده شده و سپس علیه ما اعلام جنگ کند، نمیتوان به پیروزی خوشبین بود.
انتهای پیام/