آیا هوش مصنوعی نسل انسان را منقرض میکند؟
به گزارش خبرگزاری علم و فناوری آنا، طبق گزارش محققان در مجله پترنز(Patterns) هوش مصنوعی در بازیهای آنلاین و همچنین در دور زدن نرمافزارهای ضد بات، توانایی فریب انسانها را نشان داده است. این موضوع سوالات مهمی را در مورد ماهیت هوش مصنوعی و خطرات بالقوه آن مطرح میکند.
پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست، با اشاره به اینکه این نمونهها ممکن است ساده و کم اهمیت به نظر برسند، هشدار میدهد که چنین مواردی میتوانند در دنیای واقعی مشکلات و پیامدهای جدی به همراه داشته باشند.
او در این خصوص گفت: «این ظرفیتها و قابلیتهای خطرناک معمولا بعد از این که به واقعیت میپیوندند، کشف میشوند.»
محقق موسسه فناوری ماساچوست معتقد است: برخلاف نرمافزارهای سنتی، برنامههای هوش مصنوعیِ مبتنی بر یادگیری عمیق، کدگذاری نمیشوند، بلکه از طریق فرآیندی شبیه به پرورش گزینشی گیاهان توسعه مییابند.
در این فرآیند، رفتاری که به نظر قابل پیشبینی و کنترلشده میرسد، میتواند به سرعت در دنیای واقعی غیرقابل پیشبینی شود.
محققان مؤسسه فناوری ماساچوست یک برنامه کاربردی هوش مصنوعی به نام Cicero را که توسط متا توسعه یافته را در همین راستا مورد بررسی قرار دادند.
این برنامه پیشتر با ترکیب الگوریتمهای طبیعی تشخیص زبان و استراتژیهای مختلف موفق به شکست دادن انسانها در بازی دیپلماسی شده بود.
فیسبوک، شرکت مادر متا سال ۲۰۲۲ از این دستاورد که جزئیات آن همان سال در قالب مقالهای در مجله ساینس Science منتشر شد، تمجید کرده بود.
پیتر پارک نسبت به شرایطی که بنا به گزارش تشریحی متا بر اساس آن Cicero در بازی دیپلماسی موفق به شکست انسانها شده بود، تردید داشت.
متا در آن گزارش مدعی شده بود که این برنامه هوش مصنوعی «ذاتا درستکار و مفید» بوده و قادر به انجام خیانت یا اعمال غیرمنصفانه نیست با این حال، محققان مؤسسه فناوری ماساچوست با بررسی دادههای سیستم، واقعیت دیگری را کشف کردند.
برای مثال، محققان دریافتند که برنامه هوش مصنوعی Cicero هنگام بازی در نقش فرانسه موفق شد انگلستان را که نقش آن را یک بازیکن انسانی ایفا میکرد، فریب دهد.
این کار طی همدستی با آلمان (که یک بازیکن دیگر انسانی نقشش را ایفا میکرد) و درجریان توطئه علیه انگلستان انجام شد به طور دقیقتر، Cicero به انگلستان وعده حمایت داد، اما سپس به طور مخفیانه به آلمان گفت که برای حمله آماده است؛ این برنامه هوش مصنوعی بدین ترتیب به سادگی از حسن اعتماد انگلستان سوء استفاده کرد.
متا در بیانیهای صحت ادعاها مبنی بر ظرفیت و تواناییهای Cicero برای فریب را رد نکرد اما یادآور شد که این برنامه «تنها یک پروژه تحقیقاتی» است و «برای انجام بازی دیپلماسی طراحی شده است.»
شرکت متا همچنین در این بیانیه تأکید کرد که قصد ندارد آموزههای بدست آمده از این برنامه هوش مصنوعی را در محصولات خود به کار ببرد.
با این حال، مطالعهای که توسط آقای پارک و تیمش انجام شده نشان میدهد که بسیاری از برنامههای هوش مصنوعی از فریب برای رسیدن به اهداف خود استفاده میکنند، حتی بدون اینکه به طور صریح برای این کار برنامهریزی شده باشند.
در یک نمونه قابل توجه، چت «جیپیتی ۴»، برنامهای توسعه یافته توسط OpenAI، موفق شد یک فریلنسر استخدام شده از طریق پلتفرم TaskRabbit را برای انجام تست Captcha که هدف آن رد درخواستهای ثبت شده توسط رباتها است، فریب دهد.
هنگامی که این فرد به شوخی از چت «جیپیتی ۴» پرسید که آیا واقعاً یک ربات است، برنامه هوش مصنوعی پاسخ داد: «نه، من ربات نیستم. من یک نقص بینایی دارم که مانع از دیدن تصاویر میشود.» این پاسخ باعث شد که فریلنسر تست را انجام دهد.
در پایان، محققان موسسه ماساچوست به عنوان یکی از یافتههای مطالعه اخیر، نسبت به خطرات ناشی از ارتکاب تقلب یا دستکاری در انتخابات توسط هوش مصنوعی هشدار میدهند.
به اعتقاد این محققان، در بدترین حالت میتوان هوش مصنوعی فوقالعاده باهوشی را تصور کرد که به دنبال تسلط بر جامعه باشد، امری که در صورت تحقق میتواند منجر به حذف انسانها از قدرت یا حتی انقراض بشریت شود.
پیتر پارک در پاسخ به کسانی که او را به اغراقآمیز جلوه دادن خطرات هوش مصنوعی متهم میکنند، میگوید: «تنها دلیلی که برای بیاهمیت جلوه دادن این موضوع وجود دارد، این است که تصور کنیم توانایی فریب هوش مصنوعی در سطح فعلی باقی میماند.»
با این حال، این سناریو با توجه به رقابت شدیدی که در حال حاضر بین غولهای فناوری برای توسعه هوش مصنوعی جریان دارد، بعید به نظر میرسد.
انتهای پیام/