دیده بان پیشرفت علم، فناوری و نوآوری
آنا گزارش می‌دهد؛

تهدید هستی بشر به دست انسان، به نامِ هوش مصنوعی!

تهدید هستی بشر به دست انسان، به نامِ هوش مصنوعی!
هوش مصنوعی شاید آن گونه که خیلی‌ها آن را تهدیدی شوم علیه هستی می‌دانند نباشد. بر اساس یک مطالعه جدید، مشخص شده است که مدل‌های بزرگ زبانی فقط می‌توانند دستورالعمل‌ها را دنبال کنند و به تنهایی نمی‌توانند مهارت‌های جدیدی را توسعه دهند و ذاتاً «قابل کنترل، قابل پیش‌بینی و ایمن» هستند، که خبر خوبی برای ما انسان‌هاست.
کد خبر : 928352

خبرگزاری علم و فناوری آنا؛ رئیس‌جمهور ایالات متحده به همه گفته است که اکنون یک رایانه فوق هوشمند جدید وظیفه حفظ امنیت کشورش را بر عهده دارد. این کامپیوتر تمام سلاح‌های بزرگ آمریکارا کنترل می‌کند و آنقدر هوشمند است که نمی‌تواند اشتباه کند. حتی می‌تواند چیزهای جدیدی یاد بگیرد و همیشه در کارش بهتر شود.

اما تصور کنید در مراسمی که رئیس جمهور در حال تشکر از دانشمندان هوش مصنوعی است، سیستم ناگهان و بدون هیچ درخواستی شروع به ارسال پیام‌هایی غیرمنتظره کند و مهمانان را تهدید کند که اگر از درخواست‌های سیستم اطاعت نکنند یک شهر بزرگ را ویران خواهد کرد!

این شبیه سناریوهای کابوس‌واری است که در سال‌های اخیر درباره هوش مصنوعی می‌شنویم و اگر هنوز خیلی دیر نشده باشد، باید کاری انجام دهیم وگرنه، هوش مصنوعی خود به خود تکامل می‌یابد، هوشیار می‌شود و روزی می‌رسد که انسان خردمند به سطح حیوانات خانگی تقلیل می‌یابد، یعنی قدرت تصمیم‌گیری را از دست می‌دهد و شاید هم هوش مصنوعی تصمیم بگیرد بشریت را نابود کند.

باید در نظر داشت که هوش مصنوعی حداقل از دهه 1960 وجود داشته است و چندین دهه در بسیاری از زمینه‌ها استفاده شده است. این ما هستیم که تمایل داریم این فناوری را «جدید» بدانیم زیرا اخیراً سیستم‌های هوش مصنوعی که زبان و تصاویر را مدیریت می‌کنند، به طور گسترده در دسترس قرار گرفته‌اند

شش دهه حضور هوش مصنوعی

نکته عجیب این است که مَثَل بالا مربوط به سال ۲۰۲۴ نیست، بلکه مربوط به سال ۱۹۷۰ است. این یک داستان مهیج علمی تخیلی، به نام «کلوسوس: پروژه فوربین» (Colossus: The Forbin Project) و درباره ابررایانه‌ای است که به راحتی جهان را تسخیر می‌کند. این یک ایده داستانی است که از زمانی که اولین کامپیوتر‌های واقعی در دهه ۱۹۴۰ ساخته شدند وجود داشته و بار‌ها و بار‌ها در کتاب‌ها، فیلم‌ها، تلویزیون و بازی‌های ویدیویی بیان شده است.

این ترسِ بسیار جدیِ برخی از پیشرفته‌ترین متفکران علوم رایانه است که همواره با آن درگیرند و ناگفته نماند که بسیاری از مجلات در دهه ۱۹۶۰ میلادی درباره سلطه رایانه بر جهان صحبت کردند همچنین. در طول شش دهه گذشته، کارشناسان بار‌ها پیش‌بینی کرده‌اند که کامپیوتر‌ها به اندازه انسان‌ها باهوش خواهند شد و پس از آن ظرف ۱۰ سال به مرحله‌ای می‌رسند که از انسان هوشمندتر می‌شوند.

باید در نظر داشت که هوش مصنوعی حداقل از دهه ۱۹۶۰ وجود داشته است و چندین دهه در بسیاری از زمینه‌ها استفاده شده است. این ما هستیم که تمایل داریم این فناوری را «جدید» بدانیم، زیرا اخیراً سیستم‌های هوش مصنوعی که زبان و تصاویر را مدیریت می‌کنند، به طور گسترده در دسترس قرار گرفته‌اند. این سیستم‌ها همچنین ترس از بیکاری به دلیل اتوماسیون شدن را در بسیاری از افراد، از جمله روزنامه‌نگاران، ایجاد کرده‌اند.

با این اوصاف، پرسش اصلی همچنان باقی است: آیا هوش مصنوعی تهدیدی برای هستی است؟ آیا قرار است به ماتریکس متصل شویم؟ پاسخ محققان دانشگاه بَث (Bath) و دانشگاه فنی دارمشتات (Darmstadt) به این سؤال منفی است.

در مطالعه‌ای که به عنوان بخشی از شصت و دومین نشست سالانه انجمن زبان‌شناسی رایانه‌ای (ACL ۲۰۲۴) منتشر شد، هوش مصنوعی و به‌ویژه مدل‌های بزرگ زبانی، ذاتاً قابل کنترل، قابل پیش‌بینی و ایمن هستند.

دکتر هاریش طیار مدابوشی، دانشمند کامپیوتر می‌گوید: «روایت غالب درباره این که هوش مصنوعی تهدیدی برای بشریت است، از پذیرش و توسعه گسترده این فناوری‌ها جلوگیری می‌کند و همچنین توجه را از موضوعاتی که نیاز به تمرکز واقعی ما دارند، منحرف می‌کند.»

خطر استدلال و برنامه‌ریزی

دکتر طیار مدابوشی افزود: با بزرگ‌تر شدن مدل‌ها، هوش مصنوعی می‌تواند مشکلات جدیدی را حل کنند که در حال حاضر نمی‌توانیم آن‌ها را پیش‌بینی کنیم، اما در عین حال این خطر را ایجاد می‌کند که این مدل‌های بزرگتر توانایی‌های خطرناکی از جمله استدلال و برنامه‌ریزی را به دست آورند. اما مطالعه ما نشان می‌دهد که ترس از اقدامات غیرمنتظره و خطرناک از سوی مدل‌های هوش مصنوعی بیجاست.

ممکن است مدل‌های بزرگ زبانی رفتار شگفت انگیزی از خود نشان دهند، اما این را همیشه می‌توان در برنامه‌نویسی یا دستورالعمل آن‌ها ردیابی کرد. به عبارت دیگر، آن‌ها نمی‌توانند به چیزی فراتر از نحوه ساختشان تبدیل شوند، بنابراین هیچ ماشین خداگونه‌ای وجود ندارد

پیروی صرف بدون خلق مهارت

مدل‌های بزرگ زبانی واقعاً در درک و پیروی از دستورالعمل‌ها خوب هستند و در استفاده از زبان‌ها ماهرانه عمل می‌کنند. آن‌ها حتی می‌توانند فقط با چند مثال این کار را انجام دهند و به سؤالاتی درباره موقعیت‌های اجتماعی مختلف پاسخ دهند. کاری که آنها نمی‌توانند انجام دهند این است که فراتر از این دستورالعمل‌ها عمل کنند و یا بدون دستورالعمل‌های صریح بر مهارت های جدید تسلط پیدا کنند.

ممکن است مدل‌های بزرگ زبانی رفتار شگفت انگیزی از خود نشان دهند، اما این را همیشه می‌توان در برنامه‌نویسی یا دستورالعمل آن‌ها ردیابی کرد. به عبارت دیگر، آن‌ها نمی‌توانند به چیزی فراتر از نحوه ساختشان تبدیل شوند، بنابراین هیچ ماشین خداگونه‌ای وجود ندارد.

لزوم رصد آگاهانه

با این حال، تیم تحقیقاتی تأکید می‌کند که این بدان معنا نیست که هوش مصنوعی اصلاً تهدیدی ندارد. این سیستم‌ها در حال حاضر قابلیت های قابل توجهی دارند و در آینده بسیار نزدیک پیچیده تر خواهند شد. آن‌ها پتانسیل ترسناکی برای دستکاری اطلاعات، ایجاد اخبار جعلی، کلاهبرداری، دروغ‌پراکنی ناآگاهانه و سرکوب حقیقت دارند.

خطر، مثل همیشه، مربوط به ماشین‌ها نیست، بلکه مربوط به افرادی است که آن‌ها را برنامه ریزی و کنترل ‌ می‌کنند. این رایانه‌ها نیستند که باید نگران آن‌ها باشیم. این انسان‌های پشت سر آن‌ها هستند.

 

ارسال نظر
قالیشویی ادیب