صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

کارکرد ذهن و چگونگی اصلاح افکار هوش مصنوعی کشف شد

پژوهشگران آمریکایی در مطالعه‌ای جدید کارکرد درونی ذهن هوش مصنوعی را کشف کردند و حتی توانستند راهی برای ویرایش ذهن هوش مصنوعی پیدا کنند.
کد خبر : 917770

خبرگزاری علم و فناوری آنا؛ یک مطالعه پیشگامانه به کارکرد درونی ذهن یک هوش مصنوعی پرداخته و حتی راهی برای اصلاح افکار آن پیدا کرده است. درک اینکه مدل‌های هوش مصنوعی چگونه «فکر می‌کنند» برای آینده بشریت بسیار مهم است.

این مطالعه که توسط تیم تحقیقاتی آنتروپیک (anthropic) در آمریکا انجام شده است، اولین رویکرد دقیق به یک مدل بزرگ زبانی مدرن است. تاکنون، عملکرد مدل‌های مختلفی از هوش مصنوعی مانند جی پی تی و کلود برای سازندگانشان رازآلود بوده‌اند، اما محققان اکنون کشف کرده‌اند که می‌توانند ایده‌های درون «مغز» هوش مصنوعی را پیدا کنند و حتی تغییر دهند.

ردیابی وضعیت داخلی هوش مصنوعی

تحقیقات اخیر پیشرفت‌های قابل توجهی در درک عملکرد درونی مدل‌های هوش مصنوعی داشته است و به طور بالقوه راه را برای سیستم‌های هوش مصنوعی ایمن‌تر در آینده هموار می‌کند. محققان توانسته‌اند «وضعیت داخلی» مدل‌های هوش مصنوعی را ردیابی کنند و «فعال‌سازی‌های نورون» در مغز مصنوعی آنها را هنگام تعامل با انسان تجزیه و تحلیل کنند.

چگونگی درک مفاهیم در مغز مصنوعی

آنها دریافتند که هر مفهوم در بسیاری از نورون‌ها نمایش داده می‌شود و هر نورون در بازنمایی مفاهیم بسیاری نقش دارد. با استفاده از تکنیکی به نام «یادگیری فرهنگ لغت» از طریق «رمزگذار‌های خودکار پراکنده»، تیم شروع به تطبیق الگو‌های «فعال‌سازی نورون» با مفاهیم و ایده‌های آشنا برای انسان کرده است.

نگرانی از آسیب‌های احتمالی

این پیشرفت پتانسیل رسیدگی به موضوع عدم شفافیت مدل‌های هوش مصنوعی را دارد که درک نحوه تصمیم گیری آ‌ن‌ها را دشوار کرده است. بررسی عملکرد درونی مدل‌های هوش مصنوعی بسیار مهم است، به خصوص که هوش مصنوعی در فعالیت‌های انسانی بیشتر ادغام می‌شود و نگرانی‌هایی را در مورد پتانسیل آنها برای ایجاد آسیب ایجاد می‌کند. توانایی نگاه کردن به «جعبه سیاه» مدل‌های هوش مصنوعی می‌تواند به سیستم‌های هوش مصنوعی نه تنها قابل تفسیرتر، بلکه برای تعامل انسانی ایمن‌تر کمک کند.

افزایش تعاملات هوش مصنوعی با انسان

محققان در مورد پیامد‌های این مطالعه برای آینده هوش مصنوعی و رابطه آن با بشر خوشبین هستند. یافته‌های آنها نقطه عطفی در تلاش‌های مداوم برای ایجاد تعاملات سازنده، ایمن و اخلاقی بین انسان‌ها و هوش مصنوعی است و گامی حیاتی در درک ما از «الگو‌های فکری» هوش مصنوعی است.

این تحقیق زمینه را برای پیشرفت‌های آینده در زمینه تفسیر و ایمنی هوش مصنوعی فراهم کرده است و فرصت‌های جدیدی را برای استفاده از پتانسیل فناوری هوش مصنوعی برای بهبود شرایط زندگی انسان به دست می‌دهد.

این گزارش از سایت نیواطلس به فارسی برگردان شده است.

انتهای پیام/

ارسال نظر