صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

فروپاشی مدل؛ خطر جدیدی که هوش مصنوعی را تهدید می‌کند

یک مطالعه علمی جدید نشان می‌دهد که سیستم‌های هوش مصنوعی در صورتی که به طور منظم چک نشوند، ممکن است فضای اینترنت را از چرندیات نامفهوم پر کنند.
کد خبر : 926988

به گزارش خبرگزاری علم و فناوری آنا به نقل از لایوساینس، پژوهشگران دانشگاه آکسفورد هشدار داده‌اند که مدل‌های هوش مصنوعی مانند جی پی تی -۴ با آموزش بر روی خروجی خود، می‌توانند چرخه‌های تکرارشوندۀ مخرب ایجاد کنند.

سیستم‌های هوش مصنوعی با استفاده از مقادیر زیادی داده‌های تولید شده توسط انسان تکامل می‌یابند و به همین نسبت ممکن است به طور فزاینده‌ای به داده‌های مصنوعی تولید شده توسط مدل‌های قبلی متکی باشند. مطالعه محققان آکسفورد تأکید دارد که این مدل‌ها پتانسیل آن را دارند که پاسخ‌ها را در طی چند نسل از همان مدل تا سطح بی‌معنا شدن تنزل دهند.

این تیم در طول تحقیقات خود، یک مدل بزرگ زبانی را روی محتوای ویکی‌پدیا آموزش داد و سپس خروجی خود را دوباره به درون مدل بازگرداند. این روند در نسل نهم این فرآیند، مدل یک متن نامنسجم و پر از توهم تولید کرد.

سرپرست این تیم تحقیقاتی توضیح داد که «مارپیچ خطاهای» چنین سیستم‌هایی شبیه اسکن و چاپ مکرر یک تصویر است که در آن اعوجاج‌ها در طول زمان انباشته می‌شوند. او می‌گوید: «داده‌های مصنوعی می‌توانند مفید باشند، اما باید به دقت طراحی شوند تا از فروپاشی مدل جلوگیری شود.» او بر ضرورت تکامل شیوه‌های آموزشی برای اطمینان از بهبود و عملکرد مدل هوش مصنوعی تاکید می‌کند.

داده‌های تولیدشده توسط انسان در مرحله فعلی برای پشتیبانی از مدل‌های موجود کفایت می‌کنند، اما محققان بر اهمیت حفظ کیفیت داده‌های آموزشی برای جلوگیری از پیامد‌های منفی آینده تأکید دارند.

انتهای پیام/

ارسال نظر