فروپاشی مدل؛ خطر جدیدی که هوش مصنوعی را تهدید میکند
به گزارش خبرگزاری علم و فناوری آنا به نقل از لایوساینس، پژوهشگران دانشگاه آکسفورد هشدار دادهاند که مدلهای هوش مصنوعی مانند جی پی تی -۴ با آموزش بر روی خروجی خود، میتوانند چرخههای تکرارشوندۀ مخرب ایجاد کنند.
سیستمهای هوش مصنوعی با استفاده از مقادیر زیادی دادههای تولید شده توسط انسان تکامل مییابند و به همین نسبت ممکن است به طور فزایندهای به دادههای مصنوعی تولید شده توسط مدلهای قبلی متکی باشند. مطالعه محققان آکسفورد تأکید دارد که این مدلها پتانسیل آن را دارند که پاسخها را در طی چند نسل از همان مدل تا سطح بیمعنا شدن تنزل دهند.
این تیم در طول تحقیقات خود، یک مدل بزرگ زبانی را روی محتوای ویکیپدیا آموزش داد و سپس خروجی خود را دوباره به درون مدل بازگرداند. این روند در نسل نهم این فرآیند، مدل یک متن نامنسجم و پر از توهم تولید کرد.
سرپرست این تیم تحقیقاتی توضیح داد که «مارپیچ خطاهای» چنین سیستمهایی شبیه اسکن و چاپ مکرر یک تصویر است که در آن اعوجاجها در طول زمان انباشته میشوند. او میگوید: «دادههای مصنوعی میتوانند مفید باشند، اما باید به دقت طراحی شوند تا از فروپاشی مدل جلوگیری شود.» او بر ضرورت تکامل شیوههای آموزشی برای اطمینان از بهبود و عملکرد مدل هوش مصنوعی تاکید میکند.
دادههای تولیدشده توسط انسان در مرحله فعلی برای پشتیبانی از مدلهای موجود کفایت میکنند، اما محققان بر اهمیت حفظ کیفیت دادههای آموزشی برای جلوگیری از پیامدهای منفی آینده تأکید دارند.
انتهای پیام/