دیده بان پیشرفت علم، فناوری و نوآوری
هشدار دانشمندان؛

هوش مصنوعی در مسیر خودکشی تدریجی است!

هوش مصنوعی در مسیر خودکشی تدریجی است!
هوش مصنوعی مولد در مسیری قرار گرفته است که مدل‌های جدید آن به دلیل آموزش بر اساس داده‌های تولیدی خود، داده‌هایی معیوب و بی‌معنا به دست می‌دهند. محققان، این پدیده را به تولد فرزندان ناقص الخلقه در برخی ازدواج‌های فامیلی تشبیه کرده‌اند که می‌تواند به مرگ تدریجی هوش مصنوعی منجر شود.
کد خبر : 929889

خبرگزاری علم و فناوری آنا؛ هجوم بی امان متن و تصاویر تولید شده با هوش مصنوعی به وب، روند خطرناکی است و می‌تواند مشکل بزرگی برای مدل‌های هوش مصنوعی مولد باشد. با این روال، وب دیگر مکان امنی برای داده‌ها نیست. گزارش اخیر نیویورک تایمز نشان می‌دهد که بر اساس انبوهی از تحقیقات رو به رشد، آموزش مدل‌های هوش مصنوعی مولد بر روی محتوای تولیدشده توسط هوش مصنوعی باعث فرسایش مدل‌ها می‌شود.

آموزش بر روی محتوای هوش مصنوعی باعث ایجاد یک چرخه مسطح مانند همخونی می‌شود. جاتان سادوفسکی (Jathan Sadowski)، محقق هوش مصنوعی، این پدیده را به بچه‌های ناقصی که از ازدواج با اقوام نزدیک متولد می‌شوند تشبیه کرده و نام آن را «هوش مصنوعی هابسبورگ» نامید که به خاندان سلطنتی هابسبورگ، قربانی بزرگ «ازدواج فامیلی» در تاریخ اروپا اشاره دارد. موج فزایندۀ محتوای هوش مصنوعی در وب ممکن است اجتناب از این پدیده را بسیار دشوارتر کند.

مدل‌های هوش مصنوعی به طور بسیار افراطی تشنۀ داده هستند و شرکت‌های هوش مصنوعی برای آموزش برنامه‌های پرخاشگر به حجم وسیعی از داده‌های استخراج‌شده از وب متکی هستند. با این حال، در حالت فعلی، نه شرکت‌های هوش مصنوعی و نه کاربران آنها ملزم به درج برچسب یا واترمارک روی محتوای تولیدشده با هوش مصنوعی نیستند و این موضوع، کار را برای سازندگان هوش مصنوعی سخت‌تر می‌کند تا محتوای مصنوعی را از مجموعه‌های آموزشی هوش مصنوعی دور نگه دارند.

کشف «اختلال خودتخریبی»

سینا آل محمد، دانش آموختۀ دانشگاه رایس در تگزاس آمریکا در سال ۲۰۲۳ مقاله‌ای را نوشت و عبارت «MAD» مخفف: Model Autophagy Disorder به معنای «اختلال خودتخریبیِ مدل» را ابداع کرد و به خطرات «خودمصرفی» در هوش مصنوعی پرداخت.

یک نمونه از مشکلات «هوش مصنوعی هابسبورگ» ماه گذشته در مطالعه جدیدی در مجله نیچر به چاپ رسید. در این پژوهش، یک گروه بین‌المللی از دانشمندان از بریتانیا و کانادا از مدل‌های هوش مصنوعی خواستند که جمله زیر را کامل کند:

«برای پختن بوقلمون در روز شکرگذاری باید ...»

خروجی اول عادی بود. اما در چهارمین تکرار، مدل جمله‌هایی بی‌معنی ارائه داد و نوشت: «برای پختن بوقلمون در روز شکرگزاری، باید بدانید که اگر نمی‌دانید با زندگی خود چه خواهید کرد، می‌خواهید چه کار کنید. اگر ندانی با زندگیت چه خواهی کرد.»

خطر همگرایی و کاهش تنوع

اما «چرندگویی» تنها عارضه منفی هم‌نوع‌خواریِ هوش مصنوعی نیست. مطالعه MAD یا همان «اختلال خودتخریبیِ مدل» که بر مدل‌های تصویری متمرکز بود، نشان داد وقتی هوش مصنوعی از تصاویر تولیدشدۀ خود از صورت انسان برای تولید صورت‌های بعدی استفاده کرد، نتایج به مرور عجیب‌تر شد، اما در نسل چهارم، اکثر چهره‌ها بسیار شبیه به هم بودند که این نگران‌کننده است، زیرا مسائل مربوط به سوگیری در الگوریتم‌ها را تشدید می‌کند و استفاده بیش از حد از محتوای تولیدشده توسط هوش مصنوعی، تنوع در نتایج آتی را کاهش می‌دهد.

داده‌های باکیفیت و ساخت بشر در پیشرفت‌های اخیر در فناوری هوش مصنوعی مولد نقش محوری داشته است. اما با توجه به محتوای تولیدشده توسط هوش مصنوعی که در فضای دیجیتال، آب را گل آلود می‌کند و فعلاً هیچ روش قابل اعتمادی برای تشخیص واقعیت از جعل وجود ندارد، شرکت‌های هوش مصنوعی به زودی ممکن است به مانعی سخت و خطرناک برخورد کنند.

این گزارش از پایگاه اینترنتی فیوچریزم به فارسی برگردان شده است.

ارسال نظر
هلدینگ شایسته