هوش مصنوعی در مسیر خودکشی تدریجی است!
خبرگزاری علم و فناوری آنا؛ هجوم بی امان متن و تصاویر تولید شده با هوش مصنوعی به وب، روند خطرناکی است و میتواند مشکل بزرگی برای مدلهای هوش مصنوعی مولد باشد. با این روال، وب دیگر مکان امنی برای دادهها نیست. گزارش اخیر نیویورک تایمز نشان میدهد که بر اساس انبوهی از تحقیقات رو به رشد، آموزش مدلهای هوش مصنوعی مولد بر روی محتوای تولیدشده توسط هوش مصنوعی باعث فرسایش مدلها میشود.
آموزش بر روی محتوای هوش مصنوعی باعث ایجاد یک چرخه مسطح مانند همخونی میشود. جاتان سادوفسکی (Jathan Sadowski)، محقق هوش مصنوعی، این پدیده را به بچههای ناقصی که از ازدواج با اقوام نزدیک متولد میشوند تشبیه کرده و نام آن را «هوش مصنوعی هابسبورگ» نامید که به خاندان سلطنتی هابسبورگ، قربانی بزرگ «ازدواج فامیلی» در تاریخ اروپا اشاره دارد. موج فزایندۀ محتوای هوش مصنوعی در وب ممکن است اجتناب از این پدیده را بسیار دشوارتر کند.
مدلهای هوش مصنوعی به طور بسیار افراطی تشنۀ داده هستند و شرکتهای هوش مصنوعی برای آموزش برنامههای پرخاشگر به حجم وسیعی از دادههای استخراجشده از وب متکی هستند. با این حال، در حالت فعلی، نه شرکتهای هوش مصنوعی و نه کاربران آنها ملزم به درج برچسب یا واترمارک روی محتوای تولیدشده با هوش مصنوعی نیستند و این موضوع، کار را برای سازندگان هوش مصنوعی سختتر میکند تا محتوای مصنوعی را از مجموعههای آموزشی هوش مصنوعی دور نگه دارند.
کشف «اختلال خودتخریبی»
سینا آل محمد، دانش آموختۀ دانشگاه رایس در تگزاس آمریکا در سال ۲۰۲۳ مقالهای را نوشت و عبارت «MAD» مخفف: Model Autophagy Disorder به معنای «اختلال خودتخریبیِ مدل» را ابداع کرد و به خطرات «خودمصرفی» در هوش مصنوعی پرداخت.
یک نمونه از مشکلات «هوش مصنوعی هابسبورگ» ماه گذشته در مطالعه جدیدی در مجله نیچر به چاپ رسید. در این پژوهش، یک گروه بینالمللی از دانشمندان از بریتانیا و کانادا از مدلهای هوش مصنوعی خواستند که جمله زیر را کامل کند:
«برای پختن بوقلمون در روز شکرگزاری باید ...»
خروجی اول عادی بود. اما در چهارمین تکرار، مدل جملههایی بیمعنی ارائه داد و نوشت: «برای پختن بوقلمون در روز شکرگزاری، باید بدانید که اگر نمیدانید با زندگی خود چه خواهید کرد، میخواهید چه کار کنید. اگر ندانی با زندگیت چه خواهی کرد.»
{$sepehr_key_1571}
خطر همگرایی و کاهش تنوع
اما «چرندگویی» تنها عارضه منفی همنوعخواریِ هوش مصنوعی نیست. مطالعه MAD یا همان «اختلال خودتخریبیِ مدل» که بر مدلهای تصویری متمرکز بود، نشان داد وقتی هوش مصنوعی از تصاویر تولیدشدۀ خود از صورت انسان برای تولید صورتهای بعدی استفاده کرد، نتایج به مرور عجیبتر شد، اما در نسل چهارم، اکثر چهرهها بسیار شبیه به هم بودند که این نگرانکننده است، زیرا مسائل مربوط به سوگیری در الگوریتمها را تشدید میکند و استفاده بیش از حد از محتوای تولیدشده توسط هوش مصنوعی، تنوع در نتایج آتی را کاهش میدهد.
دادههای باکیفیت و ساخت بشر در پیشرفتهای اخیر در فناوری هوش مصنوعی مولد نقش محوری داشته است. اما با توجه به محتوای تولیدشده توسط هوش مصنوعی که در فضای دیجیتال، آب را گل آلود میکند و فعلاً هیچ روش قابل اعتمادی برای تشخیص واقعیت از جعل وجود ندارد، شرکتهای هوش مصنوعی به زودی ممکن است به مانعی سخت و خطرناک برخورد کنند.
این گزارش از پایگاه اینترنتی فیوچریزم به فارسی برگردان شده است.
{$sepehr_key_1573}
انتهای پیام/