ترانسفورماتور: کلید طلایی هوش مصنوعی یا نقطه سقوط؟
خبرگزاری علم و فناوری آنا؛ هنگامی که چت جیپیتی برای نخستین بار در سال ۲۰۲۲ جهان را تحت تأثیر قرار داد، قابلیتهای آن به قدری چشمگیر بود که مردم نام سخت و عجیب آن را نادیده گرفتند. در حروف سرواژهسازی شدۀ چت جیپیتی، یک پیشرفت کلیدی نهفته است که پیشرفت سریع و موشکوار هوش مصنوعی مدیون آن است و در عین حال همین ویژگی میتواند باعث سقوط هوش مصنوعی شود.
جیپیتی (GPT) مخفف «ترانسفورماتورِ (مبدل) از پیش آموزش دیدۀ مولد» است. این اصطلاح در مقالهای در سال ۲۰۱۷ توسط تیمی در گوگل ابداع شد که مفهومی به نام «خودنگرش» را معرفی کرد. این بدان معناست که وقتی به یک مدل هوش مصنوعی، یک رشته از کلمات داده میشود، هر کدام را به تنهایی در نظر نمیگیرد، بلکه بین کلماتی که قبلاً تغذیه شده است پیوند ایجاد میکند و کل ورودی را به یک خروجی جدید «تبدیل» میکند.
این طراحی زمانی که به اندازه کافی با دادههای کامپیوتری قوی تغذیه شد، موفقیت بزرگی به همراه داشت که منجر به جهش شگفتانگیز در استدلال و قابلیتهای زبانی در ابزارهای هوش مصنوعی امروزی شد. علاوه بر این، به نظر میرسد استفاده از سطوح بالاتری از قدرت محاسباتی و دادهها به طور مداوم عملکرد ترانسفورماتور را بهبود میبخشد.
قانون مقیاسپذیری و هوش انسانی
«قانون مقیاسپذیری» توضیح میدهد که چرا شرکتهای هوش مصنوعی انتظار دارند مدلهایشان در طول زمان به طور قابل توجهی بهبود یابد. به عنوان مثال، اُپنای آی پیشنهاد کرده است که مدل بعدی جیپیتی-۵ تواناییهای استدلالی مشابه دانشجویان دکترا خواهد داشت. این ما را به هدف نهایی در زمینه هوش مصنوعی نزدیکتر میکند: ایجاد ماشینی با هوش عمومی مصنوعی (AGI) که بتواند وظایفی را درست مانند یک انسان انجام دهد.
خروج افراد مهم از چت جیپیتی
با این حال، ناظران بیرونی کمی به این ماجرا بدبین هستند. شمار زیادی از طرفداران رده بالا در ماه جاری میلادی از چت جیپیتی خارج شدند، از جمله یک محقق مشهور هوش مصنوعی به نام گری مارکوس که در شبکه اجتماعی ایکس با انتشار پستی نوشت اگر هوش مصنوعی عمومی به سوددهی نزدیک بود، بعید بود که چنین افراد آن را ترک کنند.
برخی از کارشناسان میپرسند آیا قوانین مهمی که به یادگیری و بهبود سیستمهای هوش مصنوعی کمک میکنند، میتوانند به خوبی به کار خود ادامه دهند؟ آنها نگران هستند، زیرا بیشتر اطلاعاتی که این سیستمها برای یادگیری از آن استفاده میکنند از اینترنت میآیند، و محدودیتی برای یافتن اطلاعات جدید در آنجا وجود دارد. برخی از مردم نیز فکر میکنند که استفاده از هوش مصنوعی برای ایجاد اطلاعات جدید میتواند کمک کننده باشد، اما برخی دیگر چندان مطمئن نیستند.
حتی اگر ترانسفورماتورها همچنان از این قوانین مقیاس بندی پیروی کنند، باز هم ممکن است مشکلات اساسی در طراحی آنها وجود داشته باشد. هوکرایتر میگوید: یکی این است که آنها فاقد حافظه داخلی هستند، که میدانیم در نحوه عملکرد هوش انسان نقش اساسی دارد.
لزوم بازگشت به دادههای قبلی
ترانسفورماتورها همچنین باید بارها و بارها به دادههای قبلی خود برگردند؛ بنابراین پردازش و تولید دنبالههای متنی طولانی میتواند به منابع محاسباتی عظیمی نیاز داشته باشد، زیرا هوش مصنوعی هم رو به جلو و هم رو به عقب اسکن میکند. یون کیم از مؤسسه فناوری ماساچوست میگوید این مشکل در هنگام کار با ایمیلهای کوتاه یا سؤالات ساده مطرح نیست، اما باعث میشود ترانسفورماتورها برای کار با توالیهای متنی بسیار طولانیتر، مانند کتابها یا مجموعههای داده بزرگ، مناسب نباشند. ترانسفورماتورها اساساً ناکارآمد هستند و برای این نوع کاربردها مجهز نیستند.
راه حلی به نام شبکههای عصبی جایگزین
محققان امیدوارند این مشکلات را با معماریهای شبکه عصبی جایگزین حل کنند، مانند مدلی که توسط هاشرایتر و همکارانش به نام «حافظه کوتاه مدت طولانی» (x-LSTM) توسعه یافته است. «حافظه کوتاه مدت طولانی» دارای نورونهای مصنوعی بسیار بیشتر و حافظهای بازطراحی شده است، نتایج قابل مقایسه با ترانسفورماتورها را تولید میکند و برای یادآوری وضعیتهای قبلی بسیار کارآمدتر و توانا است.
مشکل اجرای انواع الگوریتمها
هم ترانسفورماتورها و هم ترانسفورماتورهای نسل بعدی جایگزین آنها ممکن است یک مشکل اساسی داشته باشند: آیا آنها میتوانند هرگونه مشکل محاسباتی را حل کنند؟ یا اینکه میتوانند هر الگوریتمی را اجرا کنند؟ این بدان معناست که سیستمهای هوش مصنوعی آینده ممکن است به اندازه نیاز ما قابل اعتماد نباشند. به بیان ساده، اگر سیستمهای هوش مصنوعی نتوانند تمام کارهای یک کامپیوتر معمولی را انجام دهند، این موضوع میتواند در آینده مشکلاتی ایجاد کند. به عنوان مثال، یک مسئله ساده مانند جمع دو عدد را تصور کنید. ترانسفورماتورها در کار با اعدادی که قبلا دیدهاند عالی هستند، اما ممکن است در برخورد با اعدادی که روی آنها آموزش ندیدهاند اشتباه کنند.
مشخص نیست که آیا مدلهای ترانسفورماتور محبوب مورد استفاده در هوش مصنوعی میتوانند عملیات اساسی مانند افزودن را به روشی قابل اعتماد انجام دهند یا خیر. یافتن هوش مصنوعی جایگزین که بتواند با عملکرد ترانسفورماتور مطابقت داشته باشد در حالی که از حافظه و منابع به طور موثرتر استفاده میکند، یک چالش سخت است.
از طرفی، ارائه طرحهای جدید شبکه عصبی آسان نیست و تلاشهای موجود برای بهبود ترانسفورماتور اغلب شکست خورده است. این بدان معناست که اگر ترانسفورماتور به وعدههای خود عمل نکند، مشخص نیست که چگونه میتوان به جایگزین بهتر رسید؟ فشار برای ارائه نتایج در شرکتهای بزرگ هوش مصنوعی آزمایش رویکردهای جدید را سخت میکند و استفاده گسترده از ترانسفورماتورها در سیستمهای هوش مصنوعی فعلی تغییر جهت را دشوارتر میکند. حتی اگر شخصی چیز جدید و هیجان انگیزی را توسعه دهد، متقاعد کردن دیگران برای تغییر به آن، به خصوص برای برنامههای پرمخاطب، بسیار سخت است.
این گزارش از پایگاه اینترنتی نیوساینتیست به فارسی برگردان شده است.
انتهای پیام/