صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
آنا گزارش می‌دهد؛

ترانسفورماتور: کلید طلایی هوش مصنوعی یا نقطه سقوط؟

شرکت‌های هوش مصنوعی امیدوارند که افزودن داده‌های بیشتر به مدل‌هایشان باعث افزایش عملکرد آن‌ها در نهایت منجر به ایجاد هوشی در سطح انسان شود.
کد خبر : 928194

خبرگزاری علم و فناوری آنا؛ هنگامی که چت جی‌پی‌تی برای نخستین بار در سال ۲۰۲۲ جهان را تحت تأثیر قرار داد، قابلیت‌های آن به قدری چشمگیر بود که مردم نام سخت و عجیب آن را نادیده گرفتند. در حروف سرواژه‌سازی شدۀ چت جی‌پی‌تی، یک پیشرفت کلیدی نهفته است که پیشرفت سریع و موشک‌وار هوش مصنوعی مدیون آن است و در عین حال همین ویژگی می‌تواند باعث سقوط هوش مصنوعی شود.

جی‌پی‌تی (GPT) مخفف «ترانسفورماتورِ (مبدل) از پیش آموزش دیدۀ مولد» است. این اصطلاح در مقال‌های در سال ۲۰۱۷ توسط تیمی در گوگل ابداع شد که مفهومی به نام «خودنگرش» را معرفی کرد. این بدان معناست که وقتی به یک مدل هوش مصنوعی، یک رشته از کلمات داده می‌شود، هر کدام را به تنهایی در نظر نمی‌گیرد، بلکه بین کلماتی که قبلاً تغذیه شده است پیوند ایجاد می‌کند و کل ورودی را به یک خروجی جدید «تبدیل» می‌کند.

این طراحی زمانی که به اندازه کافی با داده‌های کامپیوتری قوی تغذیه شد، موفقیت بزرگی به همراه داشت که منجر به جهش شگفت‌انگیز در استدلال و قابلیت‌های زبانی در ابزار‌های هوش مصنوعی امروزی شد. علاوه بر این، به نظر می‌رسد استفاده از سطوح بالاتری از قدرت محاسباتی و داده‌ها به طور مداوم عملکرد ترانسفورماتور را بهبود می‌بخشد.

قانون مقیاس‌پذیری و هوش انسانی

«قانون مقیاس‌پذیری» توضیح می‌دهد که چرا شرکت‌های هوش مصنوعی انتظار دارند مدل‌هایشان در طول زمان به طور قابل توجهی بهبود یابد. به عنوان مثال، اُپن‌ای آی پیشنهاد کرده است که مدل بعدی جی‌پی‌تی-۵ توانایی‌های استدلالی مشابه دانشجویان دکترا خواهد داشت. این ما را به هدف نهایی در زمینه هوش مصنوعی نزدیک‌تر می‌کند: ایجاد ماشینی با هوش عمومی مصنوعی (AGI) که بتواند وظایفی را درست مانند یک انسان انجام دهد.

خروج افراد مهم از چت جی‌پی‌تی

با این حال، ناظران بیرونی کمی به این ماجرا بدبین هستند. شمار زیادی از طرفداران رده بالا در ماه جاری میلادی از چت جی‌پی‌تی خارج شدند، از جمله یک محقق مشهور هوش مصنوعی به نام گری مارکوس که در شبکه اجتماعی ایکس با انتشار پستی نوشت اگر هوش مصنوعی عمومی به سوددهی نزدیک بود، بعید بود که چنین افراد آن را ترک کنند.

برخی از کارشناسان می‌پرسند آیا قوانین مهمی که به یادگیری و بهبود سیستم‌های هوش مصنوعی کمک می‌کنند، می‌توانند به خوبی به کار خود ادامه دهند؟ آنها نگران هستند، زیرا بیشتر اطلاعاتی که این سیستم‌ها برای یادگیری از آن استفاده می‌کنند از اینترنت می‌آیند، و محدودیتی برای یافتن اطلاعات جدید در آنجا وجود دارد. برخی از مردم نیز فکر می‌کنند که استفاده از هوش مصنوعی برای ایجاد اطلاعات جدید می‌تواند کمک کننده باشد، اما برخی دیگر چندان مطمئن نیستند.

حتی اگر ترانسفورماتور‌ها همچنان از این قوانین مقیاس بندی پیروی کنند، باز هم ممکن است مشکلات اساسی در طراحی آنها وجود داشته باشد. هوکرایتر می‌گوید: یکی این است که آنها فاقد حافظه داخلی هستند، که می‌دانیم در نحوه عملکرد هوش انسان نقش اساسی دارد.

لزوم بازگشت به داده‌های قبلی

ترانسفورماتور‌ها همچنین باید بار‌ها و بار‌ها به داده‌های قبلی خود برگردند؛ بنابراین پردازش و تولید دنباله‌های متنی طولانی می‌تواند به منابع محاسباتی عظیمی نیاز داشته باشد، زیرا هوش مصنوعی هم رو به جلو و هم رو به عقب اسکن می‌کند. یون کیم از مؤسسه فناوری ماساچوست می‌گوید این مشکل در هنگام کار با ایمیل‌های کوتاه یا سؤالات ساده مطرح نیست، اما باعث می‌شود ترانسفورماتور‌ها برای کار با توالی‌های متنی بسیار طولانی‌تر، مانند کتاب‌ها یا مجموعه‌های داده بزرگ، مناسب نباشند. ترانسفورماتور‌ها اساساً ناکارآمد هستند و برای این نوع کاربرد‌ها مجهز نیستند.

راه حلی به نام شبکه‌های عصبی جایگزین

محققان امیدوارند این مشکلات را با معماری‌های شبکه عصبی جایگزین حل کنند، مانند مدلی که توسط هاشرایتر و همکارانش به نام «حافظه کوتاه مدت طولانی» (x-LSTM) توسعه یافته است. «حافظه کوتاه مدت طولانی» دارای نورون‌های مصنوعی بسیار بیشتر و حافظه‌ای بازطراحی شده است، نتایج قابل مقایسه با ترانسفورماتور‌ها را تولید می‌کند و برای یادآوری وضعیت‌های قبلی بسیار کارآمدتر و توانا است.

مشکل اجرای انواع الگوریتم‌ها

هم ترانسفورماتور‌ها و هم ترانسفورماتور‌های نسل بعدی جایگزین آنها ممکن است یک مشکل اساسی داشته باشند: آیا آنها می‌توانند هرگونه مشکل محاسباتی را حل کنند؟ یا اینکه میتوانند هر الگوریتمی را اجرا کنند؟ این بدان معناست که سیستم‌های هوش مصنوعی آینده ممکن است به اندازه نیاز ما قابل اعتماد نباشند. به بیان ساده، اگر سیستم‌های هوش مصنوعی نتوانند تمام کار‌های یک کامپیوتر معمولی را انجام دهند، این موضوع می‌تواند در آینده مشکلاتی ایجاد کند. به عنوان مثال، یک مسئله ساده مانند جمع دو عدد را تصور کنید. ترانسفورماتور‌ها در کار با اعدادی که قبلا دیده‌اند عالی هستند، اما ممکن است در برخورد با اعدادی که روی آنها آموزش ندیده‌اند اشتباه کنند.

مشخص نیست که آیا مدل‌های ترانسفورماتور محبوب مورد استفاده در هوش مصنوعی می‌توانند عملیات اساسی مانند افزودن را به روشی قابل اعتماد انجام دهند یا خیر. یافتن هوش مصنوعی جایگزین که بتواند با عملکرد ترانسفورماتور مطابقت داشته باشد در حالی که از حافظه و منابع به طور موثرتر استفاده می‌کند، یک چالش سخت است.

از طرفی، ارائه طرح‌های جدید شبکه عصبی آسان نیست و تلاش‌های موجود برای بهبود ترانسفورماتور اغلب شکست خورده است. این بدان معناست که اگر ترانسفورماتور به وعده‌های خود عمل نکند، مشخص نیست که چگونه می‌توان به جایگزین بهتر رسید؟ فشار برای ارائه نتایج در شرکت‌های بزرگ هوش مصنوعی آزمایش رویکرد‌های جدید را سخت می‌کند و استفاده گسترده از ترانسفورماتور‌ها در سیستم‌های هوش مصنوعی فعلی تغییر جهت را دشوارتر می‌کند. حتی اگر شخصی چیز جدید و هیجان انگیزی را توسعه دهد، متقاعد کردن دیگران برای تغییر به آن، به خصوص برای برنامه‌های پرمخاطب، بسیار سخت است.

این گزارش از پایگاه اینترنتی نیوساینتیست به فارسی برگردان شده است.

انتهای پیام/

ارسال نظر