صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
۱۰:۲۶ - ۱۶ فروردين ۱۴۰۲
در رقابت با انویدیا؛‌

گوگل جزئیات جدیدی از ابررایانه های هوش مصنوعی خود منتشر کرد

ابعاد ابرمدل های زبانی هوش مصنوعی مانند «چت بارت» و «جی پی تی» به مراتب بزرگ تر از آن است که در یک تراشه واحد ذخیره شوند و اکنون گوگل مدعی است که راهی برای غلبه بر این مشکل پیدا کرده است.
کد خبر : 840257

به گزارش گروه جهان خبرگزاری آنا به نقل از رویترز، «آلفابت» به عنوان شرکت مادر گوگل جزئیات جدیدی درباره ابررایانه‌هایی منتشر کرد که از آن‌ها برای آموزش مدل‌های هوش مصنوعی خود استفاده می‌کند.

به ادعای آلفابت، این ابررایانه‌ها به مراتب سریع‌تر و کارآمدتر از سیستم‌های مشابه کمپانی انویدیا است. 

گوگل، کاستوم چیپ‌های خاص خود موسوم به تراشه تنسور (TPU) را طراحی کرده و ۹۰ درصد کار آموزش هوش مصنوعی را با آن‌ها پیش می‌برد. 

در مجموع، روند آموزش شامل انتقال داده به مدل هوش مصنوعی به گونه‌ای است که از پس انجام کار‌هایی مانند خلق تصاویر یا ارائه پاسخ مکتوب و منسجم به سوالات کاربران برآید.

دو سال از رونمایی نسل چهارم واحد پردازش تنسور می‌گذرد و گوگل سه شنبه این هفته با انتشار یک مقاله علمی به ارائه جزئیاتی درباره این مطلب پرداخت که چگونه با ردیف کردن و اتصال بیش از ۴ هزار عدد از این تراشه‌ها در ابررایانه هایش، از سوئیچ اپتیکال های خود برای مرتبط کردن دستگاه‌های مجزا استفاده می‌کند. 

ارتقای این اتصالات یکی از کلیدی‌ترین موارد رقابت میان شرکت‌های فعال در زمینه تولید ابررایانه‌های هوش مصنوعی تلقی می‌شود چراکه ابعاد این به اصطلاح ابرمدل‌های زبانی هوش مصنوعی که به منزله موتور محرکه فناوری‌هایی نظیر چت بارت گوگل یا چت جی پی تی شرکت OpenAI هستند، به مراتب بزرگ‌تر از آن است که در یک تراشه واحد ذخیره شوند.

در واقع، این مدل‌های هوش مصنوعی باید میان هزاران تراشه‌ای که هماهنگ با یکدیگر کار می‌کنند و یا حتی به آن مدل آموزش می‌دهند، تقسیم شوند. گوگل پالم به عنوان بزرگترین مدل زبانی هوش مصنوعی، برای بیش از ۵۰ روز، از راه تقسیم میان دو ابررایانه ۴ هزار تراشه‌ای آموزش دیده است.

به گفته گوگل، ابررایانه‌های این شرکت روند تنظیم ارتباط میان تراشه‌ها را بدون آنکه نیازی به توقف سیستم باشد، تسهیل می‌کند و این به نوبه خود، مانع از بروز مشکلات بهروری عملکرد می‌شود. در مقایسه با سیستم‌های مبتنی بر تراشه A۱۰۰ انویدیا، سیستم‌های مبتنی بر تراشه‌های نسل چهارم تنسور،  ۱.۷ تا ۱.۹ مرتبه سریعتر و کارآمدتر هستند.

البته، گوگل اعلام کرد که فعلا تراشه تنسور را با تراشه H۱۰۰ انویدیا مقایسه نمی‌کند چراکه H۱۰۰ بعد از تنسور وارد بازار شده و مبتنی بر فناوری جدیدتری است.

با این حال، گوگل بدون ارائه هرگونه جزئیاتی، از احتمال کار بر روی نسل جدیدی از تنسور‌ها خبر داد تا رقابت با H۱۰۰ انویدیا را حفظ کند.

انتهای پیام/

ارسال نظر