صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

ورزش

سلامت

پژوهش

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

علم +

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
آینده جهان با هوش مصنوعی (۱۰۴)؛

ارتقای فناوری سمعک؛ هوش مصنوعی شنوایی انسان را تقلید می‌کند

محققان یک مدل رایانه‌ای مبتنی بر هوش مصنوعی توسعه داده‌اند که نحوه پردازش صدا در گوش و مغز انسان را برای تقویت فناوری سمعک تقلید می‌کند.
کد خبر : 885115

به گزارش خبرگزاری علم و فناوری آنا به نقل از اینترستینگ اینجینرینگ، دانشمندان از یادگیری ماشین و شبکه‌های عصبی مصنوعی عمیق (DNNs) برای تقلید وظایف بیولوژیکی استفاده می‌کنند، با این امید که این مدل‌ها رفتاری شبیه به انسان و پاسخ‌های مغز را بازتولید کنند.

در حالی که شبکه‌های عصبی مصنوعی عمیق در کار‌های مرتبط با بینایی موفقیت آمیز بپدند، در حوزه مدل سازی شنوایی، شبکه‌هایی که بر روی وظایف و صدا‌های مختلف آموزش دیده اند، توانایی پیش بینی پاسخ‌های مغز را در قشر شنوایی (بخشی از مغز که اطلاعات شنوایی را پردازش می‌کند) نشان داده اند.

با این حال، میزان اثربخشی این مدل به نحوه آموزش و معماری متفاوت آن بستگی دارد.

محققان مؤسسه فناوری ماساچوست «ام آی تی» (MIT) روی مدل‌های رایانه‌ای کار کرده‌اند که نحوه پردازش صدا توسط گوش‌ها و مغز ما را تقلید می‌کنند تا سمعک‌ها و سایر دستگاه‌ها در آینده بهتر ساخته شوند.

در مطالعه خود، محققان دریافتند که مدل‌های رایانه‌ای اخیر که توسط یادگیری ماشین ساخته شده‌اند به تکرار روشی که مغز ما صدا‌ها را پردازش می‌کند، نزدیک‌تر شده است.

این مطالعه نقش داده‌ها و وظایف آموزشی را در شکل‌دهی نمایش‌های دقیق قشر شنوایی در شبکه‌های عصبی مصنوعی عمیق برجسته می‌کند. شبکه‌های عصبی مصنوعی عمیق به عنوان مدل‌هایی از شنوایی انسان امیدوار کننده هستند.

جاش مک درموت، دانشیار علوم مغز و علوم شناختی در «ام آی تی» و نویسنده ارشد این مطالعه گفت: آنچه این مطالعه را متمایز می‌کند، این است که جامع‌ترین مقایسه این نوع مدل‌ها با سیستم شنوایی است.

دانشمندان در مطالعه خود ۹ مدل کامپیوتری را که برای درک صدا طراحی شده بودند، بررسی کردند و ۱۴ مدل دیگر ایجاد کردند. این مدل‌ها برای انجام وظایف مختلف مربوط به شنوایی، مانند تشخیص کلمات یا شناسایی بلندگو‌ها آموزش داده شدند.

گرتا توکوت، دانشجوی کارشناسی ارشد «ام آی تی» می‌گوید: اگرچه این مدل دقیقا همان داده‌های آموزشی را دیده و معماری آن یکسان است، وقتی شما آن را برای یک کار خاص بهینه‌سازی می‌کنید، می‌بینید که به طور انتخابی ویژگی‌های تنظیم خاصی را در مغز توضیح می‌دهد.

هنگامی که صدا‌های واقعی مورد استفاده در مطالعات مغز انسان مورد آزمایش قرار گرفت، بهترین مدل‌ها آن‌هایی بودند که در کار‌های مختلف آموزش دیده و در معرض نویز پس زمینه قرار داشتند.

در نتیجه این نوع آموزش، مدل‌ها را بیشتر شبیه به نحوه پردازش صدا‌ها توسط مغز انسان می‌کند.

توکوت افزود: این مدل‌ها که با یادگیری ماشین ساخته می‌شوند، قادر به میانجی‌گری رفتار‌ها در مقیاسی هستند که واقعا با انواع قبلی مدل‌ها ممکن نبود و این امر منجر به علاقه به این موضوع شده است که آیا بازنمایی‌های موجود در مدل‌ها ممکن است چیز‌هایی که در مغز اتفاق می‌افتد را ثبت کند یا خیر.

این مطالعه ۱۳ دسامبر در مجله «پی‌لاس بیولوژی» (PLoS Biology) منتشر شد.

انتهای پیام/

ارسال نظر