ارتقای فناوری سمعک؛ هوش مصنوعی شنوایی انسان را تقلید میکند
به گزارش خبرگزاری علم و فناوری آنا به نقل از اینترستینگ اینجینرینگ، دانشمندان از یادگیری ماشین و شبکههای عصبی مصنوعی عمیق (DNNs) برای تقلید وظایف بیولوژیکی استفاده میکنند، با این امید که این مدلها رفتاری شبیه به انسان و پاسخهای مغز را بازتولید کنند.
در حالی که شبکههای عصبی مصنوعی عمیق در کارهای مرتبط با بینایی موفقیت آمیز بپدند، در حوزه مدل سازی شنوایی، شبکههایی که بر روی وظایف و صداهای مختلف آموزش دیده اند، توانایی پیش بینی پاسخهای مغز را در قشر شنوایی (بخشی از مغز که اطلاعات شنوایی را پردازش میکند) نشان داده اند.
با این حال، میزان اثربخشی این مدل به نحوه آموزش و معماری متفاوت آن بستگی دارد.
محققان مؤسسه فناوری ماساچوست «ام آی تی» (MIT) روی مدلهای رایانهای کار کردهاند که نحوه پردازش صدا توسط گوشها و مغز ما را تقلید میکنند تا سمعکها و سایر دستگاهها در آینده بهتر ساخته شوند.
در مطالعه خود، محققان دریافتند که مدلهای رایانهای اخیر که توسط یادگیری ماشین ساخته شدهاند به تکرار روشی که مغز ما صداها را پردازش میکند، نزدیکتر شده است.
این مطالعه نقش دادهها و وظایف آموزشی را در شکلدهی نمایشهای دقیق قشر شنوایی در شبکههای عصبی مصنوعی عمیق برجسته میکند. شبکههای عصبی مصنوعی عمیق به عنوان مدلهایی از شنوایی انسان امیدوار کننده هستند.
جاش مک درموت، دانشیار علوم مغز و علوم شناختی در «ام آی تی» و نویسنده ارشد این مطالعه گفت: آنچه این مطالعه را متمایز میکند، این است که جامعترین مقایسه این نوع مدلها با سیستم شنوایی است.
دانشمندان در مطالعه خود ۹ مدل کامپیوتری را که برای درک صدا طراحی شده بودند، بررسی کردند و ۱۴ مدل دیگر ایجاد کردند. این مدلها برای انجام وظایف مختلف مربوط به شنوایی، مانند تشخیص کلمات یا شناسایی بلندگوها آموزش داده شدند.
گرتا توکوت، دانشجوی کارشناسی ارشد «ام آی تی» میگوید: اگرچه این مدل دقیقا همان دادههای آموزشی را دیده و معماری آن یکسان است، وقتی شما آن را برای یک کار خاص بهینهسازی میکنید، میبینید که به طور انتخابی ویژگیهای تنظیم خاصی را در مغز توضیح میدهد.
هنگامی که صداهای واقعی مورد استفاده در مطالعات مغز انسان مورد آزمایش قرار گرفت، بهترین مدلها آنهایی بودند که در کارهای مختلف آموزش دیده و در معرض نویز پس زمینه قرار داشتند.
در نتیجه این نوع آموزش، مدلها را بیشتر شبیه به نحوه پردازش صداها توسط مغز انسان میکند.
توکوت افزود: این مدلها که با یادگیری ماشین ساخته میشوند، قادر به میانجیگری رفتارها در مقیاسی هستند که واقعا با انواع قبلی مدلها ممکن نبود و این امر منجر به علاقه به این موضوع شده است که آیا بازنماییهای موجود در مدلها ممکن است چیزهایی که در مغز اتفاق میافتد را ثبت کند یا خیر.
این مطالعه ۱۳ دسامبر در مجله «پیلاس بیولوژی» (PLoS Biology) منتشر شد.
انتهای پیام/