روشی جدید که نحوه عملکرد هوش مصنوعی را نشان میدهد
به گزارش گروه دانش و فناوری خبرگزاری آنا به نقل از وبگاه (سای تک دیلی)، محققان آزمایشگاه ملی لس آلاموس روش جدیدی را برای مقایسه شبکههای عصبی ایجاد کردهاند که به جعبه سیاه هوش مصنوعی نگاه میکند تا به محققان در درک رفتار شبکههای عصبی کمک کند. شبکههای عصبی الگوها را در مجموعه دادهها شناسایی میکنند و در برنامههای متنوعی مانند دستیارهای مجازی، سیستمهای تشخیص چهره و وسایل نقلیه خودران مورد استفاده قرار میگیرند.
جامعه تحقیقاتی هوش مصنوعی لزوماً درک کاملی از آنچه شبکههای عصبی انجام میدهند ندارند. هایدن جونز، محقق در گروه تحقیقات پیشرفته در سیستمهای سایبری در لوس آلاموس، گفت: آنها نتایج خوبی به ما میدهند، اما ما نمیدانیم چگونه و چرا.
روش جدید ما کار بهتری در مقایسه شبکههای عصبی انجام میدهد که گامی حیاتی در جهت درک بهتر ریاضیات پشت هوش مصنوعی است.
جونز نویسنده اصلی مقاله اخیری است که در کنفرانس عدم قطعیت در هوش مصنوعی ارائه شده است. این مقاله گام مهمی در توصیف رفتار شبکههای عصبی قوی علاوه بر مطالعه شباهت شبکه است.
شبکههای عصبی با کارایی بالا، اما شکننده هستند. به عنوان مثال، وسایل نقلیه خودران از شبکههای عصبی برای تشخیص علائم استفاده میکنند. آنها در انجام این کار در شرایط عالی کاملاً ماهر هستند. با این حال، شبکه عصبی ممکن است به اشتباه یک علامت را تشخیص دهد و در صورت وجود کوچکترین ناهنجاری، مانند برچسب روی علامت توقف، هرگز متوقف نشود.
بنابراین، به منظور بهبود شبکههای عصبی، محققان به دنبال راهبردهایی برای افزایش استحکام شبکه هستند. یک روش پیشرفته شامل "حمله" به شبکهها در حین آموزش است. هوش مصنوعی برای چشم پوشی از ناهنجاریهایی که محققان به طور هدفمند معرفی میکنند آموزش دیده است. در اصل، این تکنیک که به عنوان آموزش خصمانه شناخته میشود، فریب شبکهها را دشوارتر میکند.
در یک کشف شگفتانگیز، جونز و همکارانش از لس آلاموس، جیکوب اسپرینگر و گرت کنیون، و همچنین جاستون مور، مربی جونز، معیار شباهت شبکههای جدید خود را برای شبکههای عصبی آموزشدیده اعمال کردند. آنها دریافتند که با افزایش شدت حمله، آموزش خصمانه باعث میشود شبکههای عصبی در حوزه بینایی کامپیوتر بدون توجه به معماری شبکه، به نمایش دادههای بسیار مشابه همگرا شوند.
جونز گفت: ما دریافتیم که وقتی شبکههای عصبی را به گونهای آموزش میدهیم که در برابر حملات متخاصم قوی باشند، آنها شروع به انجام کارهای مشابه میکنند.
تلاشهای گستردهای در صنعت و جامعه دانشگاهی برای جستجوی «معماری مناسب» برای شبکههای عصبی صورت گرفته است، اما یافتههای تیم Los Alamos نشان میدهد که معرفی آموزشهای خصمانه این فضای جستجو را به طور قابلتوجهی محدود میکند.
در نتیجه، جامعه تحقیقاتی هوش مصنوعی ممکن است نیازی به صرف زمان زیادی برای کاوش در معماریهای جدید نداشته باشد، زیرا میدانند که آموزش رقیب باعث میشود معماریهای متنوع به راهحلهای مشابه همگرا شوند.
با یافتن شباهتهای شبکههای عصبی قوی به یکدیگر، درک اینکه چگونه هوش مصنوعی قوی واقعاً ممکن است کار کند را آسانتر میکنیم. ما حتی ممکن است در حال کشف نکاتی در مورد چگونگی ادراک در انسان و سایر حیوانات باشیم.
انتهای پیام/