صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

ورزش

سلامت

پژوهش

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

علم +

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

چه زمانی می‌توانیم به مدل‌های هوش مصنوعی اعتماد کنیم؟

ارائه برآورد‌های دقیق از عدم قطعیت پاسخ‌های هوش مصنوعی می‌تواند به کاربران کمک کند تا در مورد چگونگی و زمان استفاده از مدل‌های یادگیری ماشین در دنیای واقعی تصمیم بگیرند.
کد خبر : 922135

خبرگزاری علم و فناوری آنا؛ از آنجایی که مدل‌های یادگیری ماشینی می‌توانند پیش‌بینی‌های نادرستی ارائه دهند، محققان اغلب آنها را به این توانایی مجهز می‌کنند که به کاربر بگویند چقدر در مورد یک تصمیم خاص مطمئن هستند. این امر به ویژه در تنظیمات پرمخاطره مهم است، مانند زمانی که از مدل‌ها برای کمک به شناسایی بیماری در تصاویر پزشکی یا فیلترکردن برنامه‌های شغلی استفاده می‌شود.

اما کمیت‌های عدم قطعیت یک مدل تنها زمانی مفید هستند که دقیق باشند. اگر مدلی بگوید ۴۹ درصد مطمئن است که یک تصویر پزشکی نشان دهنده نوعی بیماری خاص است، در این صورت در ۴۹ درصد مواقع، مدل باید درست باشد.

محققان «ام آی تی» (MIT) رویکرد جدیدی را معرفی کرده‌اند که می‌تواند تخمین عدم قطعیت را در مدل‌های یادگیری ماشینی بهبود بخشد. روش آنها نه تنها تخمین‌های عدم قطعیت دقیق‌تری را نسبت به سایر تکنیک‌ها ایجاد می‌کند، بلکه این کار را با کارایی بیشتری انجام می‌دهد.

علاوه بر این، از آنجایی که این تکنیک مقیاس‌پذیر است، می‌توان آن را برای مدل‌های عظیم یادگیری عمیق که به طور فزاینده‌ای در مراقبت‌های بهداشتی و سایر موقعیت‌های حیاتی ایمنی به کار می‌رود، اعمال کرد.

این تکنیک می‌تواند به کاربران نهایی، که بسیاری از آنها در زمینه یادگیری ماشین تخصص ندارند، اطلاعات بهتری را ارائه دهد تا بتوانند تصمیم بگیرند که به پیش‌بینی‌های مدل اعتماد کنند یا اینکه مدل را برای یک کار خاص به کار بگیرند.

ناتان نگ، نویسنده اصلی این مقاله می‌گوید: به راحتی می‌توان دید که این مدل‌ها در سناریو‌هایی که بسیار خوب هستند عملکرد بسیار خوبی دارند و سپس فرض کنیم که در سناریو‌های دیگر به همان اندازه خوب خواهند بود. این باعث می‌شود که اهمیت ویژه‌ای به این نوع کار داده شود که به بهتر کردن کالیبراسیون عدم قطعیت این مدل‌ها برای اطمینان از همسویی با مفاهیم انسانی عدم قطعیت می‌پردازد.

نگ این مقاله را با راجر گروس، دستیار استاد علوم کامپیوتر دانشگاه تورنتو و مرضیه قاسمی، دانشیار دانشکده مهندسی برق و کامپیوتر و عضو موسسه علوم مهندسی پزشکی و آزمایشگاه سیستم‌های اطلاعاتی و تصمیم‌گیری، نوشت. این تحقیق در کنفرانس بین‌المللی یادگیری ماشین ارائه خواهد شد.

کمی سازی عدم قطعیت در پاسخ‌های هوش مصنوعی

روش‌های کمی‌سازی عدم قطعیت اغلب به محاسبات آماری پیچیده‌ای نیاز دارند که به خوبی به مدل‌های یادگیری ماشینی با میلیون‌ها پارامتر مقیاس نمی‌شوند. این روش‌ها همچنین از کاربران می‌خواهند که در مورد مدل و داده‌های مورد استفاده برای آموزش آن مفروضاتی داشته باشند.

اما محققان ام آی تی رویکرد متفاوتی در پیش گرفتند. آنها از چیزی که به عنوان «اصل حداقل طول توضیحات» (MDL) شناخته می‌شود، استفاده می‌کنند، که نیازی به فرضیاتی که می‌تواند دقت روش‌های دیگر را مختل کند، ندارد. 

ناتان نگ می‌گوید: یکی از راه‌های درک اینکه یک مدل چقدر مطمئن است، گفتن برخی اطلاعات خلاف واقع به آن و دیدن اینکه چقدر احتمال دارد شما را باور کند، خواهد بود.

به عنوان مثال، مدلی را در نظر بگیرید که می‌گوید یک تصویر پزشکی پلورال افیوژن یا آب اوردن ریه را نشان می‌دهد. اگر محققان به مدل بگویند که این تصویر یک ادم را نشان می‌دهد، و او مایل است باور خود را به روز کند، مدل باید کمتر به تصمیم اولیه خود اطمینان داشته باشد.

نگ گفت: «مردم باید بدانند که این سیستم‌ها بسیار خطاپذیر هستند و می‌توانند هرچه پیش می‌روند، همه چیز را درست کنند. یک مدل ممکن است به نظر بسیار مطمئن به نظر برسد، اما چیز‌های مختلفی وجود دارد که این باور را نقض کند.»

در آینده، محققان علاقه‌مند به اعمال رویکرد خود برای مدل‌های زبان بزرگ و مطالعه سایر موارد استفاده بالقوه برای اصل حداقل طول توضیحات هستند.

انتهای پیام/

ارسال نظر