طبقهبندی MIT به ایجاد قابلیت توضیح در اجزای مدلهای یادگیری ماشینی کمک میکند
به گزارش گروه دانش و فناوری خبرگزاری آنا به نقل از وبگاه (سای تک دیلی)، محققان ابزارهایی را برای کمک به دانشمندان داده توسعه میدهند تا ویژگیهای مورد استفاده در مدلهای یادگیری ماشینی را برای کاربران نهایی قابل درکتر کنند. روشهای توضیحی که به کاربران کمک میکنند مدلهای یادگیری ماشینی را درک کنند و به آنها اعتماد کنند، اغلب توضیح میدهند که تا چه اندازه ویژگیهای خاصی که در مدل استفاده میشود در پیشبینی آن نقش دارند.
روشهای توضیحی که به کاربران کمک میکنند مدلهای یادگیری ماشینی را درک کنند و به آنها اعتماد کنند، اغلب توضیح میدهند که تا چه اندازه ویژگیهای خاصی که در مدل استفاده میشود در پیشبینی آن نقش دارند. برای مثال، اگر مدلی خطر ابتلای بیمار به بیماری قلبی را پیشبینی کند، ممکن است پزشک بخواهد بداند دادههای ضربان قلب بیمار چقدر بر این پیشبینی تأثیر میگذارد.
اما اگر آن ویژگیها آنقدر پیچیده یا پیچیده باشند که کاربر نتواند آنها را درک کند، آیا روش توضیح فایدهای دارد؟
محققان MIT در تلاش هستند تا تفسیرپذیری ویژگیها را بهبود بخشند تا تصمیم گیرندگان با استفاده از خروجیهای مدلهای یادگیری ماشینی راحتتر باشند. با تکیه بر سالها کار میدانی، آنها یک طبقهبندی ایجاد کردند تا به توسعهدهندگان کمک کند ویژگیهایی را ایجاد کنند که درک آن برای مخاطب هدفشان آسانتر باشد.
میگوید: ما متوجه شدیم که در دنیای واقعی، حتی اگر از روشهای پیشرفته برای توضیح مدلهای یادگیری ماشینی استفاده میکردیم، هنوز سردرگمی زیادی ناشی از ویژگیها، نه از خود مدل، وجود دارد. الکساندرا زیتک، دانشجوی دکتری مهندسی برق و علوم کامپیوتر و نویسنده اصلی مقالهای در زمینه معرفی طبقه بندی.
برای ایجاد طبقه بندی، محققان ویژگیهایی را تعریف کردند که ویژگیها را برای پنج نوع کاربر قابل تفسیر میکند، از کارشناسان هوش مصنوعی گرفته تا افرادی که تحت تأثیر پیش بینی مدل یادگیری ماشینی قرار میگیرند. آنها همچنین دستورالعملهایی را ارائه میدهند که چگونه سازندگان مدل میتوانند ویژگیها را به قالبهایی تبدیل کنند که درک آن برای افراد عادی آسانتر باشد.
آنها امیدوارند که کار آنها به سازندگان مدل الهام بخش شود تا از ابتدای فرآیند توسعه، به جای تلاش برای کار معکوس و تمرکز بر توضیح پذیری، از ابتدای فرآیند توسعه استفاده کنند.
از نویسندگان MIT میتوان به Dongyu Liu، فوق دکترا اشاره کرد. پروفسور مدعو Laure Berti-Équille، مدیر تحقیقات IRD؛ و نویسنده ارشد Kalyan Veeramachaneni، دانشمند پژوهشی اصلی در آزمایشگاه اطلاعات و سیستمهای تصمیم گیری (LIDS) و رهبر گروه داده به هوش مصنوعی. ایگناسیو آرنالدو، دانشمند اصلی داده در Corelight به آنها ملحق میشود. این تحقیق در نسخه ژوئن انجمن ماشینهای محاسباتی گروه مورد علاقه ویژه در مورد کشف دانش و دادهکاوی در خبرنامه Explorations با بازبینی همتا منتشر شد.
** درسهای دنیای واقعی
ویژگیها متغیرهای ورودی هستند که به مدلهای یادگیری ماشینی داده میشوند. آنها معمولاً از ستونهای یک مجموعه داده ترسیم میشوند.
Veeramachaneni توضیح میدهد که دانشمندان داده معمولاً ویژگیهایی را برای مدل انتخاب میکنند و به دست میآورند، و عمدتاً بر اطمینان از توسعه ویژگیها برای بهبود دقت مدل تمرکز میکنند، نه اینکه آیا تصمیمگیرنده میتواند آنها را درک کند یا خیر.
برای چندین سال، او و تیمش با تصمیمگیرندگان برای شناسایی چالشهای قابلیت استفاده در یادگیری ماشین کار کردهاند. این متخصصان حوزه، که اکثر آنها فاقد دانش یادگیری ماشینی هستند، اغلب به مدلها اعتماد ندارند، زیرا ویژگیهایی را که بر پیشبینیها تأثیر میگذارند، درک نمیکنند.
برای یک پروژه، آنها با پزشکان یک ICU بیمارستان همکاری کردند که از یادگیری ماشینی برای پیشبینی خطری که بیمار پس از جراحی قلب با عوارض مواجه میشود، استفاده کردند. برخی از ویژگیها بهعنوان مقادیر جمعآوری شده، مانند روند ضربان قلب بیمار در طول زمان، ارائه شدند. در حالی که ویژگیهایی که به این روش کدگذاری شدهاند «مدل آماده» بودند (مدل میتوانست دادهها را پردازش کند)، پزشکان نمیدانستند چگونه محاسبه میشوند.
لیو میگوید، آنها ترجیح میدهند ببینند که چگونه این ویژگیهای جمعآوری شده با مقادیر اصلی مرتبط هستند، بنابراین میتوانند ناهنجاریها را در ضربان قلب بیمار شناسایی کنند.
در مقابل، گروهی از دانشمندان یادگیرنده ویژگیهایی را ترجیح میدهند که تجمیع شده باشند. به جای داشتن قابلیتی مانند تعداد پستهایی که یک دانشآموز در انجمنهای گفتگو منتشر میکند، ترجیح میدهند ویژگیهای مرتبط را با هم گروهبندی کنند و با عباراتی که میدانند برچسبگذاری شوند، مانند «مشارکت».
با تفسیرپذیری، یک اندازه برای همه مناسب نیست. وقتی از منطقهای به منطقه دیگر میروید، نیازهای مختلفی وجود دارد. ویرماچاننی میگوید که تفسیرپذیری خود سطوح مختلفی دارد.
این ایده که یک اندازه برای همه مناسب نیست، کلید طبقه بندی محققان است. آنها ویژگیهایی را تعریف میکنند که میتوانند ویژگیها را کم و بیش برای تصمیم گیرندگان مختلف قابل تفسیر کنند و مشخص کنند که چه ویژگیهایی احتمالاً برای کاربران خاص مهم هستند.
به عنوان مثال، توسعه دهندگان یادگیری ماشینی ممکن است بر داشتن ویژگیهایی تمرکز کنند که با مدل سازگار و قابل پیش بینی هستند، به این معنی که انتظار میرود عملکرد مدل را بهبود بخشند.
از سوی دیگر، تصمیم گیرندگانی که تجربه یادگیری ماشینی ندارند، ممکن است با ویژگیهایی که توسط انسان بیان میشوند، بهتر مورد استفاده قرار گیرند، به این معنی که آنها به گونهای توصیف شدهاند که برای کاربران طبیعی است و قابل درک باشد، به این معنی که به معیارهای دنیای واقعی اشاره میکنند. کاربران میتوانند در مورد آن استدلال کنند.
طبقهبندی میگوید، اگر ویژگیهای قابل تفسیری ایجاد میکنید، تا چه سطحی قابل تفسیر هستند؟ Zytek میگوید، بسته به نوع متخصصان دامنهای که با آنها کار میکنید، ممکن است به همه سطوح نیاز نداشته باشید.
** تفسیرپذیری را در اولویت قرار دهیم
محققان همچنین تکنیکهای مهندسی ویژگیهایی را که یک توسعهدهنده میتواند برای تفسیرپذیرتر کردن ویژگیها برای یک مخاطب خاص استفاده کند، تشریح میکنند.
مهندسی ویژگی فرآیندی است که در آن دانشمندان داده با استفاده از تکنیکهایی مانند جمعآوری دادهها یا عادیسازی مقادیر، دادهها را به قالبی که مدلهای یادگیری ماشینی میتوانند پردازش کنند، تبدیل میکنند. اکثر مدلها همچنین نمیتوانند دادههای دستهبندی را پردازش کنند، مگر اینکه به یک کد عددی تبدیل شوند. باز کردن این دگرگونیها برای افراد غیرممکن است.
Zytek میگوید ایجاد ویژگیهای قابل تفسیر ممکن است شامل لغو برخی از آن کدگذاری باشد. به عنوان مثال، یک تکنیک مهندسی ویژگی مشترک، گسترههای داده را سازماندهی میکند تا همه آنها دارای تعداد سال یکسانی باشند. برای تفسیرپذیرتر کردن این ویژگیها، میتوان محدودههای سنی را با استفاده از اصطلاحات انسانی مانند نوزاد، کودک نوپا، کودک و نوجوان گروهبندی کرد. لیو میافزاید: یا به جای استفاده از یک ویژگی تبدیل شده مانند ضربان متوسط پالس، یک ویژگی قابل تفسیر ممکن است به سادگی دادههای نرخ پالس واقعی باشد.
در بسیاری از حوزهها، مبادله بین ویژگیهای قابل تفسیر و دقت مدل در واقع بسیار کم است. بهعنوان مثال، زمانی که ما با غربالگریهای رفاه کودکان کار میکردیم، مدل را تنها با استفاده از ویژگیهایی که تعاریف ما را برای تفسیرپذیری مطابقت داشتند، دوباره آموزش دادیم و کاهش عملکرد تقریباً ناچیز بود.
با تکیه بر این کار، محققان در حال توسعه سیستمی هستند که توسعهدهنده مدل را قادر میسازد تا تبدیلهای ویژگیهای پیچیده را به شیوهای کارآمدتر مدیریت کند تا توضیحاتی با محوریت انسان برای مدلهای یادگیری ماشین ایجاد کند. این سیستم جدید همچنین الگوریتمهای طراحی شده برای توضیح مجموعه دادههای آماده مدل را به قالبهایی تبدیل میکند که برای تصمیم گیرندگان قابل درک باشد.
انتهای پیام/