دیده بان پیشرفت علم، فناوری و نوآوری
آنا گزارش می‌دهد؛

جعبه سیاه هوش مصنوعی/ مدل‌‌های یادگیری ماشین تا چه اندازه شفاف هستند؟

جعبه سیاه هوش مصنوعی  مدل‌‌های یادگیری ماشین تا چه اندازه شفاف هستند؟
سازندگان مدل‌های پیشرفته یادگیری عمیق نمی‌توانند به طور کامل بیان کنند که هوش مصنوعی این ورودی‌ها را به خروجی تبدیل می‌کند؛ چراکه پیچیدگی‌های یک شبکه عصبی که بر اساس میلیون‌ها مثال آموزش داده شده است برای ذهن انسان پیچیده است.
کد خبر : 905829

خبرگزاری علم و فناوری آنا؛ سال‌های اخیر نگرانی‌های زیادی در مورد «قابلیت توضیح‌پذیری» سیستم‌های هوش مصنوعی در میان سیاست‌گذاران و مردم به وجود آمده است. همانطور که هوش مصنوعی پیشرفته‌تر می‌شود و در حوزه‌هایی مانند مراقبت‌های بهداشتی، استخدام، و عدالت کیفری توسعه پیدا می‌کند، برخی از افراد خواستار شفافیت و تفسیرپذیری این سیستم‌ها هستند. درواقع ترس آنها از این است که ماهیت «جعبه سیاه» مدل‌های یادگیری ماشینی مدرن، آن‌ها را از قابلیت پاسخگویی به مسائل مختلف محروم می‌کند و باعث می‌شود که خطرناک به نظر برسند.

توضیح پذیری هوش مصنوعی چقدر اهمیت دارد؟

در حالی که تمایل به توضیح هوش مصنوعی قابل درک است، اغلب در بیان اهمیت آن اغراق شده است. اینکه چه معیار‌هایی دقیقاً یک سیستم را قابل توضیح می‌کند، همچنان نامشخص است. مهمتر از آن، فقدان قابلیت توضیح‌پذیری لزوما‍ً یک سیستم هوش مصنوعی را غیرقابل اعتماد یا ناامن نمی‌کند.

سازندگان مدل‌های پیشرفته یادگیری عمیق نمی‌توانند به طور کامل بیان کنند که چگونه این مدل‌ها ورودی‌ها را به خروجی تبدیل می‌کنند؛ چراکه پیچیدگی‌های یک شبکه عصبی که بر اساس میلیون‌ها مثال آموزش داده شده است، برای ذهن انسان پیچیده‌تر از آن است که بتواند به طور کامل آن‌‌ها را درک کند. همین موضوع را می‌توان به دیگر فناوری‌های بی‌شماری که هر روز از آنها استفاده می‌کنیم تعمیم داد.

ما انسان‌ها نمی‌توانیم به طور کامل تعاملات مکانیکی کوانتومی، فرآیند‌های تولید شیمیایی یک دارو یا ساخت نیمه هادی‌ها را درک کنیم. درحالی که این موضوع ما را از بهره مندی از دارو‌ها و ریزتراشه‌هایی که با استفاده از این دانش جزئی تولید می‌شوند، باز نمی‌دارد. آنچه ما به آن اهمیت می‌دهیم این است که خروجی‌ها علاوه بر قابل اعتماد بودن در دستیابی به اهداف خود موفق باشند.

بازکردن جعبه سیاه هوش مصنوعی

وقتی نوبت به سیستم‌های هوش مصنوعی پرمخاطب می‌رسد، باید قبل از هر چیز روی آزمایش آنها تمرکز کنیم تا عملکردشان را تأیید کنیم و اطمینان حاصل کنیم که طبق خواسته ما رفتار می‌کنند.

حوزه‌ای نوظهور به نام تفسیرپذیری هوش مصنوعی قصد دارد تا جعبه سیاه یادگیری عمیق را تا حدودی باز کند. تحقیقات در این زمینه تکنیک‌هایی را برای شناسایی ویژگی‌های ورودی در تعیین پیش‌بینی‌های یک مدل برجسته‌تر و برای توصیف چگونگی جریان اطلاعات در لایه‌های یک شبکه عصبی مصنوعی به دست آورده است. با گذشت زمان، تصویر واضح تری از نحوه پردازش این مدل داده‌ها برای رسیدن به خروجی‌ها به دست خواهیم آورد.

با این حال، ما نباید انتظار داشته باشیم که سیستم‌های هوش مصنوعی مانند یک معادله ساده یا تصمیم کاملاً قابل توضیح باشند. قوی‌ترین مدل‌ها احتمالاً همیشه دارای سطحی از پیچیدگی غیرقابل کاهش هستند که این موضوع اشکالی ندارد. بسیاری از دانش‌های بشری ضمنی هستند و به سختی قابل بیان است. یک استاد بزرگ شطرنج نمی‌تواند شهود استراتژیک خود را به طور کامل توضیح دهد و یک نقاش ماهر نمی‌تواند منبع الهام خود را به طور کامل بیان کند. آنچه اهمیت دارد این است که نتایج نهایی تلاش آنها توسط خودشان و دیگران ارزش گذاری شود.

شفافیت یا عملکرد هوش مصنوعی؛ مسئله کدام است؟

هوش مصنوعی که به راحتی توسط انسان قابل تفسیر باشد لزوما از مدلی که فرآیند تولیدات و تصمیمات آن مشخص باشد قوی‌تر یا قابل اعتمادتر نیست. حتی ممکن است بین عملکرد و توضیح پذیری آن توازن وجود داشته باشد.

در نهایت، یک سیستم هوش مصنوعی باید بر اساس تاثیر آن در دنیای واقعی ارزیابی شود. مدل استخدامی که غیرشفاف باشد، اما در پیش‌بینی عملکرد کارکنان دقیق‌تر باشد، به مدل شفاف مبتنی بر قانون که کارگران تنبل را توصیه می‌کند، ترجیح داده می‌شود. یک الگوریتم تشخیص تومور که قابل توضیح نیست، اما با اطمینان بیشتری نسبت به پزشکان سرطان‌ها را تشخیص می‌دهد، ارزش به کارگیری دارد. ما باید تلاش کنیم تا سیستم‌های هوش مصنوعی را در صورت امکان قابل تفسیر کنیم، اما نه به قیمت مزایایی که ارائه می‌کنند.

البته، این بدان معنا نیست که هوش مصنوعی نباید قابلیت پاسخگویی داشته باشد، بلکه توسعه‌دهندگان باید سیستم‌های هوش مصنوعی را به‌طور گسترده آزمایش کنند تا عملکرد آن‌ها را در دنیای واقعی آنها را تأیید کند، و تلاش کنند تا آنها را با ارزش‌های انسانی هماهنگ کنند، به‌ویژه قبل از اینکه آنها را در جهان گسترده‌تر رها کنند. اما ما نباید اجازه دهیم مفاهیم انتزاعی توضیح پذیری به یک حواس پرتی تبدیل شوند، چه رسد به اینکه مانعی برای درک پتانسیل عظیم هوش مصنوعی برای بهبود زندگی ما شوند.

با اقدامات احتیاطی مناسب، یک مدل جعبه سیاه می‌تواند ابزار قدرتمندی برای موفقیت باشد. در پایان، این خروجی است که اهمیت دارد، نه اینکه آیا فرآیندی که خروجی را ارائه می‌کند قابل توضیح است یا خیر.

انتهای پیام/

ارسال نظر
قالیشویی ادیب