آنامیت| نحوه عملکرد هوش مصنوعی حتی برای خالقان آن هم یک معماست!
خبرگزاری علم و فناوری آنا_حمیدرضا قنبریها؛ ممکن است شما که در حال خواندن این مقاله هستید، حداقل یک بار با ابزارهای شگفتآور هوشمصنوعی کار کرده و از قدرت آن متعجب شده باشید؛ اما چیزی که حدس میزنیم شما را بیشتر متعجب خواهد کرد، این است که حتی کسانی که چنین سیستمهایی را طراحی کردهاند، نمیتوانند به طور کامل عملکرد درونی آنها را درک کنند یا به معنایی دیگر، تصمیمات آنها را پیشبینی کنند!
بنابراین، چنین واقعیت گیجکنندهای، ما را با یک سوال مهم روبهرو میکند: اینکه این مسئله چه چالشهایی برای بشر به همراه خواهد آورد و از آن مهمتر، راهحل چیست؟
پروفسور «بروس اشنایر» (Bruce Schneier) نویسنده «کتاب ذهن یک هکر» و یکی از اعضای مرکز اینترنت و جامعه برکمن در دانشگاه هاروارد که به عنوان یک مرکز تحقیقاتی، روی مسائل حقوقی مرتبط با اینترنت تمرکز دارد، به خبرگزاری آنا میگوید: «جهان پر از سیستمهای پیچیدهای است که آن را درک نمیکنیم. مسئله این نیست که هوشمصنوعی چگونه کار میکند، بلکه باید دید آیا میتوانیم به آن اعتماد کنیم یا نه؟»
از طرف دیگر، «پروفسور لویس آمارال» (Luís Amaral)، استاد دانشگاه نورثوسترن و عضو انجمن ملی علوم آمریکا در گفتوگو با خبرگزاری آنا نظر متفاوتی را ارائه داد. او معتقد است: «لازمه اعتماد به هوشمصنوعی، درک نحوه تصمیمگیری آن است و تا زمانی که رویکردهای فعلی، با قابلیت تفسیر یا شفافیت درون این سیستمها، توسعه نیافتهاند، نباید از هوشمصنوعی در بخشهای حیاتی جامعه استفاده کرد».
سفر به قلب معما
خب در مرحله اول بیایید به قلب این پارادوکس برویم تا درک بهتری از آن داشته باشیم. واقعیت این است که هوش مصنوعی، به ویژه مدلهای یادگیری عمیق، میتوانند فوقالعاده پیچیده باشند. این مدلها اغلب از میلیونها یا حتی میلیاردها پارامتر تشکیل شدهاند که به روشهای کاملا پیچیدهای با هم در تعامل هستند.
کارشناسان نمیتوانند پیشبینیهای مدلهای هوشمصنوعی را توضیح دهند
پروفسور لویس آمارال که تحقیقات زیادی در خصوص سیستمهای پیچیده و چالشهای مرتبط با آنها انجام داده، به ما میگوید: «مشکل واقعی این است که حتی کارشناسان نمیتوانند پیشبینیهای مدلهای هوشمصنوعی را توضیح دهند. وقتی متخصصان، آموزش مدل را به پایان میرسانند، پارامترها تنظیم شده و مدل آنقدر پیچیده میشود که توسط خود سازندگان هم قابل تفسیر نخواهد بود. این موضوع به عنوان «جعبه سیاه هوشمصنوعی» شناخته میشود».
این اصطلاح به این معناست که ما میتوانیم ورودیها و خروجیهای یک سیستم هوش مصنوعی را ببینیم، اما نمیتوانیم به طور دقیق بفهمیم که چگونه این سیستم به نتایج خود رسیده است. این عدم شفافیت، به دلیل پیچیدگی و تعداد زیاد پارامترهای درگیر در فرآیندهای داخلی یک شبکههای عصبی است.
در حال حاضر برخی دیگر از کارشناسان، درک نحوه عمکرد درونی هوشمصنوعی را مسئله اصلی نمیدانند. بروس اشنایر نیز به عنوان یک متخصص رمزنگاری و امنیت اطلاعات، اینگونه فکر میکند. او میگوید: «سوالی که باید بپرسیم این است که آیا میتوانیم به هوشمصنوعی اعتماد کنیم؟ زمانی که چنین سیستمی نشان میدهد این قابلیت را دارد، به آن اعتماد خواهیم کرد. ما از انواع هوشمصنوعی که پشت سیستمهای ناوبری تلفنهای هوشمند است، هر روز استفاده میکنیم و به آن اعتماد داریم.» او اضافه میکند: «من دوستان بسیار غیرقابل پیشبینیای دارم که کاملا به آنها اعتماد دارم.»
جعبه سیاهی که کسی از درون آن خبر ندارد
حقیقتی که باید بدانید این است که دانشمندان برای طراحی سیستمهای هوش مصنوعی، از مغز انسان الگوبرداری کردهاند. همانطور که مغز ما، متشکل از میلیاردها نورون است و با یکدیگر ارتباط برقرار میکنند تا بتوانند اطلاعات را پردازش کنند. در سیستمهای هوشمصنوعی نیز، این نورونها معادل «گرهها» (Nodes) هستند که در شبکههای عصبی مصنوعی به کار میروند.
درست مثل نورونها، هر گره با گرهای دیگر ارتباط دارد و اطلاعات ورودی را پردازش میکند. علاوهبراین، گروه زیادی از گرهها، لایهها را تشکیل میدهند که در این مثال میتوانیم بگوییم شبیه قشرهای مختلف در مغز انسان هستند. هر لایه، دادهها را در سطوح مختلف، پردازش میکند.
این مدلها اغلب از میلیونها یا حتی میلیاردها پارامتر تشکیل شدهاند که به روشهای پیچیدهای در تعامل هستند. بنابراین، همین تعداد زیاد پارامترها و لایهها در مدلهای یادگیری عمیق است که تعیین چگونگی تصمیمگیریهای خاص را دشوار میسازد.
مدلهای هوشمصنوعی نباید در بخشهای مهمی که اشتباهات میتوانند عواقب سنگینی برای ما داشته باشند، استفاده شوند
این مسئله به موضوع دیگری منجر میشود که آمارال به آن اشاره میکند و میگوید: «وقتی شما مقداری ورودی (یک سوال یا مقداری داده) به سیستم هوشمصنوعی میدهید، پاسخی دریافت خواهید کرد که اغلب، خود مدل نمیتواند برآورد دقیقی از عدم قطعیت آن به شما ارائه دهد؛ یعنی مدل قادر به تعیین دقیق میزان احتمال صحیح بودن آن نیست.» او اضافه میکند: «این بدان معناست که مدلهای هوشمصنوعی نباید در بخشهای مهمی که اشتباهات میتوانند عواقب سنگینی برای ما داشته باشند، استفاده شوند.»
مغز ما هم یک جعبه سیاه است!
اشنایر جعبه سیاه را به گونه دیگری میبیند. او عدم درک ما از جعبه سیاه را شبیه همان مشکلی میداند که دانشمندان با مغز انسانها دارند. اشنایر با اشاره به اینکه مغز ما به شدت مبهم و پیچیده است، میگوید: «من نمیتوانم مغز کسی را باز کنم و نحوه عملکرد درونی آن را بفهمم. تنها چیزی که میتوانم بر اساس آن قضاوت کنم، توضیح شخص یا در واقع خروجی مغز است (که اغلب توجیه است تا توضیح). اما کاری که میتوانیم با مدلهای هوشمصنوعی انجام دهیم، این است که درخواست را بارها و بارها اجرا کنیم.»
او در ادامه میگوید: «اگر میخواهید تصمیم هوشمصنوعی را درک کنید، ورودی را تغییر دهید و از آن بخواهید دوباره تصمیم بگیرد. سپس دوباره ورودی را تغییر دهید. هزار بار این کار را تکرار کنید؛ این کار برای مغز انسان شدنی نیست ولی برای هوشمصنوعی چرا».
چرا باید نگران باشیم؟
باید نگران استفاده از هوشمصنوعی در مسائل حیاتی بشر باشیم و نظارتمان بر چنین سیستمهایی را بیشتر کنیم
درست است که اشنایر مسئله اصلی را غیرقابل پیشبینی بودن هوشمصنوعی نمیداند، اما موضوعی که او هم بابت آن نگران است، سوگیری این مدلها است؛ بنابراین مشکلی که هر دو کارشناس بر سر آن توافق دارند، این است که باید نگران استفاده از هوشمصنوعی در مسائل حیاتی بشر باشیم و نظارتمان بر چنین سیستمهایی را بیشتر کنیم.
آمارال، استاد دانشگاه نورث وسترن میگوید:«این مدلها در ابتدا برای کارهای کاملا بیخطر توسعه داده شدند. به عنوان مثال، شما میتوانید به کمک هوشمصنوعی، یکی از دوستان قدیمی خود را در یک عکس بشناسید یا از آن بخواهید تا برای شما درباره ویژگیهای یک تصویر توصیفی بنویسد.» او ادامه میدهد: «اگر مدل هوشمصنوعی به اشتباه پیشبینی کند که شخص درون عکس مری بوده، در حالی که مثلا آنا است، واقعا هیچ مشکلی پیش نمیآید؛ اما اکنون جامعه میخواهد از این مدلها برای بخش مراقبتهای پزشکی، اجرای قانون و تحقیقات علمی استفاده کند.»
یکی از مشکلات مهم درباره مدلهای هوشمصنوعی این است که در صورت یادگیری از دادههای دارای سوگیری، آنها افراطیتر از آنچه آموزش دیدهاند، خواهند شد؛ بنابراین، نباید از این سیستمها در بخشهایی استفاده شود که تقریبا تمام دادهها در آن زمینه، دارای سوگیری هستند.
اشنایر به عنوان متخصص امنیت سایبری که با چندین کمیته دولتی همکاری داشته، عنوان میکند: «اگر مقررات دولتی وجود نداشته باشد که این شرکتها را وادار به کاهش تعصب و سوگیری کند، آنها هیچ کاری در این رابطه انجام نخواهند داد، مگر یک سری کارهای سطحی. به شرکتهای شبکههای اجتماعی نگاه کنید، ببینید وقتی دولت قوانینی را تنظیم نمیکند اوضاع چگونه پیش میرود».
نمونههایی از خطرات جدی معمای هوش مصنوعی
فرض کنید در حوزه پزشکی، یک متخصص پوست، تشخیصی از هوشمصنوعی دریافت میکند که نشان میدهد ضایعه پوستی بیمار، خوش خیم (غیر سرطانی) است. این پزشک، با اعتماد به میزان دقت بالای هوشمصنوعی، تصمیم میگیرد که بیوپسی (بافتبرداری) انجام ندهد.
اگر تصمیم هوشمصنوعی مبتنی بر دادههای مغرضانه یا ناقص باشد، ممکن است انواع خاصی از سرطان را که در مجموعه دادههای آموزشی آن کمتر ارائه شدهاند، از دست بدهد. به عنوان نمونه، اگر هوشمصنوعی عمدتا بر روی تصاویر با رنگ پوست روشنتر آموزش دیده باشد، ممکن است در رنگهای پوست تیرهتر به خوبی عمل نکند.
امروزه حتی برای توسعه تحقیقات علمی هم از هوش مصنوعی استفاده میشود. یکی از موارد واقعی، استفاده از مدل هوشمصنوعی در آزمایشگاه پیشرانش جت ناسا است.
برای مثال هوشمصنوعی میتواند هدایت کامل یک مریخ نورد را در مریخ یا هر سیاره دیگری که قابل کنترل از زمین نیست، در دست بگیرد. از طرف دیگر، هوشمصنوعی میتواند برای بررسی هزاران تصویری که یک مریخ نورد ثبت میکند، استفاده شود.
محققان، اما میگویند، باید بتوانیم قبل استفاده از هوشمصنوعی، آن را درک کنیم و بدانیم که چرا این مدل، مثلا به این نتیجه خاص رسیده یا چنین تصمیمی را اتخاذ کرده تا مطمئن شویم که بر اساس سوگیری یا نادیده گرفتن خطرات بزرگتر نباشد. واقعیت این است که هر تصمیمی در فضا، خطرات زیادی به همراه دارد و ممکن است صدها میلیون دلار هزینه به بار آورد.
راهحل این مسئله چیست؟
آمارال با بیان اینکه باید رویکرد کلی در این حوزه را تغییر دهیم، توضیح میدهد: «در حال حاضر، هدف فقط عملکرد است. باید دید مدلی که روی برخی دادهها پیشبینی انجام میدهد، چقدر دقیق است؟»
بسیاری از افرادی که روی هوشمصنوعی کار میکنند معتقدند که میتوانند یک سیستم فوق هوشمند ایجاد کنند که کاملا جایگزین هوش انسانی میشود
او میگوید: «محبوبترین رویکردهای کنونی نیز، با قابلیت تفسیر یا شفافیت درون این سیستمها، توسعه نیافتهاند. مشکل این است که بسیاری از افرادی که روی هوشمصنوعی کار میکنند معتقدند که میتوانند یک سیستم فوق هوشمند ایجاد کنند که کاملا جایگزین هوش انسانی میشود. با همین رویه، اگر به آن مرحله برسیم، در صورتی که سیستم بخواهد چیزی را برای ما توضیح دهد، مانند این است که از یک فیزیکدان بخواهیم، محاسبات مکانیک کوانتومی را برای یک کودک ۳ ساله توضیح دهد.»
بنابراین، سوالاتی که باید بپرسیم این است که آیا میتوانیم، و اگر میتوانیم، آیا میخواهیم چنین سیستمی را توسعه دهیم یا خیر؟
ما باید سیستمهایی را توسعه دهیم که شفاف و قابل تفسیر باشند. آمارال در این رابطه میگوید: «باید هوشمصنوعی را با دادههایی آموزش دهیم که سوگیریها را تداوم نمیدهند. ما باید در مورد اینکه چه دادهها و کدام سیستمهای انسانی برای آموزش و اصلاح مدلها استفاده شدهاند، شفافیت داشته باشیم.»
از طرف دیگر، اشنایر وظیفه برقراری تعادل بین مزایای هوشمصنوعی و توجه به نگرانیها را فقط وظیفه توسعه دهندگان نمیداند. او با بیان اینکه آنها نمیتوانند به طور کامل مسئله را حل کنند، میگوید: «این موضوع فقط وظیفه آنها نیست. این وظیفه جامعه و سازمانها نیز خواهد بود، که بین فواید و خطرات احتمالی هر فناوری، مشکلات احتمالی را در نظر بگیرند و تعادل برقرار کنند».
آیندهای که نمیدانیم به کدام سمت میرود
در حال حاضر محققان و متخصصان هوشمصنوعی در تلاش هستند سیستمهای شفافتر و قابل درکی ایجاد کنند، اما ظاهرا سرعت پیشرفت مدلهای غیرشفاف آنقدر زیاد است که شاید توسعهدهندگان آن، هرگز به فکر اصلاح آن نیفتند.
پرفسور آمارال از محققانی که به آینده این حوزه خوشبین نیست، میگوید: «من معتقدم ما در میان یک حباب هوشمصنوعی هستیم که توسعه دهندگان این فناوری، بیش از حد وعده دادهاند، اما در عمل سیستمهایی را در جامعه توسعه میدهند که خطرناک هستند و میتوانند آسیبهای زیادی به بار آورند».
اشنایر نیز از طرفی بابت این احساس هیجان میکند که هوشمصنوعی با ارائه توانایی به همه افراد جامعه باعث تمرکززدایی قدرتی شده که قبلا فقط منحصر به افراد معدودی بود. اما از طرف دیگر به این حقیقت اشاره میکند که اگر تسلیم آنچه میلیاردرهای فناوری میخواهند نشویم، امکان واقعی کنترل این فناوری را خواهیم داشت. او در نهایت میگوید: «هوشمصنوعی مولد، حرفهای زیادی برای گفتن دارد، اما قبل از اینکه بتوانیم به آن اجازه مشارکت در مسائل مهم جامعه را بدهیم باید از قابل اعتماد بودن آن، مطمئن شویم».
انتهای پیام/