دیده بان پیشرفت علم، فناوری و نوآوری
در گفت‌وگوی اختصاصی آنا با دو متخصص هوش مصنوعی بررسی شد؛

آنامیت| نحوه عملکرد هوش مصنوعی حتی برای خالقان آن هم یک معماست!

آنامیت| نحوه عملکرد هوش مصنوعی حتی برای خالقان آن هم یک معماست!
دانشمندانی که ابزار‌های شگفت‌آور هوش‌مصنوعی را طراحی کرده‌اند، نمی‌توانند به طور کامل عملکرد درونی آنها را درک کنند یا به معنایی دیگر، تصمیمات آنها را پیش‌بینی کنند! اما این مسئله چه چالش‌هایی برای بشر به همراه خواهد آورد و از آن مهم‌تر، راه‌حل چیست؟
کد خبر : 923332

خبرگزاری علم و فناوری آنا_حمیدرضا قنبریها؛ ممکن است شما که در حال خواندن این مقاله هستید، حداقل یک بار با ابزار‌های شگفت‌آور هوش‌مصنوعی کار کرده و از قدرت آن متعجب شده باشید؛ اما چیزی که حدس می‌زنیم شما را بیشتر متعجب خواهد کرد، این است که حتی کسانی که چنین سیستم‌هایی را طراحی کرده‌اند، نمی‌توانند به طور کامل عملکرد درونی آنها را درک کنند یا به معنایی دیگر، تصمیمات آنها را پیش‌بینی کنند!

بنابراین، چنین واقعیت گیج‌کننده‌ای، ما را با یک سوال مهم روبه‌رو می‌کند: اینکه این مسئله چه چالش‌هایی برای بشر به همراه خواهد آورد و از آن مهم‌تر، راه‌حل چیست؟

پروفسور «بروس اشنایر» (Bruce Schneier) نویسنده «کتاب ذهن یک هکر» و یکی از اعضای مرکز اینترنت و جامعه برکمن در دانشگاه هاروارد که به عنوان یک مرکز تحقیقاتی، روی مسائل حقوقی مرتبط با اینترنت تمرکز دارد، به خبرگزاری آنا می‌گوید: «جهان پر از سیستم‌های پیچیده‌ای است که آن را درک نمی‌کنیم. مسئله این نیست که هوش‌مصنوعی چگونه کار می‌کند، بلکه باید دید آیا می‌توانیم به آن اعتماد کنیم یا نه؟»

از طرف دیگر، «پروفسور لویس آمارال» (Luís Amaral)، استاد دانشگاه نورث‌وسترن و عضو انجمن ملی علوم آمریکا در گفت‌وگو با خبرگزاری آنا نظر متفاوتی را ارائه داد. او معتقد است: «لازمه اعتماد به هوش‌مصنوعی، درک نحوه تصمیم‌گیری آن است و تا زمانی که رویکرد‌های فعلی، با قابلیت تفسیر یا شفافیت درون این سیستم‌ها، توسعه نیافته‌اند، نباید از هوش‌مصنوعی در بخش‌های حیاتی جامعه استفاده کرد».

سفر به قلب معما

خب در مرحله اول بیایید به قلب این پارادوکس برویم تا درک بهتری از آن داشته باشیم. واقعیت این است که هوش مصنوعی، به ویژه مدل‌های یادگیری عمیق، می‌توانند فوق‌العاده پیچیده باشند. این مدل‌ها اغلب از میلیون‌ها یا حتی میلیارد‌ها پارامتر تشکیل شده‌اند که به روش‌های کاملا پیچیده‌ای با هم در تعامل هستند.

کارشناسان نمی‌توانند پیش‌بینی‌های مدل‌های هوش‌مصنوعی را توضیح دهند

پروفسور لویس آمارال که تحقیقات زیادی در خصوص سیستم‌های پیچیده و چالش‌های مرتبط با آنها انجام داده، به ما می‌گوید: «مشکل واقعی این است که حتی کارشناسان نمی‌توانند پیش‌بینی‌های مدل‌های هوش‌مصنوعی را توضیح دهند. وقتی متخصصان، آموزش مدل را به پایان می‌رسانند، پارامتر‌ها تنظیم شده و مدل آنقدر پیچیده می‌شود که توسط خود سازندگان هم قابل تفسیر نخواهد بود. این موضوع به عنوان «جعبه سیاه هوش‌مصنوعی» شناخته می‌شود».

 

آنامیت| نحوه عملکرد هوش مصنوعی حتی برای خالقان آن هم یک معماست!

این اصطلاح به این معناست که ما می‌توانیم ورودی‌ها و خروجی‌های یک سیستم هوش مصنوعی را ببینیم، اما نمی‌توانیم به طور دقیق بفهمیم که چگونه این سیستم به نتایج خود رسیده است. این عدم شفافیت، به دلیل پیچیدگی و تعداد زیاد پارامتر‌های درگیر در فرآیند‌های داخلی یک شبکه‌های عصبی است.

در حال حاضر برخی دیگر از کارشناسان، درک نحوه عمکرد درونی هوش‌مصنوعی را مسئله اصلی نمی‌دانند. بروس اشنایر نیز به عنوان یک متخصص رمزنگاری و امنیت اطلاعات، این‌گونه فکر می‌کند. او می‌گوید: «سوالی که باید بپرسیم این است که آیا می‌توانیم به هوش‌مصنوعی اعتماد کنیم؟ زمانی که چنین سیستمی نشان می‌دهد این قابلیت را دارد، به آن اعتماد خواهیم کرد. ما از انواع هوش‌مصنوعی که پشت سیستم‌های ناوبری تلفن‌های هوشمند است، هر روز استفاده می‌کنیم و به آن اعتماد داریم.» او اضافه می‌کند: «من دوستان بسیار غیرقابل پیش‌بینی‌ای دارم که کاملا به آنها اعتماد دارم.»

جعبه سیاهی که کسی از درون آن خبر ندارد

حقیقتی که باید بدانید این است که دانشمندان برای طراحی سیستم‌های هوش مصنوعی، از مغز انسان الگوبرداری کرده‌اند. همانطور که مغز ما، متشکل از میلیارد‌ها نورون است و با یکدیگر ارتباط برقرار می‌کنند تا بتوانند اطلاعات را پردازش کنند. در سیستم‌های هوش‌مصنوعی نیز، این نورون‌ها معادل «گره‌ها» (Nodes) هستند که در شبکه‌های عصبی مصنوعی به کار می‌روند.

درست مثل نورون‌ها، هر گره با گره‌ای دیگر ارتباط دارد و اطلاعات ورودی را پردازش می‌کند. علاوه‌بر‌این، گروه زیادی از گره‌ها، لایه‌ها را تشکیل می‌دهند که در این مثال می‌توانیم بگوییم شبیه قشر‌های مختلف در مغز انسان هستند. هر لایه، داده‌ها را در سطوح مختلف، پردازش می‌کند.

این مدل‌ها اغلب از میلیون‌ها یا حتی میلیارد‌ها پارامتر تشکیل شده‌اند که به روش‌های پیچیده‌ای در تعامل هستند. بنابراین، همین تعداد زیاد پارامتر‌ها و لایه‌ها در مدل‌های یادگیری عمیق است که تعیین چگونگی تصمیم‌گیری‌های خاص را دشوار می‌سازد.

مدل‌های هوش‌مصنوعی نباید در بخش‌های مهمی که اشتباهات می‌توانند عواقب سنگینی برای ما داشته باشند، استفاده شوند

این مسئله به موضوع دیگری منجر می‌شود که آمارال به آن اشاره می‌کند و می‌گوید: «وقتی شما مقداری ورودی (یک سوال یا مقداری داده) به سیستم هوش‌مصنوعی می‌دهید، پاسخی دریافت خواهید کرد که اغلب، خود مدل نمی‌تواند برآورد دقیقی از عدم قطعیت آن به شما ارائه دهد؛ یعنی مدل قادر به تعیین دقیق میزان احتمال صحیح بودن آن نیست.» او اضافه می‌کند: «این بدان معناست که مدل‌های هوش‌مصنوعی نباید در بخش‌های مهمی که اشتباهات می‌توانند عواقب سنگینی برای ما داشته باشند، استفاده شوند.»

 

آنامیت| نحوه عملکرد هوش مصنوعی حتی برای خالقان آن هم یک معماست!

مغز ما هم یک جعبه سیاه است!

اشنایر جعبه سیاه را به گونه دیگری می‌بیند. او عدم درک ما از جعبه سیاه را شبیه همان مشکلی می‌داند که دانشمندان با مغز انسان‌ها دارند. اشنایر با اشاره به اینکه مغز ما به شدت مبهم و پیچیده است، می‌گوید: «من نمی‌توانم مغز کسی را باز کنم و نحوه عملکرد درونی آن را بفهمم. تنها چیزی که می‌توانم بر اساس آن قضاوت کنم، توضیح شخص یا در واقع خروجی مغز است (که اغلب توجیه است تا توضیح). اما کاری که می‌توانیم با مدل‌های هوش‌مصنوعی انجام دهیم، این است که درخواست را بار‌ها و بار‌ها اجرا کنیم.»

او در ادامه می‌گوید: «اگر می‌خواهید تصمیم هوش‌مصنوعی را درک کنید، ورودی را تغییر دهید و از آن بخواهید دوباره تصمیم بگیرد. سپس دوباره ورودی را تغییر دهید. هزار بار این کار را تکرار کنید؛ این کار برای مغز انسان شدنی نیست ولی برای هوش‌مصنوعی چرا».

چرا باید نگران باشیم؟

باید نگران استفاده از هوش‌مصنوعی در مسائل حیاتی بشر باشیم و نظارتمان بر چنین سیستم‌هایی را بیشتر کنیم

درست است که اشنایر مسئله اصلی را غیرقابل پیش‌بینی بودن هوش‌مصنوعی نمی‌داند، اما موضوعی که او هم بابت آن نگران است، سوگیری این مدل‌ها است؛ بنابراین مشکلی که هر دو کارشناس بر سر آن توافق دارند، این است که باید نگران استفاده از هوش‌مصنوعی در مسائل حیاتی بشر باشیم و نظارتمان بر چنین سیستم‌هایی را بیشتر کنیم.

آمارال، استاد دانشگاه نورث وسترن می‌گوید:«این مدل‌ها در ابتدا برای کار‌های کاملا بی‌خطر توسعه داده شدند. به عنوان مثال، شما می‌توانید به کمک هوش‌مصنوعی، یکی از دوستان قدیمی خود را در یک عکس بشناسید یا  از آن بخواهید تا برای شما درباره ویژگی‌های یک تصویر توصیفی بنویسد.» او ادامه می‌دهد: «اگر مدل هوش‌مصنوعی به اشتباه پیش‌بینی کند که شخص درون عکس مری بوده، در حالی که مثلا آنا است، واقعا هیچ مشکلی پیش نمی‌آید؛ اما اکنون جامعه می‌خواهد از این مدل‌ها برای بخش مراقبت‌های پزشکی، اجرای قانون و تحقیقات علمی استفاده کند.»

یکی از مشکلات مهم درباره مدل‌های هوش‌مصنوعی این است که در صورت یادگیری از داده‌های دارای سوگیری، آنها افراطی‌تر از آنچه آموزش دیده‌اند، خواهند شد؛ بنابراین، نباید از این سیستم‌ها در بخش‌هایی استفاده شود که تقریبا تمام داده‌ها در آن زمینه، دارای سوگیری هستند.

اشنایر به عنوان متخصص امنیت سایبری که با چندین کمیته دولتی همکاری داشته، عنوان می‌کند: «اگر مقررات دولتی وجود نداشته باشد که این شرکت‌ها را وادار به کاهش تعصب و سوگیری کند، آنها هیچ کاری در این رابطه انجام نخواهند داد، مگر یک سری کار‌های سطحی. به شرکت‌های شبکه‌های اجتماعی نگاه کنید، ببینید وقتی دولت قوانینی را تنظیم نمی‌کند اوضاع چگونه پیش می‌رود».

نمونه‌هایی از خطرات جدی معمای هوش مصنوعی

فرض کنید در حوزه پزشکی، یک متخصص پوست، تشخیصی از هوش‌مصنوعی دریافت می‌کند که نشان می‌دهد ضایعه پوستی بیمار، خوش خیم (غیر سرطانی) است. این پزشک، با اعتماد به میزان دقت بالای هوش‌مصنوعی، تصمیم می‌گیرد که بیوپسی (بافت‌برداری) انجام ندهد.

آنامیت| نحوه عملکرد هوش مصنوعی حتی برای خالقان آن هم یک معماست!

اگر تصمیم هوش‌مصنوعی مبتنی بر داده‌های مغرضانه یا ناقص باشد، ممکن است انواع خاصی از سرطان را که در مجموعه داده‌های آموزشی آن کمتر ارائه شده‌اند، از دست بدهد. به عنوان نمونه، اگر هوش‌مصنوعی عمدتا بر روی تصاویر با رنگ پوست روشن‌تر آموزش دیده باشد، ممکن است در رنگ‌های پوست تیره‌تر به خوبی عمل نکند.

امروزه حتی برای توسعه تحقیقات علمی هم از هوش مصنوعی استفاده می‌شود. یکی از موارد واقعی، استفاده از مدل هوش‌مصنوعی در آزمایشگاه پیش‌رانش جت ناسا است.

برای مثال هوش‌مصنوعی می‌تواند هدایت کامل یک مریخ نورد را در مریخ یا هر سیاره دیگری که قابل کنترل از زمین نیست، در دست بگیرد. از طرف دیگر، هوش‌مصنوعی می‌تواند برای بررسی هزاران تصویری که یک مریخ نورد ثبت می‌کند، استفاده شود.

آنامیت| نحوه عملکرد هوش مصنوعی حتی برای خالقان آن هم یک معماست!

محققان، اما می‌گویند، باید بتوانیم قبل استفاده از هوش‌مصنوعی، آن را درک کنیم و بدانیم که چرا این مدل، مثلا به این نتیجه خاص رسیده یا چنین تصمیمی را اتخاذ کرده تا مطمئن شویم که بر اساس سوگیری یا نادیده گرفتن خطرات بزرگ‌تر نباشد. واقعیت این است که هر تصمیمی در فضا، خطرات زیادی به همراه دارد و ممکن است صد‌ها میلیون دلار هزینه به بار آورد.

راه‌حل این مسئله چیست؟

آمارال با بیان اینکه باید رویکرد کلی در این حوزه را تغییر دهیم، توضیح می‌دهد: «در حال حاضر، هدف فقط عملکرد است. باید دید مدلی که روی برخی داده‌ها پیش‌بینی انجام می‌دهد، چقدر دقیق است؟»

بسیاری از افرادی که روی هوش‌مصنوعی کار می‌کنند معتقدند که می‌توانند یک سیستم فوق هوشمند ایجاد کنند که کاملا جایگزین هوش انسانی می‌شود

او می‌گوید: «محبوب‌ترین رویکرد‌های کنونی نیز، با قابلیت تفسیر یا شفافیت درون این سیستم‌ها، توسعه نیافته‌اند. مشکل این است که بسیاری از افرادی که روی هوش‌مصنوعی کار می‌کنند معتقدند که می‌توانند یک سیستم فوق هوشمند ایجاد کنند که کاملا جایگزین هوش انسانی می‌شود. با همین رویه، اگر به آن مرحله برسیم، در صورتی که سیستم بخواهد چیزی را برای ما توضیح دهد، مانند این است که از یک فیزیکدان بخواهیم، محاسبات مکانیک کوانتومی را برای یک کودک ۳ ساله توضیح دهد.»

بنابراین، سوالاتی که باید بپرسیم این است که آیا می‌توانیم، و اگر می‌توانیم، آیا می‌خواهیم چنین سیستمی را توسعه دهیم یا خیر؟

ما باید سیستم‌هایی را توسعه دهیم که شفاف و قابل تفسیر باشند. آمارال در این رابطه می‌گوید: «باید هوش‌مصنوعی را با داده‌هایی آموزش دهیم که سوگیری‌ها را تداوم نمی‌دهند. ما باید در مورد اینکه چه داده‌ها و کدام سیستم‌های انسانی برای آموزش و اصلاح مدل‌ها استفاده شده‌اند، شفافیت داشته باشیم.»

از طرف دیگر، اشنایر وظیفه برقراری تعادل بین مزایای هوش‌مصنوعی و توجه به نگرانی‌ها را فقط وظیفه توسعه دهندگان نمی‌داند. او با بیان اینکه آنها نمی‌توانند به طور کامل مسئله را حل کنند، می‌گوید: «این موضوع فقط وظیفه آنها نیست. این وظیفه جامعه و سازمان‌ها نیز خواهد بود، که بین فواید و خطرات احتمالی هر فناوری، مشکلات احتمالی را در نظر بگیرند و تعادل برقرار کنند».

آینده‌ای که نمی‌دانیم به کدام سمت می‌رود

در حال حاضر محققان و متخصصان هوش‌مصنوعی در تلاش هستند سیستم‌های شفاف‌تر و قابل درکی ایجاد کنند، اما ظاهرا سرعت پیشرفت مدل‌های غیرشفاف آنقدر زیاد است که شاید توسعه‌دهندگان آن، هرگز به فکر اصلاح آن نیفتند.

پرفسور آمارال از محققانی که به آینده این حوزه خوش‌بین نیست، می‌گوید: «من معتقدم ما در میان یک حباب هوش‌مصنوعی هستیم که توسعه دهندگان این فناوری، بیش از حد وعده داده‌اند، اما در عمل سیستم‌هایی را در جامعه توسعه می‌دهند که خطرناک هستند و می‌توانند آسیب‌های زیادی به بار آورند».

اشنایر نیز از طرفی بابت این احساس هیجان می‌کند که هوش‌مصنوعی با ارائه توانایی به همه افراد جامعه باعث تمرکززدایی قدرتی شده که قبلا فقط منحصر به افراد معدودی بود. اما از طرف دیگر به این حقیقت اشاره می‌کند که اگر تسلیم آنچه میلیاردر‌های فناوری می‌خواهند نشویم، امکان واقعی کنترل این فناوری را خواهیم داشت. او در نهایت می‌گوید: «هوش‌مصنوعی مولد، حرف‌های زیادی برای گفتن دارد، اما قبل از اینکه بتوانیم به آن اجازه مشارکت در مسائل مهم جامعه را بدهیم باید از قابل اعتماد بودن آن، مطمئن شویم».

انتهای پیام/

ارسال نظر
گوشتیران
قالیشویی ادیب