آخرین اخبار:
00:03 26 / 02 /1405
خطای محاسباتی گوگل در کالبدشناسی

هوش مصنوعی گوگل عضو جدیدی به بدن انسان اضافه کرد

انتشار نتایج عملکرد مدل هوش مصنوعی پزشکی گوگل با نام Med-Gemini، موجی از نگرانی را در میان جامعه متخصصان مغز و اعصاب برانگیخت چرا که این مدل در گزارش‌های خود از واژه‌ای برای توصیف یک بخش از مغز استفاده کرده است که اساساً در آناتومی بدن انسان وجود خارجی ندارد. این خطا که در ابتدا توسط گوگل یک «غلط تایپی» ساده قلمداد شد، حالا به مرکز بحث‌های جدی درباره امنیت بیمار و خطرات اعتماد بیش از حد به فناوری در تشخیص‌های حیاتی تبدیل شده است.

اشتباه مورد بحث به واژه «باسی‌لار گانگلیا» بازمی‌گردد که این مدل هوش مصنوعی آن را در تحلیل یک سی‌تی‌اسکن مغزی به کار برده است. در ساختار مغز انسان، بخشی به نام «بازال گانگلیا» (هسته‌های قاعده‌ای) وجود دارد که مسئول کنترل حرکات و پردازش‌های احساسی است؛ در حالی که واژه «باسی‌لار» به یک شریان حیاتی اشاره دارد که وظیفه خون‌رسانی به ساقه مغز را بر عهده دارد. ترکیب این دو نام توسط هوش مصنوعی، منجر به خلق یک نام جعلی برای عضوی خیالی شده است که وجود آن در گزارش پزشکی می‌تواند به رویکرد‌های درمانی کاملاً متضاد و خطرناک منجر شود.

واکنش‌های متفاوت به یک خطای ساختاری

گوگل در واکنش به انتقاد متخصصانی که این خطا را شناسایی کردند، ابتدا بدون اطلاع‌رسانی عمومی اقدام به اصلاح متن پست وبلاگی خود کرد و پس از اعتراض‌های مجدد، اعلام کرد که این مدل واژه اشتباه را از داده‌های آموزشی که در آنها اشتباهات نوشتاری رایج بوده، یاد گرفته است. برایان مور، متخصص مغز و اعصاب که اولین بار این موضوع را گزارش کرد، معتقد است که این اتفاق نه یک غلط املایی ساده، بلکه نمونه‌ای بارز از پدیده «توهم» در هوش مصنوعی است.

پزشکان و پژوهشگران حوزه سلامت بر این باورند که خطر اصلی در خودِ اشتباه نهفته نیست، بلکه در «سوگیری خودکارسازی» یا اعتماد ناهشیار پزشکان به خروجی‌های سیستم است. زمانی که یک مدل هوش مصنوعی در اکثر موارد گزارش‌های دقیق و با لحنی متقاعدکننده ارائه می‌دهد، احتمال اینکه پزشک در لحظات خستگی یا فشار کاری زیاد، جزئیاتی مانند تغییر دو حرف در یک واژه تخصصی را نادیده بگیرد، به شدت افزایش می‌یابد. این موضوع در محیط‌های درمانی که تصمیمات بر پایه داده‌های متنی اتخاذ می‌شوند، می‌تواند منجر به زنجیره‌ای از تشخیص‌های اشتباه شود که در نهایت سلامت بیمار را تهدید می‌کند.

چالش تکرار خطا در مدل‌های پیشرفته‌تر

بررسی‌ها نشان می‌دهد که این قبیل اختلالات تنها محدود به یک مدل خاص نیست و در نسخه‌های جدیدتر مانند MedGemma نیز مشاهده شده است. آزمایش‌های انجام شده در دانشگاه اموری نشان داد که تغییر در نحوه پرسش از هوش مصنوعی می‌تواند به نتایج کاملاً متفاوتی منجر شود؛ به طوری که سیستم در پاسخ به یک سوال دقیق، عارضه را به درستی تشخیص می‌دهد، اما با ساده‌سازی همان سوال، وضعیت بیمار را کاملاً نرمال اعلام می‌کند.

کارشناسان ارشد اطلاعات پزشکی در بیمارستان‌های بزرگ تاکید دارند که هوش مصنوعی در حوزه سلامت باید استانداردی بسیار سخت‌گیرانه‌تر از انسان داشته باشد. به گفته این متخصصان، اگر قرار باشد هوش مصنوعی همان سطح از خطای انسانی را داشته باشد، ترجیح بر این است که مسئولیت بر عهده پزشک باقی بماند، چرا که فرآیند بازنگری و گفت‌و‌گو با یک همکار انسانی درباره یک اشتباه ممکن است، اما مواجهه با خطای یک سیستم خودکار که توضیحی برای منطق اشتباه خود ندارد، بسیار دشوار خواهد بود.

ضرورت ایجاد سیستم‌های هشدار توهم

یکی از راهکار‌های پیشنهادی برای مدیریت این بحران، استفاده از سیستم‌های «هشدار توهم» است که در آن یک مدل هوش مصنوعی بر عملکرد مدل دیگر نظارت می‌کند تا موارد مشکوک به داده‌سازی را شناسایی کند. با این حال، هنوز راه طولانی تا رسیدن به یک فناوری کاملاً قابل اعتماد در تشخیص‌های بالینی باقی مانده است. در حال حاضر، بسیاری از مراکز درمانی به جای جایگزینی کامل، به دنبال استفاده از این ابزار‌ها تنها به عنوان کمک‌کننده در کنار نظر نهایی پزشک هستند.

واقعیت این است که هوش مصنوعی پزشکی در حال حاضر در وضعیتی قرار دارد که در آن سرعت توسعه فناوری از سرعت ایجاد چارچوب‌های ایمنی پیشی گرفته است. متخصصان هشدار می‌دهند که پذیرش زودهنگام این ابزار‌ها در مراقبت‌های مستقیم بالینی، بدون در نظر گرفتن احتمال خطا‌های ساختاری، می‌تواند تبعات جبران‌ناپذیری داشته باشد. تا زمانی که این سیستم‌ها نتوانند در مواجهه با ابهامات پزشکی جمله «نمی‌دانم» را به کار ببرند، نظارت دقیق انسانی و شکاکیت حرفه‌ای پزشکان تنها سد دفاعی در برابر خطا‌های فناورانه خواهد بود.

انتهای پیام/

ارسال نظر