چالشهای اخلاقی و عملی هوش مصنوعی در حوزه پزشکی
گروه سلامت خبرگزاری علم و فناوری آنا، نوید فرخی؛ به کارگیری هوش مصنوعی در پزشکی یک واقعیت جاری است که میتواند به زودی مراقبتهای بهداشتی را متحول کند. در ابتدا استفاده از هوش مصنوعی در پزشکی به تجزیهوتحلیل دادههای پایه محدود میشد، با این حال پیشرفت سریع الگوریتمهای یادگیری ماشین باعث شده این سیستمها بتوانند دادههای پیچیده پزشکی را تفسیر کرده و هوش مصنوعی را به کلید عصر تحول در مراقبتهای درمانی مبدل سازند. همانطور که به جلو میرویم، همافزایی بین فناوری هوش مصنوعی و پزشکی بدون شک عصر جدیدی از نوآوری را در مراقبتهای درمانی کلید خواهد زد و طبعاً توانایی هوش مصنوعی در تجزیهوتحلیل کلانداده کمخطا و بینظیر است، اما برکسی پوشیده نیست که چالشهای اخلاقی و عملی جدی در استفاده از پتانسیل کامل هوش مصنوعی در حوزه پزشکی وجود دارد.
یکی از مسائل کلیدی در این زمینه، حریم شخصی و امنیت دادههای بیماران است. الگوریتمهای هوش مصنوعی مبتنی بر دادههاست با این حال جنس دادههای بیماران عموماً حساس است و کسب اطمینان از محرمانگی آنها بسیار مهم است. خطر نقض دادهها با دیجیتالی شدن سیستمهای مراقبتهای بهداشتی و متکی شدن به هوش مصنوعی افزایش پیدا میکند. از سوی دیگر کسب رضایت آگاهانه مراجعان و بیماران برای استفاده از دادههای آنها در مدلهای هوش مصنوعی امری پیچیده است. پیشرفتهای پزشکی همواره در سایه پروژههای مشترک رخ داده و محقق شدهاند. ازاینرو به کارگیری هوش مصنوعی قاعدتاً به اشتراکگذاری دادههای فرامرزی میانجامد که این مسئله به نوبه خود باعث ایجاد نگرانیهای دیگری در حوزه قوانین و اقدامات بینالمللی حریم خصوصی دادهها میشود.
سیستمهای هوش مصنوعی به طور بالقوه و ذاتی مستعد تعصب هستند. به زبان سادهتر، دادههایی که مورد استفاده هوش مصنوعی قرار میگیرد، چیزی به جز محتوای معمول در جهان واقعی نیست. ازاینرو سیستمهای هوش مصنوعی میتوانند سوگیریهای موجود در دادههایی را که از آنها آموزش دیدند را به طور بدیهی تداوم بخشند و یا حتی تبعیضها را بیشتر کنند. خروجی این سیستمها میتواند منجر به تصمیمات پزشکی نادرست یا ناعادلانه شود. اغلب مجموعه دادههای مورد استفاده در هوش مصنوعی فاقد تنوع هستند. این ویژگی نیز باعث میشود به طور بالقوه اظهارات و ادعاهای گروههای اقلیت در کلانداده ظهور کمی پیدا کند. به تبع این مسئله، این خطر نیز وجود دارد که نابرابریها در ارائه مراقبتهای درمانی بیشتر شود، زیرا دسترسی به فناوریهای پیشرفته در بین گروههای مختلف اجتماعی-اقتصادی یکسان نیست.
مسئله نگرانکننده دیگر شفافیت و توضیحپذیری است. بسیاری از سیستمهای هوش مصنوعی مانند جعبه سیاه عمل میکنند. فرآیند تصمیمگیری شفاف نیست. این مسئله اعتماد را در میان ارائهدهندگان خدمات درمانی و بیماران و همراهانشان سلب میکند. برای اینکه هوش مصنوعی به طور کامل مورد پذیرش قرار گیرد لازم است ارائه دهندگان مراقبتهای بهداشتی بدانند که هوش مصنوعی چگونه به نتایج خود رسیده است. اینکه حتی طراحان سیستمهای هوش مصنوعی هم به دلیل پیچیدگی الگوریتمهایی مانند شبکه عصبی مصنوعی نمیدانند دقیقاً چطور هوش مصنوعی به یک نتیجه خاص رسیده است، در حوزه پزشکی قابل قبول نیست زیرا اینجا با جان انسانها سروکار داریم.
چالش تصمیمگیری انسانی نیز مطرح است. به کارگیری فرایندهای اتوماسیون پزشکی میتواند به نقطهای برسد که قضاوت هوش مصنوعی در مقابل قضاوت انسان قرار گیرد. تکیه بر هوش مصنوعی برای تصمیمات تشخیصی یا درمانی، سؤالاتی را در مورد نقش انسان مطرح میکند. با وجود اینکه به کارگیری قوای پردازشی و کلان داده باعث میشود ضریب خطای نتایج هوش مصنوعی پایین آید، اما اگر هوش مصنوعی دچار خطایی (هر خطایی) شود چه کسی مسئولیت آن را برعهده خواهد گرفت؟ در مورد یک پزشک، هر چقدر هم پرخطا و غیردقیق، در نهایت میدانیم که مسئولیت اخلاقی خطاهای پزشکی یا پیامدهای نامطلوب تصمیمات درمانی برعهده کسی جز او نیست، اما مسئله مسئولیت اخلاقی هوش مصنوعی امری پیچیده است. جدای از بحث اخلاقی، مسائل حقوقی نیز وجود دارد. از یک سو، عدم وجود استانداردها و مقررات جهانی برای هوش مصنوعی در مراقبتهای درمانی منجر به عدم اطمینان در مورد کیفیت و ایمنی خدمات میشود. از سوی دیگر، تعیین مسئولیت حقوقی و قانونی در مواردی که هوش مصنوعی به تصمیم یا خطای پزشکی رسیده چالشبرانگیز و تعریفنشده است.
پیشبینی پیامدهای درازمدت هوش مصنوعی در پزشکی، چه مثبت و چه منفی، دشوار است و نیاز به ارزیابی مداوم دارد. با این حال یک سری موارد قطعی هستند. برای مثال کادر درمان نگرانیهایی در این رابطه دارد که هوش مصنوعی جایگاههای شغلی خاصی را در مراقبتهای بهداشتی اِشغال خواهد کرد و منجر بیکاری نیروی کار میشود. قابل حدس است ادغام هوش مصنوعی در سیستمهای بهداشتی موجود با مقاومت پزشکان و پرستارانی که به روشهای سنتی عادت کردهاند مواجه شود. همچنین متخصصان و کارشناسان مراقبتهای بهداشتی برای استفاده از ابزارهای هوش مصنوعی به آموزش نیاز دارند که خود مستلزم زمان و منبع است. موضوع دیگری که میتوان از همین حالا نگران آن بود، مسئله توزیع نابرابر دستاوردها و امکانات فناوری برای مردم اقصینقاط جهان است.
استفاده از هوش مصنوعی در پزشکی باعث افزایش کیفیت مراقبتهای بهداشتی میشود و جان انسانها را نجات خواهد داد. با این حال، پرداختن به چالشها و ملاحظات اخلاقی برای استفاده مسئولانه و موثر از فناوری بسیار مهم است. این امر مستلزم تلاشهای مشترک فناوران، متخصصان مراقبتهای درمانی، اخلاقدانان، سیاستگذاران و خود بیماران است تا چارچوبهای محکمی برای به کارگیری اخلاقی و عادلانه از هوش مصنوعی در پزشکی بنا شود. با بررسی و مدیریت دقیق این چالشها میتوان امید داشت هوش مصنوعی عاملی متحولکننده در حوزه پزشکی با حفظ بالاترین استانداردهای اخلاقی باشد.
انتهای پیام/