صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
۱۲:۰۱ - ۰۶ بهمن ۱۴۰۲

چالش‌های اخلاقی و عملی هوش مصنوعی در حوزه پزشکی

هم‌افزایی بین فناوری هوش مصنوعی و پزشکی بدون شک عصر جدیدی از نوآوری را در مراقبت‌های درمانی کلید خواهد زد، اما برکسی پوشیده نیست که چالش‌های متعددی در استفاده از پتانسیل کامل هوش مصنوعی در حوزه پزشکی وجود دارد.
کد خبر : 892250

گروه سلامت خبرگزاری علم و فناوری آنا، نوید فرخی؛ به کارگیری هوش مصنوعی در پزشکی یک واقعیت جاری است که می‌تواند به زودی مراقبت‌های بهداشتی را متحول کند. در ابتدا استفاده از هوش مصنوعی در پزشکی به تجزیه‌وتحلیل داده‌های پایه محدود می‌شد، با این حال پیشرفت سریع الگوریتم‌های یادگیری ماشین باعث شده این سیستم‌ها بتوانند داده‌های پیچیده پزشکی را تفسیر کرده و هوش مصنوعی را به کلید عصر تحول در مراقبت‌های درمانی مبدل سازند. همانطور که به جلو می‌رویم، هم‌افزایی بین فناوری هوش مصنوعی و پزشکی بدون شک عصر جدیدی از نوآوری را در مراقبت‌های درمانی کلید خواهد زد و‌ طبعاً توانایی هوش مصنوعی در تجزیه‌وتحلیل کلان‌داده کم‌خطا و بی‌نظیر است، اما برکسی پوشیده نیست که چالش‌های اخلاقی و عملی جدی در استفاده از پتانسیل کامل هوش مصنوعی در حوزه پزشکی وجود دارد.

یکی از مسائل کلیدی در این زمینه، حریم شخصی و امنیت داده‌های بیماران است. الگوریتم‌های هوش مصنوعی مبتنی بر داده‌هاست با این حال جنس داده‌های بیماران عموماً حساس است و کسب اطمینان از محرمانگی آنها بسیار مهم است. خطر نقض داده‌ها با دیجیتالی شدن سیستم‌های مراقبت‌های بهداشتی و متکی شدن به هوش مصنوعی افزایش پیدا می‌کند. از سوی دیگر کسب رضایت آگاهانه مراجعان و بیماران برای استفاده از داده‌های آنها در مدل‌های هوش مصنوعی امری پیچیده است. پیشرفت‌های پزشکی همواره در سایه پروژه‌های مشترک رخ داده‌ و محقق شده‌اند. ازاین‌رو به کارگیری هوش مصنوعی قاعدتاً به اشتراک‌گذاری داده‌های فرامرزی می‌انجامد که این مسئله به نوبه‌ خود باعث ایجاد نگرانی‌های دیگری در حوزه قوانین و اقدامات بین‌المللی حریم خصوصی داده‌ها می‌شود.

سیستم‌های هوش مصنوعی به طور بالقوه و ذاتی مستعد تعصب هستند. به زبان ساده‌تر، داده‌هایی که مورد استفاده هوش مصنوعی قرار می‌گیرد، چیزی به جز محتوای معمول در جهان واقعی نیست. ازاین‌رو سیستم‌های هوش مصنوعی می‌توانند سوگیری‌های موجود در داده‌هایی را که از آن‌ها آموزش دیدند را به طور بدیهی تداوم بخشند و یا حتی تبعیض‌ها را بیشتر کنند. خروجی این سیستم‌ها می‌تواند منجر به تصمیمات پزشکی نادرست یا ناعادلانه شود. اغلب مجموعه داده‌های مورد استفاده در هوش مصنوعی فاقد تنوع هستند. این ویژگی نیز باعث می‌شود به طور بالقوه اظهارات و ادعاهای گروه‌های اقلیت در کلان‌داده ظهور کمی پیدا کند. به تبع این مسئله، این خطر نیز وجود دارد که نابرابری‌ها در ارائه مراقبت‌های درمانی بیشتر شود، زیرا دسترسی به فناوری‌های پیشرفته در بین گروه‌های مختلف اجتماعی-اقتصادی یکسان نیست.

مسئله نگران‌کننده دیگر شفافیت و توضیح‌پذیری است. بسیاری از سیستم‌های هوش مصنوعی مانند جعبه‌ سیاه عمل می‌کنند. فرآیند تصمیم‌گیری شفاف نیست. این مسئله اعتماد را در میان ارائه‌دهندگان خدمات درمانی و بیماران و همراهانشان سلب می‌کند. برای اینکه هوش مصنوعی به طور کامل مورد پذیرش قرار گیرد لازم است ارائه دهندگان مراقبت‌های بهداشتی بدانند که هوش مصنوعی چگونه به نتایج خود رسیده است. اینکه حتی طراحان سیستم‌های هوش مصنوعی هم به دلیل پیچیدگی الگوریتم‌هایی مانند شبکه عصبی مصنوعی نمی‌دانند دقیقاً چطور هوش مصنوعی به یک نتیجه خاص رسیده است، در حوزه پزشکی قابل قبول نیست زیرا اینجا با جان انسان‌ها سروکار داریم.

چالش تصمیم‌گیری انسانی نیز مطرح است. به کارگیری فرایندهای اتوماسیون پزشکی می‌تواند به نقطه‌ای برسد که قضاوت هوش مصنوعی در مقابل قضاوت انسان قرار گیرد. تکیه بر هوش مصنوعی برای تصمیمات تشخیصی یا درمانی، سؤالاتی را در مورد نقش انسان مطرح می‌کند.  با وجود اینکه به کارگیری قوای پردازشی و کلان داده باعث می‌شود ضریب خطای نتایج هوش مصنوعی پایین آید،‌ اما اگر هوش مصنوعی دچار خطایی (هر خطایی) شود چه کسی مسئولیت آن را برعهده خواهد گرفت؟ در مورد یک پزشک، هر چقدر هم پرخطا و غیردقیق،‌ در نهایت می‌دانیم که مسئولیت اخلاقی خطاهای پزشکی یا پیامدهای نامطلوب تصمیمات درمانی برعهده کسی جز او نیست، اما مسئله مسئولیت اخلاقی هوش مصنوعی امری پیچیده است. جدای از بحث اخلاقی، مسائل حقوقی نیز وجود دارد. از یک سو، عدم وجود استانداردها و مقررات جهانی برای هوش مصنوعی در مراقبت‌های درمانی منجر به عدم اطمینان در مورد کیفیت و ایمنی خدمات می‌شود. از سوی دیگر، تعیین مسئولیت حقوقی و قانونی در مواردی که هوش مصنوعی به تصمیم یا خطای پزشکی رسیده چالش‍برانگیز و تعریف‌نشده است.

پیش‌بینی پیامدهای درازمدت هوش مصنوعی در پزشکی، چه مثبت و چه منفی، دشوار است و نیاز به ارزیابی مداوم دارد. با این حال یک سری موارد قطعی هستند. برای مثال کادر درمان نگرانی‌هایی در این رابطه دارد که هوش مصنوعی جایگاه‌های شغلی خاصی را در مراقبت‌های بهداشتی اِشغال خواهد کرد و منجر بیکاری نیروی کار می‌شود. قابل حدس است ادغام هوش مصنوعی در سیستم‌های بهداشتی موجود با مقاومت پزشکان و پرستارانی که به روش‌های سنتی عادت کرده‌اند مواجه ‌شود. همچنین متخصصان و کارشناسان مراقبت‌های بهداشتی برای استفاده از ابزارهای هوش مصنوعی به آموزش نیاز دارند که خود مستلزم زمان و منبع است. موضوع دیگری که می‌توان از همین حالا نگران آن بود، ‌مسئله توزیع نابرابر دستاوردها و امکانات فناوری برای مردم اقصی‌نقاط جهان است.  

استفاده از هوش مصنوعی در پزشکی باعث افزایش کیفیت مراقبت‌های بهداشتی می‌شود و جان انسان‌ها را نجات خواهد داد. با این حال، پرداختن به چالش‌ها و ملاحظات اخلاقی برای استفاده مسئولانه و موثر از فناوری بسیار مهم است. این امر مستلزم تلاش‌های مشترک فناوران، متخصصان مراقبت‌های درمانی، اخلاق‌دانان، سیاست‌گذاران و خود بیماران است تا چارچوب‌های محکمی برای به کارگیری اخلاقی و عادلانه از هوش مصنوعی در پزشکی بنا شود. با بررسی و مدیریت دقیق این چالش‌ها می‌توان امید داشت هوش مصنوعی عاملی متحول‌کننده در حوزه پزشکی با حفظ بالاترین استانداردهای اخلاقی باشد.

انتهای پیام/

ارسال نظر