استفاده از هوش مصنوعی در پزشکی باید قانونمند شود/ چت جیپیتی نمیتواند جای پزشکان تصمیم بگیرد
به گزارش خبرنگار خبرگزاری علم و فناوری آنا به نقل از گاردین، انجمن پزشکی استرالیا پس از هشدار به پزشکان بیمارستانهای مستقر در «پرت» مبنی بر عدم نوشتن یادداشتهای پزشکی با استفاده از چت جیپیتی، خواستار قوانین قوی و شفافیت در مورد استفاده از هوش مصنوعی در صنعت مراقبتهای بهداشتی و پزشکی شده است.
انجمن پزشکی استرالیا در ارائه مقاله بحث دولت فدرال در مورد هوش مصنوعی ایمن و مسئول گفت: استرالیا در تنظیم هوش مصنوعی از دیگر کشورهای مشابه عقبتر است و اشاره کرد که قوانین قویتری برای محافظت از بیماران و متخصصان مراقبتهای بهداشتی و ایجاد اعتماد مورد نیاز است.
در ماه مه به پنج بیمارستان در متروپولیتن جنوبی «پرت» توصیه شد که استفاده از چت جیپیتی، برای نوشتن سوابق پزشکی برای بیماران را متوقف کنند.
پل فوردن مدیرعامل این سرویس در ایمیلی به کارکنان اعلام کرد: هیچ تضمینی برای محرمانه بودن اطلاعات بیماران با استفاده از این سیستمها وجود ندارد و باید متوقف شود.
حمایتهای هوش مصنوعی باید شامل اطمینان از این باشد که پزشکان تصمیمات نهایی را میگیرند و رضایت آگاهانه بیمار برای هر درمان یا تشخیصی که با استفاده از هوش مصنوعی انجام میشود، وجود دارد.
انجمن پزشکان آمریکا گفت: دادههای بیماران باید محافظت شوند و نظارت اخلاقی مناسب برای اطمینان از اینکه سیستم منجر به نابرابریهای بهداشتی بیشتر نمیشود، مورد نیاز است.
به گفته این نهاد، قانون پیشنهادی هوش مصنوعی اتحادیه اروپا که خطرات فناوریهای مختلف هوش مصنوعی را دستهبندی میکند و یک هیئت نظارت ایجاد میکند که باید برای استرالیا هم در نظر گرفته شود.
در این بیانیه آمده است که نیاز کانادا به نقاط مداخله انسانی برای تصمیمگیری نیز باید در نظر گرفته شود.
مقررات آینده باید اطمینان حاصل کنند که تصمیمات بالینی تحت تأثیر هوش مصنوعی با نقاط مداخله انسانی مشخص در طول فرآیند تصمیم گیری گرفته میشوند.
این مقررات باید روشن کند که تصمیم نهایی در مورد مراقبت از بیمار باید همیشه توسط یک انسان و معمولا یک پزشک گرفته شود.
پروفسور استیو رابسون رئیس انجمن پزشکان آمریکا گفت: هوش مصنوعی حوزهای است که بهسرعت در حال تکامل است و درک آن از فردی به فرد دیگر متفاوت است.
او در بیانیهای گفت: ما باید به شکاف تنظیم هوش مصنوعی در استرالیا بپردازیم، بهویژه در مراقبتهای بهداشتی که پتانسیل آسیب دیدن بیمار از خطاهای سیستمی، تعصب سیستمی تعبیه شده در الگوریتمها و افزایش خطر برای حریم خصوصی بیمار وجود دارد.
مدیر ارشد سلامت گوگل، کارن دسالوو اوایل ماه جاری به گاردین استرالیا گفت: هوش مصنوعی در نهایت نتایج سلامتی بیماران را بهبود خواهد بخشید، اما بر اهمیت درست کردن سیستمها تاکید کرد.
ما چیزهای زیادی برای انجام دادن داریم تا مطمئن شویم که مدلها به طور مناسب محدود شدهاند، که آنها واقعا سازگار هستند، و اینکه آنها از این رویکردهای اخلاقی و عدالتی که ما میخواهیم اتخاذ کنیم پیروی میکنند، اما من در مورد این پتانسیل فوق العاده هیجانزده هستم.
یک مطالعه تحقیقاتی گوگل که در ماه جاری در نشریه «نیچر» منتشر شد نشان داد که مدل زبانی پزشکی گوگل در ۹۲.۹ مواقع که رایجترین سوالات پزشکی جستوجو شده در اینترنت را میپرسیدند، پاسخهایی برابر با پاسخهای پزشکان تولید میکند.
انتهای پیام/