چتجیپیتی دیگر مشاوره حقوقی، مالی و پزشکی ارائه نمیدهد
به گزارش خبرگزاری آنا؛ شرکت اوپنایآی، توسعهدهنده مدل زبانی پیشگام چتجیپیتی، مجموعهای از محدودیتهای جدید و مهم را بر قابلیتهای این چتبات اعمال کرد. بر اساس این سیاستهای بهروزرسانیشده، استفاده از چتجیپیتی برای دریافت مشاوره در زمینههایی که نیازمند مجوز و صلاحیت حرفهای است، به طور کامل ممنوع میشود.
این تغییر راهبردی، به طور مشخص حوزههای حیاتی مانند تشخیص پزشکی، ارائه راهکارهای حقوقی، و تدوین استراتژیهای مالی را در بر میگیرد.
این محدودیت به معنای حذف کامل این موضوعات از پایگاه دانش چتجیپیتی نیست. این ابزار همچنان میتواند مفاهیم کلی را توضیح دهد؛ برای مثال، به پرسشهایی مانند «تورم چیست؟»، «اصول اولیه یک قرارداد چگونه است؟» یا «علائم عمومی آنفولانزا کدامند؟» پاسخهای کلی و مبتنی بر اطلاعات عمومی ارائه دهد. با این حال، مرز روشنی ترسیم شده است: چتجیپیتی دیگر مجاز به ارائه توصیههای کاربردی و شخصیسازیشده مانند پیشنهاد نام داروی خاص و دوز مصرف آن، تنظیم پیشنویس اسناد قضایی مانند شکواییه، یا ارائه سیگنالهای سرمایهگذاری برای خرید و فروش سهام نخواهد بود. علاوه بر این، سیاستهای جدید استفاده از این ابزار برای تصمیمگیری در سایر حوزههای پرمخاطره نظیر امور مهاجرت، یافتن مسکن، انتخاب رشته تحصیلی و فرآیندهای استخدامی را نیز بدون نظارت مستقیم یک متخصص انسانی، ممنوع کرده است.
اوپنایآی هدف اصلی از این تغییرات را افزایش ایمنی کاربران و پیشگیری از آسیبهای بالقوه عنوان کرده است که ممکن است از اعتماد بیش از حد به یک سیستم هوش مصنوعی در تصمیمگیریهای حیاتی زندگی ناشی شود. گزارشها نشان میدهد که این شرکت همچنین سازوکارهای فنی خود را برای اجرای این محدودیتها تقویت کرده و تلاش کاربران برای دور زدن این قوانین از طریق طرح سوالات به صورت فرضی یا داستانی نیز توسط فیلترهای ایمنی جدید سیستم شناسایی و مسدود میشود.
چرا اوپنایآی ناگزیر به عقبنشینی شد؟
این تصمیم اوپنایآی را نمیتوان تنها یک بهروزرسانی ساده در نظر گرفت؛ بلکه این اقدام یک واکنش ضروری به چالشهای فزایندهای است که در سه حوزه اصلی حقوقی، فنی و اخلاقی ظهور کردهاند.
۱. میدان مین حقوقی و مسئولیتپذیری:
با افزایش قابلیتهای هوش مصنوعی، مرز بین ارائه اطلاعات و ارائه مشاوره بسیار باریک شده است. یک پزشک یا وکیل انسانی در قبال مشاوره اشتباه خود، مسئولیت حقوقی و حرفهای دارد و تحت پوشش بیمه مسئولیت فعالیت میکند. اما یک مدل هوش مصنوعی فاقد چنین جایگاه قانونی است. در صورت بروز خسارت مالی یا جانی ناشی از یک توصیه اشتباه چتجیپیتی، تعیین مقصر (کاربر، شرکت سازنده، یا خودِ الگوریتم) بسیار پیچیده و مبهم است. این ابهام حقوقی، اوپنایآی را در معرض دعاوی قضایی هنگفت قرار میدهد. علاوه بر این، مکالمات با چتجیپیتی از هیچگونه امتیاز محرمانگی مانند رابطه پزشک-بیمار یا وکیل-موکل برخوردار نیست. این بدان معناست که تمامی گفتوگوها میتوانند با حکم دادگاه به عنوان مدرک مورد استفاده قرار گیرند، که این امر نقض جدی حریم خصوصی کاربران در مسائل حساس است.
۲. بحران اعتماد و پدیده توهمزایی
مدلهای زبانی بزرگ مانند چتجیپیتی برای تولید متنهای محتمل و روان طراحی شدهاند، نه برای ارائه حقایق تاییدشده. این سیستمها مستعد پدیدهای به نام توهمزایی هستند. یعنی با اعتماد به نفس کامل، اطلاعاتی کاملاً نادرست و ساختگی تولید میکنند. این پدیده در حوزههای تخصصی میتواند فاجعهبار باشد. ارائه یک فرمول دارویی اشتباه، استناد به یک ماده قانونی منسوخ یا پیشنهاد یک سرمایهگذاری بر پایه دادههای غلط، نمونههایی از خطراتی هستند که اوپنایآی با این محدودیتها در صدد پیشگیری از آنهاست.
۳. ملاحظات اخلاقی و تأثیرات اجتماعی:
وابستگی روزافزون کاربران به هوش مصنوعی برای دریافت مشاوره، نگرانیهای عمیق اخلاقی را به همراه داشته است. این امر میتواند منجر به تضعیف تفکر انتقادی و کاهش مراجعه به متخصصان انسانی شود. همچنین، این خطر وجود دارد که یک شکاف دیجیتال مشاورهای ایجاد شود؛ به این صورت که افراد متمول به متخصصان انسانی دسترسی داشته باشند و اقشار کمدرآمدتر به مشاورههای غیرقابل اعتماد و بالقوه خطرناک هوش مصنوعی بسنده کنند. علاوه بر این، ماهیت تعاملی این چتباتها میتواند منجر به وابستگی عاطفی ناسالم در کاربران، به ویژه افراد آسیبپذیر، شود.
در کنار این محدودیتها، اوپنایآی اعلام کرده است که ویژگیهای ایمنی جدیدی را برای حمایت بهتر از کاربران در شرایط بحرانی روحی معرفی کرده است. این ویژگیها بر شناسایی نشانههایی از خودآزاری، روانپریشی و افکار خودکشی متمرکز بوده و کاربران را به سمت منابع و متخصصان سلامت روان هدایت میکنند.
سوابق نگرانکننده و نمونههای واقعی از خطرات
تصمیم اخیر اوپنایآی ریشه در حوادث واقعی و نگرانکنندهای دارد که محدودیتهای ذاتی هوش مصنوعی در کاربردهای حساس را به وضوح نشان دادهاند:
مشاوره مضر چتبات اختلالات خوردن: انجمن ملی اختلالات خوردن آمریکا (NEDA) مجبور شد چتبات درمانی خود با نام Tessa را به طور کامل غیرفعال کند. گزارش شد که این چتبات به کاربرانی که با اختلالات خوردن دست و پنجه نرم میکردند، توصیههایی خطرناک و مغایر با اصول علمی، مانند تشویق به کاهش وزن و محدودیت کالری، ارائه داده بود.
خودکشی مرد بلژیکی پس از گفتوگو با چتبات: یک مرد بلژیکی که از اضطرابهای محیطزیستی رنج میبرد، پس از یک دوره گفتگوی فشرده شش هفتهای با یک چتبات هوش مصنوعی به نام Eliza، به زندگی خود پایان داد. همسر وی در مصاحبهها اعلام کرد که این چتبات، همسرش را در گفتگوهایشان به قربانی کردن خود برای نجات کره زمین تشویق کرده بود. این تراژدی، خطرات وابستگی عاطفی و ارائه پاسخهای بدون نظارت اخلاقی توسط هوش مصنوعی را به نمایش گذاشت.
استناد به پروندههای حقوقی جعلی ساخته شده توسط چتجیپیتی: دو وکیل در نیویورک به دلیل استفاده از چتجیپیتی برای تحقیقات حقوقی خود و ارائه لایحهای به دادگاه که شامل استناد به شش پرونده قضایی کاملاً ساختگی و غیرواقعی بود، با جریمه و مجازات روبهرو شدند. این مورد، محدودیت جدی هوش مصنوعی در درک واقعیت و خطر توهمزایی در کاربردهای حرفهای و حساس را آشکار ساخت.
انتهای پیام/