چت‌جی‌پی‌تی دیگر مشاوره حقوقی، مالی و پزشکی ارائه نمی‌دهد

چت‌جی‌پی‌تی دیگر مشاوره حقوقی، مالی و پزشکی ارائه نمی‌دهد
شرکت اوپن‌ای‌آی در پی افزایش نگرانی‌ها از مسئولیت‌های حقوقی و قوانین نظارتی، سیاست‌های استفاده از چت‌بات خود، چت‌جی‌پی‌تی، را تغییر داد و ارائه مشاوره تخصصی در حوزه‌های پزشکی، حقوقی و مالی را محدود کرد. این ابزار اکنون به عنوان یک ابزار آموزشی معرفی می‌شود.

به گزارش خبرگزاری آنا؛ شرکت اوپن‌ای‌آی، توسعه‌دهنده مدل زبانی پیشگام چت‌جی‌پی‌تی، مجموعه‌ای از محدودیت‌های جدید و مهم را بر قابلیت‌های این چت‌بات اعمال کرد. بر اساس این سیاست‌های به‌روزرسانی‌شده، استفاده از چت‌جی‌پی‌تی برای دریافت مشاوره در زمینه‌هایی که نیازمند مجوز و صلاحیت حرفه‌ای است، به طور کامل ممنوع می‌شود.

این تغییر راهبردی، به طور مشخص حوزه‌های حیاتی مانند تشخیص پزشکی، ارائه راهکار‌های حقوقی، و تدوین استراتژی‌های مالی را در بر می‌گیرد.

این محدودیت به معنای حذف کامل این موضوعات از پایگاه دانش چت‌جی‌پی‌تی نیست. این ابزار همچنان می‌تواند مفاهیم کلی را توضیح دهد؛ برای مثال، به پرسش‌هایی مانند «تورم چیست؟»، «اصول اولیه یک قرارداد چگونه است؟» یا «علائم عمومی آنفولانزا کدامند؟» پاسخ‌های کلی و مبتنی بر اطلاعات عمومی ارائه دهد. با این حال، مرز روشنی ترسیم شده است: چت‌جی‌پی‌تی دیگر مجاز به ارائه توصیه‌های کاربردی و شخصی‌سازی‌شده مانند پیشنهاد نام داروی خاص و دوز مصرف آن، تنظیم پیش‌نویس اسناد قضایی مانند شکواییه، یا ارائه سیگنال‌های سرمایه‌گذاری برای خرید و فروش سهام نخواهد بود. علاوه بر این، سیاست‌های جدید استفاده از این ابزار برای تصمیم‌گیری در سایر حوزه‌های پرمخاطره نظیر امور مهاجرت، یافتن مسکن، انتخاب رشته تحصیلی و فرآیند‌های استخدامی را نیز بدون نظارت مستقیم یک متخصص انسانی، ممنوع کرده است.

اوپن‌ای‌آی هدف اصلی از این تغییرات را افزایش ایمنی کاربران و پیشگیری از آسیب‌های بالقوه عنوان کرده است که ممکن است از اعتماد بیش از حد به یک سیستم هوش مصنوعی در تصمیم‌گیری‌های حیاتی زندگی ناشی شود. گزارش‌ها نشان می‌دهد که این شرکت همچنین سازوکار‌های فنی خود را برای اجرای این محدودیت‌ها تقویت کرده و تلاش کاربران برای دور زدن این قوانین از طریق طرح سوالات به صورت فرضی یا داستانی نیز توسط فیلتر‌های ایمنی جدید سیستم شناسایی و مسدود می‌شود.

چرا اوپن‌ای‌آی ناگزیر به عقب‌نشینی شد؟

این تصمیم اوپن‌ای‌آی را نمی‌توان تنها یک به‌روزرسانی ساده در نظر گرفت؛ بلکه این اقدام یک واکنش ضروری به چالش‌های فزاینده‌ای است که در سه حوزه اصلی حقوقی، فنی و اخلاقی ظهور کرده‌اند.

۱. میدان مین حقوقی و مسئولیت‌پذیری:

با افزایش قابلیت‌های هوش مصنوعی، مرز بین ارائه اطلاعات و ارائه مشاوره بسیار باریک شده است. یک پزشک یا وکیل انسانی در قبال مشاوره اشتباه خود، مسئولیت حقوقی و حرفه‌ای دارد و تحت پوشش بیمه مسئولیت فعالیت می‌کند. اما یک مدل هوش مصنوعی فاقد چنین جایگاه قانونی است. در صورت بروز خسارت مالی یا جانی ناشی از یک توصیه اشتباه چت‌جی‌پی‌تی، تعیین مقصر (کاربر، شرکت سازنده، یا خودِ الگوریتم) بسیار پیچیده و مبهم است. این ابهام حقوقی، اوپن‌ای‌آی را در معرض دعاوی قضایی هنگفت قرار می‌دهد. علاوه بر این، مکالمات با چت‌جی‌پی‌تی از هیچ‌گونه امتیاز محرمانگی مانند رابطه پزشک-بیمار یا وکیل-موکل برخوردار نیست. این بدان معناست که تمامی گفت‌و‌گو‌ها می‌توانند با حکم دادگاه به عنوان مدرک مورد استفاده قرار گیرند، که این امر نقض جدی حریم خصوصی کاربران در مسائل حساس است.

۲. بحران اعتماد و پدیده توهم‌زایی

مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی برای تولید متن‌های محتمل و روان طراحی شده‌اند، نه برای ارائه حقایق تاییدشده. این سیستم‌ها مستعد پدیده‌ای به نام توهم‌زایی هستند. یعنی با اعتماد به نفس کامل، اطلاعاتی کاملاً نادرست و ساختگی تولید می‌کنند. این پدیده در حوزه‌های تخصصی می‌تواند فاجعه‌بار باشد. ارائه یک فرمول دارویی اشتباه، استناد به یک ماده قانونی منسوخ یا پیشنهاد یک سرمایه‌گذاری بر پایه داده‌های غلط، نمونه‌هایی از خطراتی هستند که اوپن‌ای‌آی با این محدودیت‌ها در صدد پیشگیری از آنهاست.

۳. ملاحظات اخلاقی و تأثیرات اجتماعی:

وابستگی روزافزون کاربران به هوش مصنوعی برای دریافت مشاوره، نگرانی‌های عمیق اخلاقی را به همراه داشته است. این امر می‌تواند منجر به تضعیف تفکر انتقادی و کاهش مراجعه به متخصصان انسانی شود. همچنین، این خطر وجود دارد که یک شکاف دیجیتال مشاوره‌ای ایجاد شود؛ به این صورت که افراد متمول به متخصصان انسانی دسترسی داشته باشند و اقشار کم‌درآمدتر به مشاوره‌های غیرقابل اعتماد و بالقوه خطرناک هوش مصنوعی بسنده کنند. علاوه بر این، ماهیت تعاملی این چت‌بات‌ها می‌تواند منجر به وابستگی عاطفی ناسالم در کاربران، به ویژه افراد آسیب‌پذیر، شود.

در کنار این محدودیت‌ها، اوپن‌ای‌آی اعلام کرده است که ویژگی‌های ایمنی جدیدی را برای حمایت بهتر از کاربران در شرایط بحرانی روحی معرفی کرده است. این ویژگی‌ها بر شناسایی نشانه‌هایی از خودآزاری، روان‌پریشی و افکار خودکشی متمرکز بوده و کاربران را به سمت منابع و متخصصان سلامت روان هدایت می‌کنند.

سوابق نگران‌کننده و نمونه‌های واقعی از خطرات

تصمیم اخیر اوپن‌ای‌آی ریشه در حوادث واقعی و نگران‌کننده‌ای دارد که محدودیت‌های ذاتی هوش مصنوعی در کاربرد‌های حساس را به وضوح نشان داده‌اند:

مشاوره مضر چت‌بات اختلالات خوردن: انجمن ملی اختلالات خوردن آمریکا (NEDA) مجبور شد چت‌بات درمانی خود با نام Tessa را به طور کامل غیرفعال کند. گزارش شد که این چت‌بات به کاربرانی که با اختلالات خوردن دست و پنجه نرم می‌کردند، توصیه‌هایی خطرناک و مغایر با اصول علمی، مانند تشویق به کاهش وزن و محدودیت کالری، ارائه داده بود.

خودکشی مرد بلژیکی پس از گفت‌و‌گو با چت‌بات: یک مرد بلژیکی که از اضطراب‌های محیط‌زیستی رنج می‌برد، پس از یک دوره گفتگوی فشرده شش هفته‌ای با یک چت‌بات هوش مصنوعی به نام Eliza، به زندگی خود پایان داد. همسر وی در مصاحبه‌ها اعلام کرد که این چت‌بات، همسرش را در گفتگوهایشان به قربانی کردن خود برای نجات کره زمین تشویق کرده بود. این تراژدی، خطرات وابستگی عاطفی و ارائه پاسخ‌های بدون نظارت اخلاقی توسط هوش مصنوعی را به نمایش گذاشت.

استناد به پرونده‌های حقوقی جعلی ساخته شده توسط چت‌جی‌پی‌تی: دو وکیل در نیویورک به دلیل استفاده از چت‌جی‌پی‌تی برای تحقیقات حقوقی خود و ارائه لایحه‌ای به دادگاه که شامل استناد به شش پرونده قضایی کاملاً ساختگی و غیرواقعی بود، با جریمه و مجازات رو‌به‌رو شدند. این مورد، محدودیت جدی هوش مصنوعی در درک واقعیت و خطر توهم‌زایی در کاربرد‌های حرفه‌ای و حساس را آشکار ساخت.

انتهای پیام/

ارسال نظر
گوشتیران
قالیشویی ادیب
رسپینا