۰۲/ فروردين /۱۴۰۴

شکایت جدید از ChatGPT به دلیل نقض حریم خصوصی در اروپا

شکایت جدید از ChatGPT به دلیل نقض حریم خصوصی در اروپا
سازمان حمایت از حقوق حریم خصوصی Noyb در اروپا با حمایت از فردی نروژی که ChatGPT او را به دروغ متهم به قتل فرزندانش کرده بود، شکایتی علیه OpenAI مطرح کرده و این ابزار هوش مصنوعی را به نقض قوانین حفاظت از داده‌های اتحادیه اروپا (GDPR) متهم کرده است.

یک فرد نروژی به نام «آروه هیالمار هولمن» پس از آنکه ChatGPT، محصول شرکت OpenAI، به دروغ ادعا کرد او به جرم قتل دو فرزندش و تلاش برای قتل فرزند سوم محکوم شده، با حمایت گروه Noyb شکایتی علیه این شرکت تنظیم کرده است.

این ادعای کذب که هولمن را به ۲۱ سال زندان محکوم شده معرفی کرده بود، نمونه‌ای از «توهمات» خطرناک این ابزار هوش مصنوعی است که اطلاعات نادرست و افتراآمیز تولید می‌کند. Noyb، سازمان غیردولتی فعال در حوزه حریم خصوصی، معتقد است این مشکل نقض آشکار قوانین GDPR است که شرکت‌ها را ملزم به ارائه اطلاعات دقیق درباره افراد و امکان اصلاح داده‌های نادرست می‌کند.

 

در این مورد خاص، ChatGPT نه‌تنها اطلاعات نادرستی درباره هولمن ارائه کرده، بلکه جزئیات واقعی مانند محل زندگی و تعداد فرزندان او را نیز به درستی ذکر کرده بود که این ترکیب حقیقت و دروغ، خروجی را باورپذیرتر و در عین حال نگران‌کننده‌تر ساخته است. اگرچه پس از به‌روزرسانی مدل هوش مصنوعی، این ادعاهای نادرست درباره هولمن دیگر تولید نمی‌شود، Noyb و شاکی همچنان نگرانند که اطلاعات نادرست پیشین در سیستم داخلی ChatGPT باقی مانده باشد و به اعتبار او آسیب بزند.

Noyb این شکایت را به مقام حفاظت از داده‌های نروژ ارائه کرده و امیدوار است این نهاد، صلاحیت رسیدگی به شکایت علیه دفتر مرکزی OpenAI در آمریکا را بپذیرد. این در حالی است که شکایت مشابه دیگری که پیش‌تر در اتریش مطرح شده بود، به دلیل تعیین دفتر ایرلند OpenAI به‌عنوان مسئول خدمات در اروپا، به کمیسیون حفاظت داده‌های ایرلند (DPC) ارجاع شده و هنوز در حال بررسی است.

گوشتیران
قالیشویی ادیب

 

این سازمان همچنین به موارد مشابه دیگری اشاره کرده است، از جمله شهردار استرالیایی که به اشتباه درگیر رسوایی رشوه‌خواری معرفی شده یا روزنامه‌نگار آلمانی که به دروغ متهم به آزار کودکان شده بود.

به گفته جولیا ساردلی، وکیل Noyb، افزودن یک disclaimer کوچک مبنی بر اینکه ChatGPT ممکن است اشتباه کند، نمی‌تواند OpenAI را از مسئولیت قانونی معاف کند. او تأکید کرد که شرکت‌های هوش مصنوعی باید به GDPR پایبند باشند و از تولید توهماتی که به اعتبار افراد لطمه می‌زند، جلوگیری کنند.

تک کرانچ نوشت: در گذشته، مداخله نهادهای نظارتی اروپا تأثیراتی بر OpenAI داشته است؛ برای مثال، در سال ۲۰۲۳، سازمان حفاظت داده‌های ایتالیا ChatGPT را موقتاً مسدود کرد و این شرکت را به پرداخت ۱۵ میلیون یورو جریمه محکوم کرد. با این حال، رویکرد محتاطانه‌تر نهادهای نظارتی در سال‌های اخیر، مانند DPC ایرلند که هنوز به شکایت مشابهی از سال ۲۰۲۳ رسیدگی نکرده، انتقادهایی را برانگیخته است. نقض GDPR می‌تواند جریمه‌ای تا ۴ درصد از درآمد سالانه جهانی شرکت را در پی داشته باشد و ممکن است OpenAI را وادار به تغییراتی در محصولاتش کند. OpenAI هنوز به این شکایت جدید پاسخی نداده است.

انتهای پیام/

ارسال نظر