صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

صدای پای هوش مصنوعی در دادگاه‌ها/ سایه جعل نرم‌افزاری بر پرونده‌های حقوقی

ورود هوش مصنوعی به پرونده‌های حقوقی، تهدیدی جدی است و احتمال دارد مردم را به نظام‌های قانونی بی‌اعتماد کند.
کد خبر : 901715

خبرگزاری علم و فناوری آنا؛ هوش مصنوعی در بسیاری از زمینه‌های زندگی ما و از جمله در سیستم حقوقی وارد شده و تحولاتی ایجاد کرده است، اما محتوای تولید شده توسط هوش مصنوعی، مانند قوانین جعلی، در منازعات حقوقی نگرانی‌های زیادی را برانگیخته است.

دادگاه‌ها برای ارائه پرونده‌های مبتنی بر قانون به وکلا متکی هستند، اما استفاده از قوانین جعلی ایجاد شده توسط هوش مصنوعی در اختلافات حقوقی این روند را تضعیف می‌کند. مدل‌های هوش مصنوعی بر اساس مجموعه داده‌های بزرگ آموزش داده می‌شوند و قوانین جعلی می‌سازند؛ و در صورت درخواست کاربر محتوای جدید متنی، تصویری یا شنیداری بسازد.

محتوای تولیدشده توسط هوش مصنوعی شاید قانع‌کننده به نظر برسد، اما به دلیل «توهم» هوش مصنوعی می‌تواند نادرست باشد. توهم هوش مصنوعی زمانی رخ می‌دهد که مدل هوش مصنوعی تلاش می‌کند شکاف‌های آموزشی خود را پر کند و در نتیجه با تولید محتوای نادرست می‌تواند در اختلافات حقوقی دردسرساز شود و به تصمیمات قانونی نادرست بیانجامد.

جنجال‌های حقوقی هوش مصنوعی

شناخته‌شده‌ترین «پرونده جعلی» که هوش مصنوعی مولد آن را ساخته است به پرونده «ماتا علیه آویانکا» در آمریکا در سال ۲۰۲۳ برمی‌گردد که در آن وکلا خلاصه‌ای از اتفاقات جعلی و استناد به پرونده را به دادگاه نیویورک ارسال کردند. این خلاصه با استفاده از چت جی‌پی‌تی مورد بررسی قرار گرفت و وکلا، غافل از آنکه این نرم‌افزار می‌تواند توهم بزند نتوانستند آن‌را راستی‌آزمایی کنند. عواقب این بررسی فاجعه‌بار بود و پس از فاش شدن این خطا، دادگاه پرونده موکل آنها را رد کرد، وکلا نیز به دلیل سوءنیت تحریم شدند و شرکت حقوقی‌شان نیز جریمه شد. اقدامات آنان نیز به طور رسمی اعلان عمومی شد.

نمونه‌های مشهور

با وجود چنین اتفاقات نامطلوبی، نمونه‌های دیگری همچنان اتفاق می‌افتند. مایکل کوهن، وکیل سابق دونالد ترامپ، پرونده‌های وکالت خود را با استفاده از نرم‌افزار گوگل بارد (ربات مولد هوش مصنوعی) تنظیم می‌کرد ولی ادعا می‌کرد که کار خودش بوده و واقعی است. موارد جعلی دیگری از این دست نیز به تازگی در کانادا و بریتانیا جنجال‌آفرینی کرده است.

چنانچه این روند کنترل نشود، استفاده بی‌محابا از هوش مصنوعیِ مولد اعتماد عمومی به سیستم قانونی را تضعیف می‌کند. قصور مداوم وکلا در استفاده از این ابزار‌ها می‌تواند باعث گمراهی و ازدحام در دادگاه‌ها شود، به منافع مشتریان آسیب برساند و به طور کلی حاکمیت قانون را تضعیف کند.

ما تصاویری از افراد مشهور را دیده‌ایم که توسط هوش مصنوعی و به روش جعل عمیق (دیپ‌فیک) ساخته شده‌اند. هوش مصنوعی همچنین در آهنگسازی، راندن اتومبیل‌های مسابقه‌ای بدون راننده و انتشار اطلاعات نادرست نیز نقش داشته است؛ بنابراین تعجب آور نیست که هوش مصنوعی نیز تأثیر قوی بر سیستم‌های حقوقی ما دارد.

دادگاه‌ها در پرونده‌های دعوی که وکلا آنها را پیگیری می‌کنند باید بر اساس اطلاعاتی که وکیل ارائه میکند تصمیمگیری کنند، بنابراین چنانچه محتوای پرونده با هوش مصنوعی جعل شود، بسیار نگران‌کننده خواهد بود که نه تنها مسائل قانونی و اخلاقی ایجاد میکند، بلکه تهدیدی برای بیاعتمادی به سیستم‌های حقوقی جهان است.

قوانین جعلی چگونه به وجود می‌آیند؟

شکی وجود ندارد که هوش مصنوعی مولد ابزاری قدرتمند با پتانسیل تحول آفرین برای جامعه، از جمله بسیاری از جنبه‌های سیستم حقوقی است. اما استفاده از آن با مسئولیت‌ها و خطراتی همراه است. وکلا برای به کارگیری دقیق دانش و تجربه حرفه‌ای آموزش دیده‌اند و عموماً ریسک‌پذیر نیستند. با این حال، برخی از وکلای بی‌احتیاط گرفتار خطا‌های هوش مصنوعی شده‌اند.

اگر هوش مصنوعی محتوای نادرست ایجاد کند یا محتوای نادرستی بسازد که به فرایند‌ها قانونی راه پیدا کند، مشکلساز می‌شود، به‌ویژه زمانی که با فشار بر وکلا یا عدم دسترسی به خدمات حقوقی همراه باشد. این ترکیب مخرب میتواند منجر به بیدقتی و میانبر‌هایی در تحقیقات حقوقی و تهیه اسناد شود و مشکلاتی برای حرفه وکالت و عدم اعتماد عمومی به اجرای عدالت ایجاد کند.

اقدامات جهانی 
در سرتاسر جهان، قانون‌گذاران و دادگاه‌ها به روش‌های مختلف نسبت به این جریان واکنش نشان داده‌اند. چندین دادگاه ایالتی آمریکا راهنمایی، نظرات یا دستوراتی در مورد استفاده مولد از هوش مصنوعی صادر کرده اند که از پذیرش مسئولانه تا ممنوعیت کامل را شامل می‌شود. انجمن‌های حقوقی در بریتانیا و بریتیش کلمبیا و دادگاه‌های نیوزلند نیز دستورالعمل‌هایی را تدوین کرده‌اند.

در استرالیا، انجمن وکلای ان اس دابیلو (NSW) یک راهنمای هوش مصنوعی برای وکلای دادگستری دارد و مقالاتی را در مورد استفاده مسئولانه مطابق با قوانین رفتار وکلا منتشر کرده‌اند.

بسیاری از وکلا و قضات، مانند عموم مردم، درک درستی از هوش مصنوعی مولد دارند و می‌توانند محدودیت‌ها و مزایای آن را تشخیص دهند. اما افراد دیگری هم هستند که ممکن است آنقدر آگاه نباشند و نیاز به راهنمایی دارند. در این میان یک رویکرد باید اجباری شود: وکلایی که از ابزار‌های هوش مصنوعی مولد استفاده می‌کنند نمی‌توانند آن را جایگزینی برای قضاوت و سخت کوشی خود بدانند و باید درستی و قابلیت اطمینان اطلاعاتی گردآوری‌شده را بررسی کنند.

به طور کلی، هوش مصنوعی مولد پتانسیل تحول‌آفرینی برای سیستم حقوقی دارد، استفاده از آن با مسئولیت‌ها و خطراتی همراه است. ایجاد تعادل بین استفاده از مزایای هوش مصنوعی و اطمینان از اینکه استفاده از محتوای تولید شده توسط هوش مصنوعی یکپارچگی سیستم قانونی را تضعیف نمی‌کند، مهم است.

این گزارش از پایگاه اینترنتی کانوِرسِیشن برگردان شده است.

انتهای پیام/

ارسال نظر