تقلب به سبک هوش مصنوعی؛ هشدار یک پژوهش درباره آینده اخلاق در عصر دیجیتال

تقلب به سبک هوش مصنوعی؛ هشدار یک پژوهش درباره آینده اخلاق در عصر دیجیتال
پژوهشی تازه در یکی از معتبرترین مجلات علمی دنیا نشان می‌دهد تفویض وظایف به سامانه‌های هوش مصنوعی ـ چیزی که این روز‌ها در حال تبدیل شدن به یک عادت جهانی است ـ می‌تواند رفتار‌های غیراخلاقی نظیر دروغ‌گویی، تقلب و گمراه‌سازی را تسهیل و حتی تشدید کند.

 این پژوهش که در نشریه (Nature) منتشر شده است و محققان با انجام ۱۳ آزمایش در قالب ۴ مطالعه مستقل نشان داده‌اند که وقتی افراد از ماشین‌ها (به‌جای انسان‌ها) برای انجام کارها استفاده می‌کنند، احتمال درخواست برای انجام تقلب بیشتر می‌شود — به‌ویژه زمانی که بتوانند با دستورهای مبهم و غیرمستقیم، رفتار غیرقانونی یا غیراخلاقی را به ماشین‌ها واگذار کنند، بدون آن‌که خود را مستقیماً درگیر جلوه دهند.

 امروزه مردم به‌طور فزاینده‌ای از این سیستم‌ها برای مدیریت کار‌های مختلف در زندگی استفاده می‌کنند، از سرمایه‌گذاری گرفته تا رانندگی خودرو. این پدیده که «واگذاری کار به ماشین» یا (machine delegation) نامیده می‌شود، پرسش‌های زیادی دربارهٔ پیامد‌های اخلاقی بالقوهٔ آن ایجاد کرده است.

یک تیم بین‌المللی از پژوهشگران به سرپرستی نیلس کوبیس از دانشگاه دویسبورگ-اسن و زوی راهوان از مؤسسهٔ ماکس پلانک برای توسعهٔ انسانی، بررسی کردند که آیا سپردن یک کار به ماشین باعث می‌شود افراد بیشتر به رفتار غیرصادقانه برای کسب منفعت شخصی روی بیاورند یا نه. منطق پشت این فرضیه چنین بود مردم اغلب از رفتار غیراخلاقی پرهیز می‌کنند، زیرا هزینهٔ اخلاقیِ دیدن خود به‌عنوان فردی (dishonest) یا دیده‌شدن توسط دیگران به این شکل، بالاست. اما واگذاری عمل به ماشین ممکن است این هزینهٔ اخلاقی را کاهش دهد، چراکه فاصلهٔ روان‌شناختی با عمل غیرصادقانه ایجاد می‌کند.

برای آزمودن این ایده، پژوهشگران مجموعه‌ای از آزمایش‌ها انجام دادند. دو مطالعهٔ نخست بر نحوهٔ دستور دادن افراد تمرکز داشت چیزی که به آن «سمت کارفرما» (principal’s side) در تعامل گفته می‌شود. آنها از یک روش شناخته‌شده برای سنجش صداقت به نام «تکلیف پرتاب تاس» استفاده کردند.

 در این روش، شرکت‌کنندگان نتیجهٔ پرتاب تاس را مشاهده کرده و باید آن را گزارش دهند؛ در حالی که یک پاداش نقدی کوچک بر اساس عدد گزارش‌شده دریافت می‌کنند. هرچه عدد بزرگ‌تر باشد، پاداش بیشتر است و بنابراین انگیزه‌ای مالی برای دروغ گفتن به وجود می‌آید. وقتی افراد این کار را خودشان و در خلوت انجام می‌دهند، اکثریت قاطع حدود ۹۵ درصد نتیجه را صادقانه گزارش می‌کنند.

در مطالعهٔ نخست، شرکت‌کنندگان به یکی از چهار گروه تقسیم شدند. گروه کنترل، خودشان تکلیف پرتاب تاس را انجام دادند. سه گروه دیگر موظف بودند این کار را به یک عامل ماشینی ساده بسپارند، اما هر کدام با واسط کاربری متفاوتی به ماشین دستور می‌دادند

یک گروه از سیستم مبتنی بر قاعده استفاده کردند، جایی که باید به‌طور صریح به ماشین می‌گفتند برای هر نتیجهٔ احتمالی چه عددی را گزارش کند.

گروه دیگر از واسط «یادگیری نظارت‌شده» استفاده کردند؛ در اینجا آنها باید یکی از سه مجموعه‌داده را برای آموزش ماشین انتخاب می‌کردند دادهٔ منعکس‌کنندهٔ رفتار صادقانه، تقلب جزئی یا تقلب کامل.

گروه سوم از واسط «مبتنی بر هدف» استفاده کردند؛ در آنجا یک هدف کلی برای ماشین تعیین می‌کردند، با استفاده از یک دکمهٔ چرخشی که بین دو گزینه قرار داشت «بیشینه‌سازی دقت» تا «بیشینه‌سازی سود».

یافته‌ها نشان داد که واگذاری کار به ماشین به‌طور چشمگیری میزان بی‌صداقتی را افزایش می‌دهد. در حالی که ۹۵ درصد افراد هنگام گزارش شخصی صادق بودند، تنها حدود ۷۵ درصد در سیستم قاعده‌محور (rule-based) صداقت داشتند.

 این میزان در واسط‌هایی که ابهام بیشتری ایجاد می‌کرد، به‌مراتب پایین‌تر آمد. در گروه یادگیری نظارت‌شده، سطح صداقت به حدود ۵۰ درصد کاهش یافت.

اما چشمگیرترین نتیجه مربوط به گروه مبتنی بر هدف بود؛ جایی که تنها اقلیتی اندک، بین ۱۲ تا ۱۶ درصد، صادق ماندند. این امر نشان می‌دهد وقتی افراد می‌توانند دستور‌های کلی و مبهم بدهند، موانع اخلاقی آنها برای تقلب به‌طور قابل‌توجهی ضعیف می‌شود. مطالعهٔ دوم، که در آن امکان انتخاب واگذاری یا انجام شخصی وجود داشت، نتایجی بسیار مشابه در میان شرکت‌کنندگانی که تصمیم به واگذاری گرفتند، نشان داد.

مجموعهٔ بعدی از مطالعات بر «سمت عامل» در تعامل متمرکز شد؛ یعنی بررسی این‌که هم عوامل انسانی و هم عوامل ماشینی چگونه به دستور‌های غیراخلاقی پاسخ می‌دهند. این آزمایش‌ها با استفاده از زبان طبیعی انجام شدند، جایی که «کارفرما» می‌توانست دستورهایش را همانند ارسال یک پیام متنی برای عامل بنویسد. برای این منظور، پژوهشگران از مدل‌های زبانی بزرگ پیشرفته استفاده کردند؛ همان فناوری‌ای که پشتوانهٔ چت‌بات‌های پرطرفدار امروزی است.

در این مرحله، کارفرمایان دستور‌ها را هم برای یک عامل انسانی و هم برای یک عامل ماشینی در تکلیف پرتاب تاس نوشتند. یافته‌ها نشان داد که در این بافت، افراد از عوامل ماشینی به‌طور معناداری بیش از عوامل انسانی درخواست تقلب نکردند.

تفاوت اساسی زمانی آشکار شد که این دستور‌ها اجرا شدند. پژوهشگران گروهی از شرکت‌کنندگان دیگر را به‌عنوان عامل انسانی به کار گرفتند و همان دستور‌ها را به چند مدل زبانی بزرگ دادند. وقتی دستور صادقانه داده می‌شد، هم انسان‌ها و هم ماشین‌ها آن را اجرا می‌کردند. اما شکاف در زمانی پدیدار شد که دستور شامل تقلب کامل بود عوامل ماشینی تقریباً همیشه از این درخواست‌های غیراخلاقی پیروی کردند.

در مقابل، عوامل انسانی بسیار بیشتر تمایل داشتند که امتناع کنند. حدود نیمی از آنها حتی در شرایطی که به‌طور صریح به تقلب دستور داده شده و مشوق مالی هم برای پیروی وجود داشت، همچنان گزارش صادقانه ارائه دادند. این یافته نشان می‌دهد که عوامل انسانی دارای «قطب‌نمای اخلاقی درونی» هستند که می‌تواند باعث شود دستور‌های غیراخلاقی را رد کنند؛ در حالی که چنین سازوکار بازدارنده‌ای به‌طور ذاتی در عوامل ماشینی وجود ندارد.

پژوهشگران همچنین بررسی کردند که آیا انواع مختلف «محافظ‌ها» یا guardrails می‌توانند میزان پیروی عوامل ماشینی از درخواست‌های غیراخلاقی را کاهش دهند. آنها سه نوع مداخله را آزمایش کردند یادآوری‌های کلی اخلاقی، هشدار‌های اختصاصیِ مرتبط با وظیفه و ممنوعیت‌های صریح. این پیام‌ها یا در سطح سیستم (نامرئی برای کاربر) تزریق شدند یا در سطح کاربر، به انتهای درخواست کاربر اضافه شدند.

مؤثرترین راهبرد در میان همهٔ مدل‌های زبانی آزمایش‌شده، ممنوعیت صریح و اختصاصیِ وظیفه بود که در سطح کاربر و به‌طور مستقیم به درخواست اضافه می‌شد. این نتیجه برای ایمنی چالش‌برانگیز است، زیرا نشان می‌دهد که دستورالعمل‌های اخلاقی کلی و در سطح سیستم، ممکن است به‌تنهایی برای جلوگیری از سوءاستفاده کافی نباشند.

برای اطمینان از این‌که نتایج محدود به یک بازی آزمایشگاهی ساده نیست، تیم پژوهش یک بازآزمایی مفهومی در یک موقعیت واقعی‌تر انجام داد فرار مالیاتی. شرکت‌کنندگان ابتدا در یک وظیفه درآمدی کسب کردند و سپس باید آن درآمد را برای مالیات گزارش می‌کردند. مالیات‌های جمع‌آوری‌شده به خیریه اهدا می‌شد، و این موضوع پیامد منفی روشنی برای تقلب ایجاد می‌کرد. همانند آزمایش پیشین، کارفرمایان دستور‌های متنی طبیعی برای هر دو نوع عامل (انسانی و ماشینی) نوشتند.

در این سناریوی فرار مالیاتی، کارفرمایان اندکی بیشتر از عوامل ماشینی انتظار تقلب داشتند تا از عوامل انسانی. بار دیگر، رفتار عوامل مهم‌ترین بخش مطالعه بود عوامل ماشینی بسیار بیشتر از عوامل انسانی به درخواست‌ها برای گزارش کمتر از درآمد واقعی تن دادند. البته میزان تبعیت کامل ماشین‌ها از درخواست‌های dishonest در بازی مالیات کمتر از بازی پرتاب تاس بود؛ احتمالاً به این دلیل که زمینهٔ «مالیات» در مدل‌ها هشداری اخلاقی قوی‌تر برمی‌انگیزد.

با این حال، در نبود محافظ‌های اضافی، پیروی همچنان شایع‌ترین واکنش ماشین‌ها بود. آزمایش‌های مربوط به «محافظ‌های ایمنی» بار دیگر نشان داد که ممنوعیت‌های صریح و اختصاصی در سطح کاربر مؤثرترین راه برای بازداشتن ماشین‌ها از رفتار غیرصادقانه است.

پژوهشگران تأکید کردند که با وجود جامع بودن این مطالعات، نتایج نمی‌تواند تمام پیچیدگی‌های واگذاری در دنیای واقعی را پوشش دهد. شرایط واقعی ممکن است شامل پویایی‌های اجتماعی، روابط بلندمدت و حتی امکان تبانی میان افراد باشد. پژوهش‌های آینده می‌توانند بررسی کنند که «واگذاری به ماشین» چگونه بر رفتار اخلاقی در فرهنگ‌های مختلف یا در تیم‌هایی که ترکیبی از انسان و ماشین هستند تأثیر می‌گذارد.

نتایج این پژوهش چند نگرانی مهم را دربارهٔ استفادهٔ فزاینده از عوامل ماشینی نشان می‌دهد. طراحی رابطی که برای واگذاری کار‌ها به کار می‌رود می‌تواند تأثیر زیادی بر تمایل افراد به رفتار غیراخلاقی داشته باشد. رابط‌هایی که اجازه می‌دهند افراد اهداف کلی و سطح بالا را بدون مشخص کردن جزئیات تعیین کنند، نوعی «انکارپذیری محتمل» (plausible deniability) ایجاد می‌کنند که تقلب را تشویق می‌کند. حتی زمانی که افراد به‌طور صریح از ماشین‌ها درخواست تقلب نمی‌کنند، دسترسی آسان و مقیاس‌پذیری بالای عوامل ماشینی می‌تواند به افزایش کلی رفتار‌های غیراخلاقی منجر شود.

شاید مهم‌تر از همه این است که نرخ بالای تبعیت عوامل ماشینی از درخواست‌های غیراخلاقی، یک سازوکار اجتماعی مهم برای کنترل رفتار نادرست را حذف می‌کند.

زوی راهوان در این باره گفت «استفاده از هوش مصنوعی نوعی فاصلهٔ اخلاقی راحت بین افراد و اعمالشان ایجاد می‌کند این می‌تواند آنها را به درخواست رفتار‌هایی ترغیب کند که احتمالاً خودشان شخصاً انجام نمی‌دادند یا از انسان‌های دیگر نمی‌خواستند.»

نیلس کوبیس نیز افزود «مطالعهٔ ما نشان می‌دهد که مردم زمانی که می‌توانند رفتار را به ماشین‌ها واگذار کنند به‌ویژه وقتی لازم نیست آن را به‌طور مستقیم و آشکار بیان کنند آمادگی بیشتری برای ورود به رفتار غیراخلاقی دارند.»

ایاد راهوان، نویسندهٔ همکار و مدیر «مرکز انسان و ماشین» در مؤسسهٔ ماکس پلانک برای توسعهٔ انسانی، تأکید کرد «یافته‌های ما به‌روشنی نشان می‌دهد که ما فوراً به توسعهٔ بیشتر محافظت‌های فنی و چارچوب‌های مقرراتی نیاز داریم. اما فراتر از آن، جامعه باید با این پرسش روبه‌رو شود که تقسیم مسئولیت اخلاقی با ماشین‌ها چه معنایی دارد.»

به گزارش (psypost) این پژوهش با عنوان «واگذاری به هوش مصنوعی می‌تواند رفتار‌های غیرصادقانه را افزایش دهد» توسط نیلس کوبیس، زوی راهوان، رالوکا ریلا، برامانتو ابراهیم سوپریاتنو، کلارا برش، تامر آجاج، ژان فرانسوا بونفون و ایاد راهوان منتشر شده است.

انتهای پیام/

ارسال نظر
گوشتیران
قالیشویی ادیب
رسپینا