تقلب به سبک هوش مصنوعی؛ هشدار یک پژوهش درباره آینده اخلاق در عصر دیجیتال
این پژوهش که در نشریه (Nature) منتشر شده است و محققان با انجام ۱۳ آزمایش در قالب ۴ مطالعه مستقل نشان دادهاند که وقتی افراد از ماشینها (بهجای انسانها) برای انجام کارها استفاده میکنند، احتمال درخواست برای انجام تقلب بیشتر میشود — بهویژه زمانی که بتوانند با دستورهای مبهم و غیرمستقیم، رفتار غیرقانونی یا غیراخلاقی را به ماشینها واگذار کنند، بدون آنکه خود را مستقیماً درگیر جلوه دهند.
امروزه مردم بهطور فزایندهای از این سیستمها برای مدیریت کارهای مختلف در زندگی استفاده میکنند، از سرمایهگذاری گرفته تا رانندگی خودرو. این پدیده که «واگذاری کار به ماشین» یا (machine delegation) نامیده میشود، پرسشهای زیادی دربارهٔ پیامدهای اخلاقی بالقوهٔ آن ایجاد کرده است.
یک تیم بینالمللی از پژوهشگران به سرپرستی نیلس کوبیس از دانشگاه دویسبورگ-اسن و زوی راهوان از مؤسسهٔ ماکس پلانک برای توسعهٔ انسانی، بررسی کردند که آیا سپردن یک کار به ماشین باعث میشود افراد بیشتر به رفتار غیرصادقانه برای کسب منفعت شخصی روی بیاورند یا نه. منطق پشت این فرضیه چنین بود مردم اغلب از رفتار غیراخلاقی پرهیز میکنند، زیرا هزینهٔ اخلاقیِ دیدن خود بهعنوان فردی (dishonest) یا دیدهشدن توسط دیگران به این شکل، بالاست. اما واگذاری عمل به ماشین ممکن است این هزینهٔ اخلاقی را کاهش دهد، چراکه فاصلهٔ روانشناختی با عمل غیرصادقانه ایجاد میکند.
برای آزمودن این ایده، پژوهشگران مجموعهای از آزمایشها انجام دادند. دو مطالعهٔ نخست بر نحوهٔ دستور دادن افراد تمرکز داشت چیزی که به آن «سمت کارفرما» (principal’s side) در تعامل گفته میشود. آنها از یک روش شناختهشده برای سنجش صداقت به نام «تکلیف پرتاب تاس» استفاده کردند.
در این روش، شرکتکنندگان نتیجهٔ پرتاب تاس را مشاهده کرده و باید آن را گزارش دهند؛ در حالی که یک پاداش نقدی کوچک بر اساس عدد گزارششده دریافت میکنند. هرچه عدد بزرگتر باشد، پاداش بیشتر است و بنابراین انگیزهای مالی برای دروغ گفتن به وجود میآید. وقتی افراد این کار را خودشان و در خلوت انجام میدهند، اکثریت قاطع حدود ۹۵ درصد نتیجه را صادقانه گزارش میکنند.
در مطالعهٔ نخست، شرکتکنندگان به یکی از چهار گروه تقسیم شدند. گروه کنترل، خودشان تکلیف پرتاب تاس را انجام دادند. سه گروه دیگر موظف بودند این کار را به یک عامل ماشینی ساده بسپارند، اما هر کدام با واسط کاربری متفاوتی به ماشین دستور میدادند
یک گروه از سیستم مبتنی بر قاعده استفاده کردند، جایی که باید بهطور صریح به ماشین میگفتند برای هر نتیجهٔ احتمالی چه عددی را گزارش کند.
گروه دیگر از واسط «یادگیری نظارتشده» استفاده کردند؛ در اینجا آنها باید یکی از سه مجموعهداده را برای آموزش ماشین انتخاب میکردند دادهٔ منعکسکنندهٔ رفتار صادقانه، تقلب جزئی یا تقلب کامل.
گروه سوم از واسط «مبتنی بر هدف» استفاده کردند؛ در آنجا یک هدف کلی برای ماشین تعیین میکردند، با استفاده از یک دکمهٔ چرخشی که بین دو گزینه قرار داشت «بیشینهسازی دقت» تا «بیشینهسازی سود».
یافتهها نشان داد که واگذاری کار به ماشین بهطور چشمگیری میزان بیصداقتی را افزایش میدهد. در حالی که ۹۵ درصد افراد هنگام گزارش شخصی صادق بودند، تنها حدود ۷۵ درصد در سیستم قاعدهمحور (rule-based) صداقت داشتند.
این میزان در واسطهایی که ابهام بیشتری ایجاد میکرد، بهمراتب پایینتر آمد. در گروه یادگیری نظارتشده، سطح صداقت به حدود ۵۰ درصد کاهش یافت.
اما چشمگیرترین نتیجه مربوط به گروه مبتنی بر هدف بود؛ جایی که تنها اقلیتی اندک، بین ۱۲ تا ۱۶ درصد، صادق ماندند. این امر نشان میدهد وقتی افراد میتوانند دستورهای کلی و مبهم بدهند، موانع اخلاقی آنها برای تقلب بهطور قابلتوجهی ضعیف میشود. مطالعهٔ دوم، که در آن امکان انتخاب واگذاری یا انجام شخصی وجود داشت، نتایجی بسیار مشابه در میان شرکتکنندگانی که تصمیم به واگذاری گرفتند، نشان داد.
مجموعهٔ بعدی از مطالعات بر «سمت عامل» در تعامل متمرکز شد؛ یعنی بررسی اینکه هم عوامل انسانی و هم عوامل ماشینی چگونه به دستورهای غیراخلاقی پاسخ میدهند. این آزمایشها با استفاده از زبان طبیعی انجام شدند، جایی که «کارفرما» میتوانست دستورهایش را همانند ارسال یک پیام متنی برای عامل بنویسد. برای این منظور، پژوهشگران از مدلهای زبانی بزرگ پیشرفته استفاده کردند؛ همان فناوریای که پشتوانهٔ چتباتهای پرطرفدار امروزی است.
در این مرحله، کارفرمایان دستورها را هم برای یک عامل انسانی و هم برای یک عامل ماشینی در تکلیف پرتاب تاس نوشتند. یافتهها نشان داد که در این بافت، افراد از عوامل ماشینی بهطور معناداری بیش از عوامل انسانی درخواست تقلب نکردند.
تفاوت اساسی زمانی آشکار شد که این دستورها اجرا شدند. پژوهشگران گروهی از شرکتکنندگان دیگر را بهعنوان عامل انسانی به کار گرفتند و همان دستورها را به چند مدل زبانی بزرگ دادند. وقتی دستور صادقانه داده میشد، هم انسانها و هم ماشینها آن را اجرا میکردند. اما شکاف در زمانی پدیدار شد که دستور شامل تقلب کامل بود عوامل ماشینی تقریباً همیشه از این درخواستهای غیراخلاقی پیروی کردند.
در مقابل، عوامل انسانی بسیار بیشتر تمایل داشتند که امتناع کنند. حدود نیمی از آنها حتی در شرایطی که بهطور صریح به تقلب دستور داده شده و مشوق مالی هم برای پیروی وجود داشت، همچنان گزارش صادقانه ارائه دادند. این یافته نشان میدهد که عوامل انسانی دارای «قطبنمای اخلاقی درونی» هستند که میتواند باعث شود دستورهای غیراخلاقی را رد کنند؛ در حالی که چنین سازوکار بازدارندهای بهطور ذاتی در عوامل ماشینی وجود ندارد.
پژوهشگران همچنین بررسی کردند که آیا انواع مختلف «محافظها» یا guardrails میتوانند میزان پیروی عوامل ماشینی از درخواستهای غیراخلاقی را کاهش دهند. آنها سه نوع مداخله را آزمایش کردند یادآوریهای کلی اخلاقی، هشدارهای اختصاصیِ مرتبط با وظیفه و ممنوعیتهای صریح. این پیامها یا در سطح سیستم (نامرئی برای کاربر) تزریق شدند یا در سطح کاربر، به انتهای درخواست کاربر اضافه شدند.
مؤثرترین راهبرد در میان همهٔ مدلهای زبانی آزمایششده، ممنوعیت صریح و اختصاصیِ وظیفه بود که در سطح کاربر و بهطور مستقیم به درخواست اضافه میشد. این نتیجه برای ایمنی چالشبرانگیز است، زیرا نشان میدهد که دستورالعملهای اخلاقی کلی و در سطح سیستم، ممکن است بهتنهایی برای جلوگیری از سوءاستفاده کافی نباشند.
برای اطمینان از اینکه نتایج محدود به یک بازی آزمایشگاهی ساده نیست، تیم پژوهش یک بازآزمایی مفهومی در یک موقعیت واقعیتر انجام داد فرار مالیاتی. شرکتکنندگان ابتدا در یک وظیفه درآمدی کسب کردند و سپس باید آن درآمد را برای مالیات گزارش میکردند. مالیاتهای جمعآوریشده به خیریه اهدا میشد، و این موضوع پیامد منفی روشنی برای تقلب ایجاد میکرد. همانند آزمایش پیشین، کارفرمایان دستورهای متنی طبیعی برای هر دو نوع عامل (انسانی و ماشینی) نوشتند.
در این سناریوی فرار مالیاتی، کارفرمایان اندکی بیشتر از عوامل ماشینی انتظار تقلب داشتند تا از عوامل انسانی. بار دیگر، رفتار عوامل مهمترین بخش مطالعه بود عوامل ماشینی بسیار بیشتر از عوامل انسانی به درخواستها برای گزارش کمتر از درآمد واقعی تن دادند. البته میزان تبعیت کامل ماشینها از درخواستهای dishonest در بازی مالیات کمتر از بازی پرتاب تاس بود؛ احتمالاً به این دلیل که زمینهٔ «مالیات» در مدلها هشداری اخلاقی قویتر برمیانگیزد.
با این حال، در نبود محافظهای اضافی، پیروی همچنان شایعترین واکنش ماشینها بود. آزمایشهای مربوط به «محافظهای ایمنی» بار دیگر نشان داد که ممنوعیتهای صریح و اختصاصی در سطح کاربر مؤثرترین راه برای بازداشتن ماشینها از رفتار غیرصادقانه است.
پژوهشگران تأکید کردند که با وجود جامع بودن این مطالعات، نتایج نمیتواند تمام پیچیدگیهای واگذاری در دنیای واقعی را پوشش دهد. شرایط واقعی ممکن است شامل پویاییهای اجتماعی، روابط بلندمدت و حتی امکان تبانی میان افراد باشد. پژوهشهای آینده میتوانند بررسی کنند که «واگذاری به ماشین» چگونه بر رفتار اخلاقی در فرهنگهای مختلف یا در تیمهایی که ترکیبی از انسان و ماشین هستند تأثیر میگذارد.
نتایج این پژوهش چند نگرانی مهم را دربارهٔ استفادهٔ فزاینده از عوامل ماشینی نشان میدهد. طراحی رابطی که برای واگذاری کارها به کار میرود میتواند تأثیر زیادی بر تمایل افراد به رفتار غیراخلاقی داشته باشد. رابطهایی که اجازه میدهند افراد اهداف کلی و سطح بالا را بدون مشخص کردن جزئیات تعیین کنند، نوعی «انکارپذیری محتمل» (plausible deniability) ایجاد میکنند که تقلب را تشویق میکند. حتی زمانی که افراد بهطور صریح از ماشینها درخواست تقلب نمیکنند، دسترسی آسان و مقیاسپذیری بالای عوامل ماشینی میتواند به افزایش کلی رفتارهای غیراخلاقی منجر شود.
شاید مهمتر از همه این است که نرخ بالای تبعیت عوامل ماشینی از درخواستهای غیراخلاقی، یک سازوکار اجتماعی مهم برای کنترل رفتار نادرست را حذف میکند.
زوی راهوان در این باره گفت «استفاده از هوش مصنوعی نوعی فاصلهٔ اخلاقی راحت بین افراد و اعمالشان ایجاد میکند این میتواند آنها را به درخواست رفتارهایی ترغیب کند که احتمالاً خودشان شخصاً انجام نمیدادند یا از انسانهای دیگر نمیخواستند.»
نیلس کوبیس نیز افزود «مطالعهٔ ما نشان میدهد که مردم زمانی که میتوانند رفتار را به ماشینها واگذار کنند بهویژه وقتی لازم نیست آن را بهطور مستقیم و آشکار بیان کنند آمادگی بیشتری برای ورود به رفتار غیراخلاقی دارند.»
ایاد راهوان، نویسندهٔ همکار و مدیر «مرکز انسان و ماشین» در مؤسسهٔ ماکس پلانک برای توسعهٔ انسانی، تأکید کرد «یافتههای ما بهروشنی نشان میدهد که ما فوراً به توسعهٔ بیشتر محافظتهای فنی و چارچوبهای مقرراتی نیاز داریم. اما فراتر از آن، جامعه باید با این پرسش روبهرو شود که تقسیم مسئولیت اخلاقی با ماشینها چه معنایی دارد.»
به گزارش (psypost) این پژوهش با عنوان «واگذاری به هوش مصنوعی میتواند رفتارهای غیرصادقانه را افزایش دهد» توسط نیلس کوبیس، زوی راهوان، رالوکا ریلا، برامانتو ابراهیم سوپریاتنو، کلارا برش، تامر آجاج، ژان فرانسوا بونفون و ایاد راهوان منتشر شده است.
انتهای پیام/


