رباتها وارد دنیای احساس شدند
این پژوهش که در نشریه (Computers in Human Behavior) منتشر شده، نشان میدهد این تأثیر بسته به ظاهر ربات و نحوه ارتباط آن با انسانها تغییر میکند.
با گسترش حضور رباتها در محیطهای کاری و خانگی، بسیاری از آنها برای کمک به تصمیمگیری انسانها طراحی میشوند. تاکنون بیشتر پژوهشها بر تأثیر رباتها بر کیفیت تصمیمهای گروهی تمرکز داشتهاند، اما کمتر بررسی شده که حضور ربات چگونه میتواند روابط شخصی بین اعضای انسانی تیم را دگرگون کند. پژوهشگران در این مطالعه تلاش کردند دریابند موافقت یا مخالفت ربات چگونه بر حس ارتباط میان انسانها اثر میگذارد.
«تینگهان لین»، دانشجوی دکترای علوم رایانه در دانشگاه شیکاگو و نویسنده اصلی این تحقیق، میگوید:«با توجه به رشد مدلهای زبانی بزرگ در سالهای اخیر، ما بر این باوریم که رباتها در اشکال مختلف بهزودی به زبان گفتاری غیرفیلمنامهای مجهز میشوند تا در موقعیتهای گوناگون به انسانها در تصمیمگیری کمک کنند. هدف ما از انجام این پژوهش، جلب توجه به ضرورت دقت و کنترل در رفتارهای مشخصی است که رباتها باید در ارائه بازخورد از آنها استفاده کنند.»
این پژوهش بر دو مفهوم شناختهشده روانشناسی «نظریه تعادل (Balance Theory) که میگوید انسانها زمانی نسبت به یکدیگر احساس مثبتتری دارند که توسط شخص ثالث (در اینجا ربات) بهصورت مشابهی مورد رفتار قرار گیرند — حتی اگر آن رفتار منفی باشد.» و «تأثیر احساس منفی (Influence of Negative Affect) که بیان میکند لحن منفی یا انتقاد میتواند جو کلی تعامل را مسموم کرده و روابط را تضعیف کند.» متمرکز بود.
برای آزمودن این مفاهیم، پژوهشگران دو آزمایش جداگانه انجام دادند. در هر آزمایش، دو نفر که یکدیگر را نمیشناختند با هم کار میکردند. آنها باید به هشت پرسش شخصی مانند «مهمترین عامل در داشتن زندگی خوب چیست؟» پاسخ میدادند. هر فرد ابتدا پاسخ خودش را میداد، سپس با همکاری هم به پاسخ مشترک میرسیدند.
در طول این فرایند، رباتی برای میانجیگری و ارائه بازخورد حضور داشت. پس از هر پاسخ، ربات واکنشی نشان میداد. این بازخورد از دو جهت «از نظر مثبت یا منفی بودن (موافقت یا مخالفت با پاسخ فرد)» و «از نظر برخورد برابر یا نابرابر با دو نفر (موافقت با هر دو یا فقط با یکی از آنها).» متفاوت بود.
آزمایش نخست: ربات انساننما (NAO)
در اولین آزمایش، ۱۷۲ نفر با ربات انساننمایی به نام NAO تعامل داشتند. این ربات توانایی صحبت کردن، حرکات بدنی مانند تکان دادن سر و خلاصهسازی پاسخ افراد با استفاده از هوش مصنوعی را داشت. جملات مخالفت آن از ملایم تا شدید متغیر بود؛ مثلاً از عبارت سادهای مانند «من تا حدی مخالفم» تا جملهای تند نظیر «من اساساً با دیدگاه شما مخالفم».
نتایج نشان داد که مثبت یا منفی بودن بازخورد ربات، تأثیر قابلتوجهی بر احساس صمیمیت میان شرکتکنندگان داشت. زمانی که ربات بازخورد مثبت میداد، دو نفر احساس نزدیکی بیشتری نسبت به هم داشتند. در مقابل، وقتی بازخورد ربات منفی بود، احساس فاصله میان آنها افزایش یافت.
لین در گفتوگو با پایگاه PsyPost گفت:«بازخورد یک ربات در یک کار تصمیمگیری میتواند حس نزدیکی بین دو انسان را شکل دهد.»
این یافته از تأثیر احساس منفی پشتیبانی میکند. فضای منفی و انتقادی که ربات ایجاد کرده بود، محیط اجتماعی را ناخوشایند کرده و حس ارتباط میان افراد را کاهش میداد. برخلاف انتظار، رفتار برابر یا نابرابر ربات تأثیر چشمگیری در احساس صمیمیت نداشت. شرکتکنندگان همچنین ربات انساننما را در صورت رفتار مثبت، «گرمتر و باهوشتر» ارزیابی کردند، اما زمانی که رفتار نابرابر داشت، او را آزاردهندهتر یافتند.
آزمایش دوم: ربات ساده و غیرانساننما
در آزمایش دوم، ۱۵۰ شرکتکننده با رباتی ساده که شباهت زیادی به یک چراغ مطالعه مفصلی داشت، تعامل کردند. این ربات نه میتوانست صحبت کند و نه حالات چهره داشت؛ تنها با تکان دادن سر برای موافقت یا چرخاندن آن برای مخالفت بازخورد خود را منتقل میکرد.
نتایج این آزمایش برخلاف مورد اول بود. در اینجا عامل اصلی شکلدهنده حس صمیمیت، نحوه برخورد برابر یا نابرابر ربات بود، نه مثبت یا منفی بودن بازخوردش. وقتی ربات با هر دو شرکتکننده بهطور مساوی رفتار میکرد (چه موافق، چه مخالف)، آنها احساس نزدیکی بیشتری داشتند. اما رفتار نابرابر (موافقت با یکی و مخالفت با دیگری) موجب احساس فاصله بیشتر شد.
این نتیجه با نظریه تعادل همخوانی دارد. تجربه مشابهی که دو نفر در برابر ربات داشتند حتی اگر هر دو مورد مخالفت قرار گرفته بودند باعث ایجاد پیوند مشترک میانشان شد. جالب اینکه، هنگامی که ربات با هر دو نفر مخالف بود، احساس صمیمیت میانشان بیش از زمانی بود که با هر دو موافق بود؛ گویی ربات به یک «دشمن مشترک» تبدیل شده بود که آنها را به هم نزدیکتر میکرد.
لین در اینباره گفت:«وقتی ربات از نظر انسانی بودن در سطح پایین قرار دارد، نظریه تعادل (Balance Theory) نقش غالب پیدا میکند.»
به گفته پژوهشگران، تفاوت نتایج دو آزمایش ناشی از شدت و نوع بازخورد رباتهاست. ربات انساننمای NAO با استفاده از گفتار شخصی و مخالفتهای قوی، فضایی منفی و پرتنش ایجاد کرد که سایر پویاییهای اجتماعی را تحتالشعاع قرار داد. انتقادهای آن جدیتر تلقی میشدند و به اندازهای شدید بودند که رابطه انسانی میان دو نفر را تضعیف کردند.
لین افزود:«در حضور رباتهای انساننما و با سطح بالای شباهت به انسان، تأثیر احساس منفی (Negative Affect) غالب میشود.»
در مقابل، ربات ساده و بیکلام، تأثیر عاطفی ضعیفتری داشت. چون بازخوردش غیرشخصی و کمقدرت بود، جو کلی تعامل را مسموم نمیکرد. به همین دلیل، تأثیر ظریف رفتار برابر یا نابرابر توانست عامل اصلی شکلگیری احساس صمیمیت میان افراد شود. مصاحبهها با شرکتکنندگان نیز این موضوع را تأیید کرد؛ آنان گفتند نظر ربات ساده را چندان جدی نمیگرفتند.
در هر دو آزمایش، بازخورد ربات تأثیر چشمگیری بر نتیجه نهایی تصمیمهای گروهی نداشت. شرکتکنندگان معمولاً دیدگاههای یکدیگر را بهطور منصفانه در تصمیم نهایی لحاظ میکردند، صرفنظر از اینکه ربات چه نظری داشت. این موضوع نشان میدهد که تأثیر رباتها بیشتر اجتماعی و احساسی است تا عملی یا تصمیممحور.
به گزارش (psypost)البته پژوهش محدودیتهایی نیز داشت؛ از جمله اینکه دو آزمایش در دو کشور متفاوت و با جمعیتهای گوناگون انجام شدند: آزمایش اول در آمریکا و با بازدیدکنندگان یک موزه، و آزمایش دوم در اسرائیل با دانشجویان دانشگاه. پژوهشگران پیشنهاد میکنند مطالعات آینده این پویاییها را در موقعیتهای فرهنگی و اجتماعی متنوعتری بررسی کنند.
انتهای پیام/