صفحه نخست

آناتک

آنامدیا

دانشگاه

فرهنگ‌

علم

سیاست و جهان

اقتصاد

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

همدان

هرمزگان

یزد

پخش زنده

۰۹:۵۵ | ۰۹ / ۰۸ /۱۴۰۴
| |
پژوهشی تازه درباره نقش ربات‌ها در روابط انسانی

ربات‌ها وارد دنیای احساس شدند

پژوهشی تازه نشان می‌دهد ربات‌ها دیگر تنها ابزار‌های کمکی نیستند، بلکه می‌توانند بر احساسات و حتی روابط میان انسان‌ها تأثیر بگذارند. بر اساس یافته‌های این مطالعه، نوع بازخورد یک ربات چه موافقت و چه مخالفت می‌تواند میزان صمیمیت یا فاصله میان دو نفر را تغییر دهد.
کد خبر : 1008349

این پژوهش که در نشریه (Computers in Human Behavior) منتشر شده، نشان می‌دهد این تأثیر بسته به ظاهر ربات و نحوه ارتباط آن با انسان‌ها تغییر می‌کند.

با گسترش حضور ربات‌ها در محیط‌های کاری و خانگی، بسیاری از آنها برای کمک به تصمیم‌گیری انسان‌ها طراحی می‌شوند. تاکنون بیشتر پژوهش‌ها بر تأثیر ربات‌ها بر کیفیت تصمیم‌های گروهی تمرکز داشته‌اند، اما کمتر بررسی شده که حضور ربات چگونه می‌تواند روابط شخصی بین اعضای انسانی تیم را دگرگون کند. پژوهشگران در این مطالعه تلاش کردند دریابند موافقت یا مخالفت ربات چگونه بر حس ارتباط میان انسان‌ها اثر می‌گذارد.

«تینگ‌هان لین»، دانشجوی دکترای علوم رایانه در دانشگاه شیکاگو و نویسنده اصلی این تحقیق، می‌گوید:«با توجه به رشد مدل‌های زبانی بزرگ در سال‌های اخیر، ما بر این باوریم که ربات‌ها در اشکال مختلف به‌زودی به زبان گفتاری غیرفیلمنامه‌ای مجهز می‌شوند تا در موقعیت‌های گوناگون به انسان‌ها در تصمیم‌گیری کمک کنند. هدف ما از انجام این پژوهش، جلب توجه به ضرورت دقت و کنترل در رفتار‌های مشخصی است که ربات‌ها باید در ارائه بازخورد از آنها استفاده کنند.»

این پژوهش بر دو مفهوم شناخته‌شده روان‌شناسی «نظریه تعادل (Balance Theory) که می‌گوید انسان‌ها زمانی نسبت به یکدیگر احساس مثبت‌تری دارند که توسط شخص ثالث (در اینجا ربات) به‌صورت مشابهی مورد رفتار قرار گیرند — حتی اگر آن رفتار منفی باشد.» و «تأثیر احساس منفی (Influence of Negative Affect) که بیان می‌کند لحن منفی یا انتقاد می‌تواند جو کلی تعامل را مسموم کرده و روابط را تضعیف کند.» متمرکز بود.

برای آزمودن این مفاهیم، پژوهشگران دو آزمایش جداگانه انجام دادند. در هر آزمایش، دو نفر که یکدیگر را نمی‌شناختند با هم کار می‌کردند. آنها باید به هشت پرسش شخصی مانند «مهم‌ترین عامل در داشتن زندگی خوب چیست؟» پاسخ می‌دادند. هر فرد ابتدا پاسخ خودش را می‌داد، سپس با همکاری هم به پاسخ مشترک می‌رسیدند.

در طول این فرایند، رباتی برای میانجی‌گری و ارائه بازخورد حضور داشت. پس از هر پاسخ، ربات واکنشی نشان می‌داد. این بازخورد از دو جهت «از نظر مثبت یا منفی بودن (موافقت یا مخالفت با پاسخ فرد)» و «از نظر برخورد برابر یا نابرابر با دو نفر (موافقت با هر دو یا فقط با یکی از آنها).» متفاوت بود.

آزمایش نخست: ربات انسان‌نما (NAO)

در اولین آزمایش، ۱۷۲ نفر با ربات انسان‌نمایی به نام NAO تعامل داشتند. این ربات توانایی صحبت کردن، حرکات بدنی مانند تکان دادن سر و خلاصه‌سازی پاسخ افراد با استفاده از هوش مصنوعی را داشت. جملات مخالفت آن از ملایم تا شدید متغیر بود؛ مثلاً از عبارت ساده‌ای مانند «من تا حدی مخالفم» تا جمله‌ای تند نظیر «من اساساً با دیدگاه شما مخالفم».

نتایج نشان داد که مثبت یا منفی بودن بازخورد ربات، تأثیر قابل‌توجهی بر احساس صمیمیت میان شرکت‌کنندگان داشت. زمانی که ربات بازخورد مثبت می‌داد، دو نفر احساس نزدیکی بیشتری نسبت به هم داشتند. در مقابل، وقتی بازخورد ربات منفی بود، احساس فاصله میان آنها افزایش یافت.

لین در گفت‌و‌گو با پایگاه PsyPost گفت:«بازخورد یک ربات در یک کار تصمیم‌گیری می‌تواند حس نزدیکی بین دو انسان را شکل دهد.»

این یافته از تأثیر احساس منفی پشتیبانی می‌کند. فضای منفی و انتقادی که ربات ایجاد کرده بود، محیط اجتماعی را ناخوشایند کرده و حس ارتباط میان افراد را کاهش می‌داد. برخلاف انتظار، رفتار برابر یا نابرابر ربات تأثیر چشمگیری در احساس صمیمیت نداشت. شرکت‌کنندگان همچنین ربات انسان‌نما را در صورت رفتار مثبت، «گرم‌تر و باهوش‌تر» ارزیابی کردند، اما زمانی که رفتار نابرابر داشت، او را آزاردهنده‌تر یافتند.

آزمایش دوم: ربات ساده و غیرانسان‌نما

در آزمایش دوم، ۱۵۰ شرکت‌کننده با رباتی ساده که شباهت زیادی به یک چراغ مطالعه مفصلی داشت، تعامل کردند. این ربات نه می‌توانست صحبت کند و نه حالات چهره داشت؛ تنها با تکان دادن سر برای موافقت یا چرخاندن آن برای مخالفت بازخورد خود را منتقل می‌کرد.

نتایج این آزمایش برخلاف مورد اول بود. در اینجا عامل اصلی شکل‌دهنده حس صمیمیت، نحوه برخورد برابر یا نابرابر ربات بود، نه مثبت یا منفی بودن بازخوردش. وقتی ربات با هر دو شرکت‌کننده به‌طور مساوی رفتار می‌کرد (چه موافق، چه مخالف)، آنها احساس نزدیکی بیشتری داشتند. اما رفتار نابرابر (موافقت با یکی و مخالفت با دیگری) موجب احساس فاصله بیشتر شد.

این نتیجه با نظریه تعادل هم‌خوانی دارد. تجربه مشابهی که دو نفر در برابر ربات داشتند حتی اگر هر دو مورد مخالفت قرار گرفته بودند باعث ایجاد پیوند مشترک میانشان شد. جالب اینکه، هنگامی که ربات با هر دو نفر مخالف بود، احساس صمیمیت میانشان بیش از زمانی بود که با هر دو موافق بود؛ گویی ربات به یک «دشمن مشترک» تبدیل شده بود که آنها را به هم نزدیک‌تر می‌کرد.

لین در این‌باره گفت:«وقتی ربات از نظر انسانی بودن در سطح پایین قرار دارد، نظریه تعادل (Balance Theory) نقش غالب پیدا می‌کند.»

به گفته پژوهشگران، تفاوت نتایج دو آزمایش ناشی از شدت و نوع بازخورد ربات‌هاست. ربات انسان‌نمای NAO با استفاده از گفتار شخصی و مخالفت‌های قوی، فضایی منفی و پرتنش ایجاد کرد که سایر پویایی‌های اجتماعی را تحت‌الشعاع قرار داد. انتقاد‌های آن جدی‌تر تلقی می‌شدند و به اندازه‌ای شدید بودند که رابطه انسانی میان دو نفر را تضعیف کردند.

لین افزود:«در حضور ربات‌های انسان‌نما و با سطح بالای شباهت به انسان، تأثیر احساس منفی (Negative Affect) غالب می‌شود.»

در مقابل، ربات ساده و بی‌کلام، تأثیر عاطفی ضعیف‌تری داشت. چون بازخوردش غیرشخصی و کم‌قدرت بود، جو کلی تعامل را مسموم نمی‌کرد. به همین دلیل، تأثیر ظریف رفتار برابر یا نابرابر توانست عامل اصلی شکل‌گیری احساس صمیمیت میان افراد شود. مصاحبه‌ها با شرکت‌کنندگان نیز این موضوع را تأیید کرد؛ آنان گفتند نظر ربات ساده را چندان جدی نمی‌گرفتند.

در هر دو آزمایش، بازخورد ربات تأثیر چشمگیری بر نتیجه نهایی تصمیم‌های گروهی نداشت. شرکت‌کنندگان معمولاً دیدگاه‌های یکدیگر را به‌طور منصفانه در تصمیم نهایی لحاظ می‌کردند، صرف‌نظر از این‌که ربات چه نظری داشت. این موضوع نشان می‌دهد که تأثیر ربات‌ها بیشتر اجتماعی و احساسی است تا عملی یا تصمیم‌محور.

به گزارش (psypost)البته پژوهش محدودیت‌هایی نیز داشت؛ از جمله این‌که دو آزمایش در دو کشور متفاوت و با جمعیت‌های گوناگون انجام شدند: آزمایش اول در آمریکا و با بازدیدکنندگان یک موزه، و آزمایش دوم در اسرائیل با دانشجویان دانشگاه. پژوهشگران پیشنهاد می‌کنند مطالعات آینده این پویایی‌ها را در موقعیت‌های فرهنگی و اجتماعی متنوع‌تری بررسی کنند.

 

انتهای پیام/

برچسب ها: ربات هوش مصنوعی
ارسال نظر