صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

ورزش

سلامت

پژوهش

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

علم +

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
۱۹:۲۶ - ۲۸ ارديبهشت ۱۴۰۲

تأثیر هوش مصنوعی بر اعتماد در تعاملات انسانی

محققان دانشگاه گوتنبرگ به بررسی این موضوع پرداختند که چگونه سامانه های هوش مصنوعی پیشرفته بر اعتماد ما به افرادی که با آنها تعامل برقرار می کنیم، تأثیر می‌گذارد.
کد خبر : 848046

به گزارش گروه دانش و فناوری خبرگزاری علم و فناوری آنا به نقل از تارنمای اخبار علمی ساینس دیلی، در حالی هوش مصنوعی به طور روزافزون واقع بینانه می‌شود، اعتماد ما به کسانی که با آن‌ها ارتباط برقرار می‌کنیم ممکن است به مخاطره بیفتد.

در یک سناریو، یک کلاهبردار بالقوه که فکر می‌کند با یک پیرمرد تماس گرفته، درواقع به یک سامانه رایانه‌ای متصل می‌شود که از طریق حلقه‌های از پیش ضبط شده با او ارتباط برقرار می‌کند. فرد کلاهبردار زمان زیادی را صرف تلاش برای کلاهبرداری می‌کند و صبورانه به داستان‌های گیج کننده و تکراری پیرمرد گوش می‌دهد.

اسکار لیندوال، استاد ارتباطات دانشگاه گوتنبرگ در سوئد مشاهده کرد که اغلب زمان زیادی طول می‌کشد تا مردم متوجه شوند با یک سامانه فنی در حال تعامل هستند.

او با همکاری جوناس ایوارسون استاد انفورماتیک، مقاله‌ای با عنوان ذهن‌های بدگمان: مشکل اعتماد و عناصر مکالمه‌ای به نگارش درآورد و در آن نحوه تفسیر افراد را از موقعیت‌هایی که یکی از طرفین ممکن است هوش مصنوعی باشند، بررسی کرد.

این مقاله پیامد‌های منفی ایجاد سوء ظن نسبت به دیگران را، مانند آسیبی که می‌تواند به روابط وارد کند، مورد توجه قرار داده است.

ایوارسون نمونه‌ای از یک رابطه عاشقانه را ارائه داد که در آن مسئله اعتماد به وجود می‌آید و به حسادت و افزایش تمایل به جستجوی شواهد فریبکاری می‌انجامد. نویسندگان این مقاله ادعا می‌کنند که ناتوانی در اعتماد کامل به نیات و هویت یک طرف گفتگو ممکن است به سوء ظن شدید بینجامد؛ حتی اگر دلیلی برای آن وجود نداشته باشد.

مطالعه آن‌ها نشان داد که در جریان تعامل بین دو انسان، برخی رفتار‌ها به عنوان نشانه‌های اینکه در واقع یکی از آن‌ها ربات است، تعبیر می‌شود.

محققان پیشنهاد می‌کنند که چشم‌انداز یک طرح فراگیر باعث توسعه هوش مصنوعی با ویژگی‌های فزاینده شبیه انسان می‌شود. در حالی که این موضوع ممکن است در برخی زمینه‌ها جذاب باشد، اما می‌تواند مشکل ساز هم باشد، به ویژه زمانی که معلوم نیست با چه کسی در ارتباط هستید.

ایوارسون این سوال را مطرح می‌کند که آیا هوش مصنوعی باید صدا‌هایی شبیه به انسان داشته باشد، زیرا صدا حس صمیمیت ایجاد می‌کند و افراد براساس صدا برداشت خود را دارند.

در مورد فرد کلاهبردار بالقوه که با پیرمرد تماس گرفته بود، این کلاهبرداری بعد از مدت طولانی افشا می‌شود. لیندوال و ایوارسون این موضوع را به باورپذیری صدای انسان و این فرض که رفتار گیج‌کننده به دلیل سن فرد است، نسبت می‌دهند. هنگامی که یک هوش مصنوعی دارای صدا است، ویژگی‌هایی مانند جنسیت، سن و زمینه اقتصادی-اجتماعی را از آن استنباط می‌کنیم که تشخیص اینکه در حال تعامل با یک رایانه هستیم، دشوارتر می‌شود.

محققان پیشنهاد ابداع هوش مصنوعی با صدا‌های خوب و شیوا را می‌دهند که به وضوح ترکیبی و مصنوعی هستند و شفافیت را افزایش می‌دهند.

ارتباط با دیگران نه تنها شامل فریب، بلکه ایجاد رابطه و معناسازی مشترک است. تردید در مورد اینکه فرد با یک انسان صحبت می‌کند یا با رایانه، بر این جنبه از ارتباط تأثیر می‌گذارد. در حالی که این امر ممکن است در برخی شرایط، مانند درمان شناختی- رفتاری، مهم نباشد، بر سایر اشکال درمانی که به ارتباط انسانی بیشتری نیاز دارد، ممکن است تأثیر منفی بگذارند.

جوناس ایوارسون و اسکار لیندوال داده‌های موجود در شبکه اجتماعی یوتیوب را تجزیه و تحلیل کردند. آن‌ها سه نوع گفتگو و واکنش و نظرات مخاطبان را مورد مطالعه قرار دادند. در نوع اول، یک ربات برای نوبت مو با یک فرد تماس می‌گیرد که برای فرد ناشناخته است. در نوع دوم، شخص به همین منظور با شخص دیگری تماس می‌گیرد. در نوع سوم، بازاریابان از راه دور به یک سامانه رایانه‌ای با گفتار از پیش ضبط شده، منتقل می‌شوند.

انتهای پیام/

ارسال نظر