نگرش منفی به هوش مصنوعی، منطقی است یا فقط یک تعصب پنهان است؟
طبق گزارش سایت «psypost» یک مطالعه جدید نشان میدهد مردم زمانی که بدانند یک پیام توسط هوش مصنوعی نوشته شده، فرستنده را منفیتر ارزیابی میکنند. بااینحال، در شرایط معمول زندگی روزمره، افراد تقریباً هیچ شکی به استفاده از هوش مصنوعی ندارند و پیامها را انسانی فرض میکنند.
هوش مصنوعی مولد ابزاری است که میتواند متنهایی شبیه نوشتههای انسانی تولید کند و مردم به طور فزایندهای از آن برای ایمیل، پیامک و پستهای شبکههای اجتماعی استفاده میکنند. پژوهشگران «ژو» و «مولنار» بررسی کردند این موضوع چگونه بر برداشت ما از یکدیگر تأثیر میگذارد.
تحقیقات گذشته نشان داده بودند که افشای استفاده از هوش مصنوعی باعث کاهش ارزش اجتماعی نویسنده میشود، اما در دنیای واقعی افراد معمولاً استفاده خود از هوشمصنوعی را اعلام نمیکنند. پژوهشگران میخواستند بدانند در شرایط واقعی و بدون افشاگری، مردم پیامها را چگونه برداشت میکنند.
در آزمایش اول با ۶۴۷ شرکتکننده، افراد پیامهای مختلفی را خواندند و درباره فرستنده قضاوت کردند. وقتی به آنها گفته میشد متن با هوش مصنوعی نوشته شده، برداشتشان بسیار منفیتر بود. اما بدون ارائه اطلاعات درباره منبع پیام، مردم پیام را شبیه پیام انسانی ارزیابی میکردند و هیچ شک طبیعیای نشان نمیدادند.
در تعاملات روزمره، مردم واقعاً از دریافت پیامهای تولیدشده توسط هوش مصنوعی خوششان نمیآید. برای مثال، ما نمیخواهیم عذرخواهیای را دریافت کنیم که توسط هوش مصنوعی نوشته شده، حتی اگر متنی بسیار عالی باشد، زیرا چنین پیامهایی مصنوعی و پوچ به نظر میرسند؛ و سپردن ارتباطات عمیقاً شخصی به هوش مصنوعی حتی ممکن است نوعی بیحرمتی تلقی شود
پژوهشگران دریافتند که مردم از دریافت پیامهای عمیقاً شخصی که با هوش مصنوعی نوشته شده باشند خوششان نمیآید و آن را غیرحقیقی و توخالی میبینند. بااینحال، این احساس تنها زمانی اعمال میشود که افراد بدانند یا حدس قوی بزنند که از AI استفاده شده است؛ در غیر این صورت هیچ سوءظنی شکل نمیگیرد.
یکی از پزوهشگران این مقاله میگوید:«در تعاملات روزمره، مردم واقعاً از دریافت پیامهای تولیدشده توسط هوش مصنوعی خوششان نمیآید. برای مثال، ما نمیخواهیم عذرخواهیای را دریافت کنیم که توسط هوش مصنوعی نوشته شده، حتی اگر متنی بسیار عالی باشد، زیرا چنین پیامهایی مصنوعی و پوچ به نظر میرسند؛ و سپردن ارتباطات عمیقاً شخصی به هوش مصنوعی حتی ممکن است نوعی بیحرمتی تلقی شود.»
آزمایش دوم هفت ماه بعد انجام شد تا بررسی کنند آیا با افزایش آگاهی عمومی، شک مردم بیشتر شده است یا خیر. وقتی گفته میشد متن توسط هوش مصنوعی تولید شده، افراد تلاش ذهنی و دقت احساسی نویسنده را کمتر تخمین میزدند؛ اما بدون اطلاع از منبع، پیام همچنان انسانی فرض میشد.
نکته غافلگیرکننده این بود که حتی کاربران پرمصرف و حرفهای هوش مصنوعی نیز نسبت به پیامهای دیگران شک بیشتری نداشتند. این یافته نشان میدهد استفادهکنندگان زیاد هوشمصنوعی میتوانند بدون احتمال بالای شناسایی، پیامهای تمیزتر و غیرقابلشناساییتری ارسال کنند و این موضوع ممکن است باعث نابرابری شود.
پژوهشگران تأکید کردند که شرکتکنندگان درواقع نویسنده را قضاوت میکردند نه کیفیت متن را. آنان همچنین اشاره کردند مطالعه محدودیتهایی دارد، چون بر سناریوهای فرضی، پیامهای یکطرفه و شرکتکنندگان آمریکایی تمرکز داشته است. تحقیقات آینده آزمون شرایط واقعیتر، موقعیتهای پرریسک و تفاوتهای فرهنگی را بررسی خواهد کرد.
انتهای پیام/