هوش مصنوعی لحن زبانی را یاد میگیرد/ الگوهای احساسی چقدر قابل اعتماداند؟
خبرگزاری علم و فناوری آنا؛ هوش مصنوعی، ادعا دارد که میتواند احساسات ما را بفهمد. این ویژگی ضمن آنکه تجربه کاربر را بهبود میبخشد با نگرانیهایی مبنی بر سوءاستفاده و جانبداری همراه است. این یعنی حوزه فعالیت هوش مصنوعی با مخاطرات بالقوه احاطه شده است.
استارتآپ هوش مصنوعی هیوم (Hume) مدعی توسعه نخستین دستیار صوتی هوش مصنوعی در جهان است که ادعا میکند احساسات را در صدای ما تشخیص میدهد و همدلانه پاسخ میدهد. آلن کاون (Alan Cowen) دانشمند و مدیرعامل شرکت «هیوم» میگوید: ما مدل بزرگی را آموزش دادیم که حتی لحن زبان شما را هم میفهمد. این مدل میتواند عبارتهای زبانی یا جملهها را پیشبینی کند و نیز الگوهای احساسی را به خاطر بیاورد.»
شرکت اُپنای آی در ماه مه گذشته نسخه جدید هوش مصنوعی خود به نام «جی پی تی-۴ احساس برانگیز» یا به اصطلاح «هوش مصنوعی احساسی» را عرضه کرد که در نوع خود، کسبوکاری بزرگ است. از طرفی، هوش مصنوعی «هیوم» نیز در دومین تأمین مالی خود در ماه مارس ۵۰ میلیون دلار بودجه اضافه کرد و پیشبینی میشود که ارزش این صنعت در سال جاری به بیش از ۵۰ میلیارد دلار برسد
ارزش و ابعاد احساسات قابل محاسبه نیست
پروفسور اندرو مک استِی (Andrew McStay)، مدیر آزمایشگاه هوش مصنوعی احساسی در دانشگاه بنگور واقع در جنوب بریتانیا، باور دارد که چنین پیشبینیهایی بیمعنی است. او میگوید: «احساس، چنان بُعد اساسی و مهمی در زندگی انسان دارد که اگر بتوانیم احساسات را به روشهای طبیعی درک و اندازهگیری و به آن واکنش نشان دهیم، ارزش پیامدهای آن بیش از ۵۰ میلیارد دلار خواهد بود».
فناوری هوش مصنوعی این پتانسیل را دارد که به طرق مختلف مورد استفاده قرار گیرد، از بهبود تجربیات بازیهای ویدیویی و تماسهای خدمات مشتریان گرفته تا احتمال استفاده برای نظارت گسترده و تاثیرگذاری بر احساسات مردم. سوال بزرگ این است که آیا هوش مصنوعی واقعاً میتواند احساسات ما را درک کند یا خیر؟ و اگر نوعی از این فناوری بدون توجه در راه است، چگونه باید با آن مواجه شویم. اگر به «رابط صوتی همدلانه هیوم» (EVI) بگویید: «دوستت دارم» با صدایی دوستانه و تقریباً انسانی پاسخ میدهد: «از کلمات محبتآمیز شما قدردانی میکنم، من اینجا هستم تا از شما حمایت کنم.»
آلن کاون توضیح میدهد: «برای مدل هیوم سخت است که لحنهایی را که قبلاً با آنها روبهرو نشده درک کند. برای مثال، آیا یک هوش مصنوعی همدل میتواند تشخیص دهد که مردم گاهی احساسات خود را پنهان میکنند؟»
رابرت دنیرو، هنرپیشه نامدار هالیوود و استاد بهتصویر کشیدن احساسات انسانی، میگوید: «مردم تلاش نمیکنند احساسات خود را نشان دهند، بلکه سعی میکنند آنها را پنهان کنند.»
محدودیتهای مدل «هیوم»
کاون میگوید هدف مدل هیوم فقط درک عبارات روشن و صریح است و انصافاً «رابط صوتی همدلانه هیوم» بهطور قابلتوجهی پاسخگو و طبیعی است. در اوایل سال جاری میلادی، چند دانشمند آمریکایی در آزمایشگاه فناوری گفتار دانشگاه گرونینگن در هلند به هوش مصنوعی آموزش دادند که چگونه طعنه را تشخیص دهد.
کولر استدلال میکند: «وقتی به نحوه نفوذ ماشینها در زندگی انسانها نگاه میکنیم باید حتماً مطمئن شویم که این ماشینها واقعاً میتوانند به روشی مفید به مردم کمک کنند.»
چالش تعریف احساسات و چگونگی درک آنها
یکی از مسائل مهم این است که هیچ تعریف روشنی از چیستی احساسات وجود ندارد و متخصصان در مورد نحوه ابراز آنها اختلاف نظر دارند. برخی از مطالعات نشان میدهد که درک دقیق احساسات فقط بر اساس حالات چهره، حتی برای هوش مصنوعی، دشوار است.
نگرانی دیگر، سوگیری هوش مصنوعی است. اگر دادههای آموزشی برای هوش مصنوعی احساسی مغرضانه باشد، هوش مصنوعی میتواند بهطور غیرمنصفانه احساسات منفی را به گروههای خاصی از مردم نسبت دهد، که میتواند عواقب جدی در زمینههایی مانند استخدام، مراقبتهای بهداشتی و اجرای قانون داشته باشد.
لزوم وضع قوانین جدید و متمرکز بر هوش مصنوعی
همچنین این نگرانی وجود دارد که هوش مصنوعی احساسی بتواند افراد را برای منافع تجاری یا سیاسی از نظر فکری یا روانی دستکاری کند. برای رفع این نگرانیها، برخی از سازمانها دستورالعملهای اخلاقی برای استفاده از هوش مصنوعی احساسی و مقرراتی را برای جلوگیری از سوء استفاده وضع کردهاند.
به عنوان مثال، اتحادیه اروپا قانونی را تصویب کرده است که استفاده از هوش مصنوعی احساسی را در شرایط خاص محدود میکند و نیز استفاده از هوش مصنوعی را برای دستکاری رفتار انسان ممنوع کرده است. بریتانیا همچنین اقداماتی را برای تنظیم هوش مصنوعی احساسی انجام میدهد تا از مردم در برابر آسیبهای احتمالی محافظت کند.
هوش مصنوعی احساسی برای بهبود تعاملات انسان و ماشین پتانسیل بالایی دارد، اما با چالشهای اخلاقی و عملی قابل توجهی روبهرو است و در این میان، دولتها و ناظران قانونی باید در راستای توسعه مسئولانه آن تلاش کنند.
این گزارش از مجله گاردین به فارسی ترجمه شده است.
انتهای پیام/