صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
۱۰:۳۸ - ۰۱ مرداد ۱۴۰۳

آیا هوش مصنوعی توهم می‌زند؟

چت بات‌های هوش مصنوعی امروزه به بخش جدایی‌ناپذیری از زندگی ما تبدیل شده‌اند، با این حال «توهم هوش مصنوعی» باعث نگرانی بسیاری از کارشناسان است!
کد خبر : 923200

به گزارش خبرگزاری علم و فناوری آنا به نقل ازیونایت.ای آی،  توهم هوش مصنوعی (AI hallucination) به وضعیتی اطلاق می‌شود که یک چت‌بات اطلاعات نادرست، گمراه کننده یا کاملا ساختگی تولید کند!

تصور کنید از دستیار مجازی خود در مورد آب‌وهوا سوالاتی می‌پرسید و او شروع به دادن اطلاعات قدیمی یا کاملاً اشتباه در مورد طوفانی می‌کند که هرگز اتفاق نیفتاده است! در حالی که شاید چنین تجربه‌ای خنده‌دار به نظر برسد، اما در حوزه‌های مهمی مانند مراقبت‌های بهداشتی یا مشاوره حقوقی، چنین توهماتی می‌تواند عواقب جدی در پی داشته باشد. بنابراین درک اینکه چرا چت بات‌های هوش مصنوعی توهم می‌زنند برای افزایش قابلیت اطمینان و ایمنی آنها ضروری است.

مبانی چت بات‌های هوش مصنوعی

الگوریتم‌های پیشرفته با پشتیبانی از چت بات‌های هوش مصنوعی به آنها در درک و تولید زبان انسانی کمک می‌کنند. دو نوع اصلی چت بات هوش مصنوعی وجود دارد: مدل‌های مبتنی بر قانون و مدل‌های مولد.

چت بات‌های مبتنی بر قانون از قوانین یا اسکریپت‌های از پیش تعریف شده پیروی می‌کنند. آنها می‌توانند کار‌های ساده‌ای مانند رزرو میز در رستوران یا پاسخ دادن به سوالات رایج خدمات مشتری را انجام دهند. طیف فعالیت این ربات‌ها محدود است و برای ارائه پاسخ‌های دقیق به محرک‌ها یا کلمات کلیدی خاصی متکی هستند. با این حال، انعطاف ناپذیری آنها، توانایی شان را برای رسیدگی به پرسش‌ها و تحقیقات پیچیده یا غیرمنتظره محدود می‌کند.

{$sepehr_key_655}

از سوی دیگر، مدل‌های مولد از یادگیری ماشینی و پردازش زبان طبیعی (NLP) برای تولید پاسخ‌ها استفاده می‌کنند. حجم وسیعی از داده‌ها، الگو‌های یادگیری و ساختار‌های زبان انسانی این مدل‌ها را آموزش می‌دهند.

نمونه‌های معروف آن شامل مجموعه (GPT) شرکت OpenAI و BERT گوگل هستند. این مدل‌ها که می‌توانند پاسخ‌های منعطف‌تر و مرتبط تری ایجاد کنند، آنها را نسبت به چت بات‌های مبتنی بر قانون، همه کاره‌تر و سازگارتر می‌سازند. با این حال، همین انعطاف پذیری، آنها را بیشتر مستعد توهم می‌کند چراکه به روش‌های احتمالاتی برای ایجاد پاسخ متکی هستند.

توهم هوش مصنوعی چیست؟

توهم هوش مصنوعی زمانی اتفاق می‌افتد که چت بات، محتوایی تولید می‌کند که مبتنی بر واقعیت نیست. این امر می‌تواند خیلی ساده یک خطای واقعی باشد، مانند اشتباه گرفتن تاریخ یک رویداد تاریخی، یا چیز پیچیده تری مانند جعل یک داستان یا توصیه پزشکی باشد. در حالی که توهمات انسانی تجربیات حسی بدون محرک‌های بیرونی هستند که اغلب توسط عوامل روانی یا عصبی ایجاد می‌شوند، توهمات هوش مصنوعی از تعبیر نادرست مدل یا تعمیم بیش از حد داده‌های آموزشی آن نشأت می‌گیرد.

به عنوان مثال، اگر هوش مصنوعی متون زیادی در مورد دایناسور‌ها خوانده باشد، ممکن است به اشتباه یک گونه جدید و ساختگی از دایناسور‌ها را ایجاد کند که هرگز وجود نداشته است.

مفهوم توهم هوش مصنوعی از همان روز‌های اولیه یادگیری ماشین وجود داشته است. مدل‌های اولیه، که تقریبا ساده بودند، اغلب مرتکب اشتباهات مشکوک جدی می‌شدند، مانند این که «پاریس، پایتخت ایتالیا است». با پیشرفت فناوری هوش مصنوعی، توهمات، نامحسوس تر، اما به طور بالقوه خطرناک‌تر شدند.

در ابتدا، این خطا‌های هوش مصنوعی به عنوان یک ناهنجاری صرف تلقی می‌شدند. با این حال، با افزایش نقش هوش مصنوعی در فرآیند‌های تصمیم گیری‌های مهم، پرداختن به این مسائل به طور فزاینده‌ای ضرورت یافته است. ادغام هوش مصنوعی در زمینه‌های حساس مانند مراقبت‌های بهداشتی، مشاوره حقوقی و خدمات مشتری، خطرات مرتبط با توهم را افزایش می‌دهد. این امر درک و کاهش این رخداد‌ها را برای تضمین قابلیت اطمینان و ایمنی سیستم‌های هوش مصنوعی ضروری می‌کند.

علت بروز توهم هوش مصنوعی

درک اینکه چرا چت بات‌های هوش مصنوعی دچار توهم می‌شوند شامل بررسی چندین عامل به هم مرتبط است:

مشکلات مرتبط با کیفیت داده‌ها

کیفیت داده‌های آموزشی، حیاتی است. مدل‌های هوش مصنوعی از داده‌هایی که به آنها ارائه می‌شود، یاد می‌گیرند، بنابراین اگر داده‌های آموزشی مغرضانه، قدیمی یا نادرست باشند، خروجی‌های هوش مصنوعی این نقص‌ها را منعکس می‌کنند. به عنوان مثال، اگر یک چت بات هوش مصنوعی بر اساس متون پزشکی قدیمی آموزش دیده باشد، ممکن است درمان‌های منسوخ یا مضری را توصیه کند. علاوه بر این، اگر داده‌ها متنوع نباشند، هوش مصنوعی ممکن است نتواند چیزی بیش از آنچه که آموزش دیده، ارائه کرده و خروجی‌های اشتباه عرضه کند.

معماری مدل و آموزش

فرایند معماری و آموزش یک مدل هوش مصنوعی نیز در این زمینه نقش مهمی ایفا می‌کند. «بیش برازش» زمانی روی می‌دهد که یک مدل هوش مصنوعی، داده‌های آموزشی، از جمله نویز و خطا‌های آن را بیش از حد خوب یاد می‌گیرد که باعث می‌شود در داده‌های جدید ضعیف عمل کند. 

درمقابل، «کم برازش» وقتی اتفاق می‌افتد که مدل نیاز دارد داده‌های یادگیری را به قدر کافی یاد بگیرد که منجر به پاسخ‌های ساده‌تر می‌شود. بنابراین، حفظ تعادل بین این افراط‌ها چالش برانگیز، اما برای کاهش توهم ضروری است.

ابهامات در زبان

زبان انسان به طور ذاتی پیچیده و پر از نکات ظریف است. کلمات و عبارات بسته به محتوا می‌توانند معانی متعددی داشته باشند. به عنوان مثال، کلمه «شیر» در فارسی می‌تواند به معنای یک حیوان یا یکی از انواع لبنیات باشد. مدل‌های هوش مصنوعی اغلب برای ابهام زدایی از این اصطلاحات به زمینه بیشتری نیاز دارند که منجر به سوء تفاهم و توهم می‌شود.

چالش‌های الگوریتمی

الگوریتم‌های هوش مصنوعی فعلی دارای محدودیت‌هایی هستند، به ویژه در مدیریت وابستگی‌های بلندمدت و حفظ ثبات در پاسخ هایشان. این چالش‌ها می‌توانند باعث شوند که هوش مصنوعی حتی در یک مکالمه عبارات متناقض یا غیرقابل قبولی تولید کند. به عنوان مثال، یک هوش مصنوعی ممکن است در ابتدای مکالمه یک واقعیت را ادعا کند و بعد در ادامه مطالبی در نقض گفته‌های خود ارائه دهد.

تحقیق و توسعه‌های اخیر

محققان به طور مداوم سعی می‌کنند توهمات هوش مصنوعی را کاهش دهند و مطالعات اخیر نوید بخش پیشرفت‌های امیدوارکننده‌ای در چندین زمینه مهم بوده است. یکی از تلاش‌های چشمگیر، بهبود کیفیت داده‌ها با تنظیم مجموعه داده‌های دقیق‌تر، متنوع‌تر و به روزتر است. این امر شامل توسعه روش‌هایی است که داده‌های مغرضانه یا نادرست را فیلتر کرده و از اینکه مجموعه‌های آموزشی نشان دهنده زمینه‌ها و فرهنگ‌های مختلف باشند اطمینان حاصل می‌کند.

با پالایش داده‌های آموزش دهنده مدل‌های هوش مصنوعی، احتمال توهم کاهش می‌یابد، زیرا سیستم‌های هوش مصنوعی پایه بهتری از اطلاعات دقیق به دست می‌آورند.

روش‌های آموزشی پیشرفته نیز نقشی مهمی در رسیدگی به توهمات هوش مصنوعی دارند. روش‌هایی مانند اعتبارسنجی متقابل و مجموعه داده‌های جامع‌تر به کاهش مشکلاتی مانند بیش برازش و کم برازش کمک می‌کنند.

{$sepehr_key_656}

علاوه بر این، محققان در حال بررسی راه‌هایی برای گنجاندن درک محتوایی بهتر در مدل‌های هوش مصنوعی هستند. مدل‌های دگرگون ساز، مانند BERT، پیشرفت‌های قابل توجهی در شناخت و ایجاد پاسخ‌های مناسب از نظر محتوایی نشان داده اند و با اجازه دادن به هوش مصنوعی برای درک مؤثرتر تفاوت‌ها، توهمات را کاهش می‌دهند.

همچنین مهندسان در حال بررسی نوآوری‌های الگوریتمی برای رسیدگی مستقیم به توهمات هستند. یکی از این نوآوری ها، هوش مصنوعی توضیح پذیر (XAI) است که هدف آن شفاف‌تر کردن فرآیند‌های تصمیم گیری هوش مصنوعی است. توسعه دهندگان با درک اینکه چگونه یک سیستم هوش مصنوعی به یک نتیجه خاص می‌رسد، می‌توانند به طور موثرتری منابع توهم را شناسایی و تصحیح کنند. این شفافیت به شناسایی و کاهش عوامل توهم زا کمک کرده و سیستم‌های هوش مصنوعی را قابل اعتمادتر می‌کند.

این تلاش‌های ترکیبی در کیفیت داده ها، آموزش مدل‌ها و پیشرفت‌های الگوریتمی، نشان دهنده یک رویکرد چند وجهی برای کاهش توهمات هوش مصنوعی و افزایش عملکرد و قابلیت اطمینان کلی چت بات‌های هوش مصنوعی است.

نمونه‌هایی از توهم هوش مصنوعی در دنیای واقعی

نمونه‌های دنیای واقعی توهم هوش مصنوعی نشان می‌دهد که چگونه این خطا‌ها می‌توانند بر بخش‌های مختلف تاثیر بگذارند که گاهی اوقات عواقب جدی در پی دارند.

در حوزه مراقبت‌های بهداشتی، پژوهشگران دانشکده پزشکی دانشگاه فلوریدا، هوش مصنوعی ChatGPT را بر روی سوالات رایج پزشکی مرتبط با اورولوژی آزمایش کردند. نتایج نگران کننده بود. چت بات فقط در ۶۰ درصد موارد پاسخ‌های مناسب ارائه داد. اغلب، دستورالعمل‌های بالینی را اشتباه تفسیر، اطلاعات محتوایی مهم را حذف و توصیه‌های درمانی نامناسبی را ارائه کرد. مثلا، گاهی اوقات درمان‌هایی را بدون تشخیص علائم مهم توصیه کرد که می‌تواند به توصیه‌های بالقوه خطرناک منجر شود. این نشان دهنده اهمیت اطمینان از دقت و قابل اعتماد بودن سیستم‌های هوش مصنوعی پزشکی است.

حوادث مهمی در خدمات مشتری رخ داده است که در آن چت بات‌های هوش مصنوعی اطلاعات نادرستی ارائه داده اند. یک مورد قابل توجه مربوط به چت بات «ایرکانادا» «Air Canada» است که جزئیات نادرستی در مورد خط مشی کرایه سوگواری آنها ارائه کرد. این اطلاعات نادرست منجر به بازپرداخت بلیت یک مسافر و بروز اختلال قابل توجهی شد. دادگاه علیه ایر کانادا حکم داد و بر مسئولیت آن در قبال اطلاعات ارائه شده توسط چت بات شان تاکید کرد. این رویداد اهمیت به روز رسانی منظم و تأیید صحت پایگاه‌های داده چت بات‌ها را برای جلوگیری از مشکلات مشابه برجسته می‌کند.

حوزه حقوقی مشکلات قابل توجهی را با توهمات هوش مصنوعی تجربه کرده است. «استیون شوارتز» «Steven Schwartz»، وکیل نیویورکی برای یک پرونده دادگاهی، از ChatGPT برای ایجاد ارجاعات قانونی برای یک گزارش کوتاه استفاده کرد که شامل شش استناد پرونده ساختگی بود. این کار عواقب شدیدی در پی داشت و بر ضرورت نظارت انسانی در توصیه‌های حقوقی ایجاد شده توسط هوش مصنوعی برای اطمینان از دقت و قابلیت اطمینان تاکید کرد.

مفاهیم اخلاقی و عملی

پیامد‌های اخلاقی توهمات هوش مصنوعی عمیق است، زیرا اطلاعات نادرست برپایه هوش مصنوعی می‌تواند آسیب‌های چمشگیر و نابخشودنی مانند تشخیص اشتباه پزشکی و ضرر‌های مالی را به همراه داشته باشد. اطمینان از شفافیت و پاسخگویی در توسعه هوش مصنوعی برای کاهش این خطرات بسیار مهم است.

اطلاعات نادرست تولیدی هوش مصنوعی می‌تواند عواقبی در دنیای واقعی داشته باشد، با توصیه‌های پزشکی نادرست، زندگی را به خطر بیندازد و با توصیه‌های حقوقی اشتباه منجر به ارائه نتایج ناعادلانه شود. نهاد‌های نظارتی مانند اتحادیه اروپا به منظور رسیدگی به این مسائل و چالش ها، پیشنهاد‌هایی مانند قانون هوش مصنوعی را با هدف ایجاد دستورالعمل‌هایی برای استقرار ایمن و اخلاقی هوش مصنوعی مطرح کرده اند.

شفافیت در عملیات هوش مصنوعی ضروری است و حوزه XAI بر قابل فهم کردن فرآیند‌های تصمیم گیری هوش مصنوعی تمرکز دارد. این شفافیت با کمک به شناسایی و تصحیح توهمات، از موثق و قابل اعتماد بودن سیستم‌های هوش مصنوعی اطمینان حاصل می‌کند.

{$sepehr_key_658}

سخن نهایی 

چت بات‌های هوش مصنوعی به ابزار‌های ضروری در زمینه‌های مختلف تبدیل شده اند، اما تمایل آنها به ایجاد توهم چالش‌های مهمی را ایجاد می‌کند. با درک طیفی از علت ها، از مسائل مربوط به کیفیت داده گرفته تا محدودیت‌های الگوریتمی و اجرای راهبرد‌هایی برای کاهش این خطاها، می‌توانیم قابلیت اطمینان و ایمنی سیستم‌های هوش مصنوعی را افزایش دهیم.

پیشرفت‌های مستمر در پردازش داده ها، آموزش مدل‌ها و هوش مصنوعی توضیح پذیر، همراه با نظارت ضروری انسانی، به اطمینان از اینکه چت بات‌های هوش مصنوعی اطلاعات دقیق و قابل اعتمادی ارائه می‌کنند، کمک کرده و در نهایت باعث افزایش اعتماد و کاربرد بیشتر در این فناوری‌های قدرتمند می‌شود.

گفتنی است کاربران باید در مورد راه حل‌های برتر تشخیص توهم هوش مصنوعی نیز چیز‌هایی بیاموزند.

انتهای پیام/

ارسال نظر