آیا هوش مصنوعی توهم میزند؟
به گزارش خبرگزاری علم و فناوری آنا به نقل ازیونایت.ای آی، توهم هوش مصنوعی (AI hallucination) به وضعیتی اطلاق میشود که یک چتبات اطلاعات نادرست، گمراه کننده یا کاملا ساختگی تولید کند!
تصور کنید از دستیار مجازی خود در مورد آبوهوا سوالاتی میپرسید و او شروع به دادن اطلاعات قدیمی یا کاملاً اشتباه در مورد طوفانی میکند که هرگز اتفاق نیفتاده است! در حالی که شاید چنین تجربهای خندهدار به نظر برسد، اما در حوزههای مهمی مانند مراقبتهای بهداشتی یا مشاوره حقوقی، چنین توهماتی میتواند عواقب جدی در پی داشته باشد. بنابراین درک اینکه چرا چت باتهای هوش مصنوعی توهم میزنند برای افزایش قابلیت اطمینان و ایمنی آنها ضروری است.
مبانی چت باتهای هوش مصنوعی
الگوریتمهای پیشرفته با پشتیبانی از چت باتهای هوش مصنوعی به آنها در درک و تولید زبان انسانی کمک میکنند. دو نوع اصلی چت بات هوش مصنوعی وجود دارد: مدلهای مبتنی بر قانون و مدلهای مولد.
چت باتهای مبتنی بر قانون از قوانین یا اسکریپتهای از پیش تعریف شده پیروی میکنند. آنها میتوانند کارهای سادهای مانند رزرو میز در رستوران یا پاسخ دادن به سوالات رایج خدمات مشتری را انجام دهند. طیف فعالیت این رباتها محدود است و برای ارائه پاسخهای دقیق به محرکها یا کلمات کلیدی خاصی متکی هستند. با این حال، انعطاف ناپذیری آنها، توانایی شان را برای رسیدگی به پرسشها و تحقیقات پیچیده یا غیرمنتظره محدود میکند.
{$sepehr_key_655}
از سوی دیگر، مدلهای مولد از یادگیری ماشینی و پردازش زبان طبیعی (NLP) برای تولید پاسخها استفاده میکنند. حجم وسیعی از دادهها، الگوهای یادگیری و ساختارهای زبان انسانی این مدلها را آموزش میدهند.
نمونههای معروف آن شامل مجموعه (GPT) شرکت OpenAI و BERT گوگل هستند. این مدلها که میتوانند پاسخهای منعطفتر و مرتبط تری ایجاد کنند، آنها را نسبت به چت باتهای مبتنی بر قانون، همه کارهتر و سازگارتر میسازند. با این حال، همین انعطاف پذیری، آنها را بیشتر مستعد توهم میکند چراکه به روشهای احتمالاتی برای ایجاد پاسخ متکی هستند.
توهم هوش مصنوعی چیست؟
توهم هوش مصنوعی زمانی اتفاق میافتد که چت بات، محتوایی تولید میکند که مبتنی بر واقعیت نیست. این امر میتواند خیلی ساده یک خطای واقعی باشد، مانند اشتباه گرفتن تاریخ یک رویداد تاریخی، یا چیز پیچیده تری مانند جعل یک داستان یا توصیه پزشکی باشد. در حالی که توهمات انسانی تجربیات حسی بدون محرکهای بیرونی هستند که اغلب توسط عوامل روانی یا عصبی ایجاد میشوند، توهمات هوش مصنوعی از تعبیر نادرست مدل یا تعمیم بیش از حد دادههای آموزشی آن نشأت میگیرد.
به عنوان مثال، اگر هوش مصنوعی متون زیادی در مورد دایناسورها خوانده باشد، ممکن است به اشتباه یک گونه جدید و ساختگی از دایناسورها را ایجاد کند که هرگز وجود نداشته است.
مفهوم توهم هوش مصنوعی از همان روزهای اولیه یادگیری ماشین وجود داشته است. مدلهای اولیه، که تقریبا ساده بودند، اغلب مرتکب اشتباهات مشکوک جدی میشدند، مانند این که «پاریس، پایتخت ایتالیا است». با پیشرفت فناوری هوش مصنوعی، توهمات، نامحسوس تر، اما به طور بالقوه خطرناکتر شدند.
در ابتدا، این خطاهای هوش مصنوعی به عنوان یک ناهنجاری صرف تلقی میشدند. با این حال، با افزایش نقش هوش مصنوعی در فرآیندهای تصمیم گیریهای مهم، پرداختن به این مسائل به طور فزایندهای ضرورت یافته است. ادغام هوش مصنوعی در زمینههای حساس مانند مراقبتهای بهداشتی، مشاوره حقوقی و خدمات مشتری، خطرات مرتبط با توهم را افزایش میدهد. این امر درک و کاهش این رخدادها را برای تضمین قابلیت اطمینان و ایمنی سیستمهای هوش مصنوعی ضروری میکند.
علت بروز توهم هوش مصنوعی
درک اینکه چرا چت باتهای هوش مصنوعی دچار توهم میشوند شامل بررسی چندین عامل به هم مرتبط است:
مشکلات مرتبط با کیفیت دادهها
کیفیت دادههای آموزشی، حیاتی است. مدلهای هوش مصنوعی از دادههایی که به آنها ارائه میشود، یاد میگیرند، بنابراین اگر دادههای آموزشی مغرضانه، قدیمی یا نادرست باشند، خروجیهای هوش مصنوعی این نقصها را منعکس میکنند. به عنوان مثال، اگر یک چت بات هوش مصنوعی بر اساس متون پزشکی قدیمی آموزش دیده باشد، ممکن است درمانهای منسوخ یا مضری را توصیه کند. علاوه بر این، اگر دادهها متنوع نباشند، هوش مصنوعی ممکن است نتواند چیزی بیش از آنچه که آموزش دیده، ارائه کرده و خروجیهای اشتباه عرضه کند.
معماری مدل و آموزش
فرایند معماری و آموزش یک مدل هوش مصنوعی نیز در این زمینه نقش مهمی ایفا میکند. «بیش برازش» زمانی روی میدهد که یک مدل هوش مصنوعی، دادههای آموزشی، از جمله نویز و خطاهای آن را بیش از حد خوب یاد میگیرد که باعث میشود در دادههای جدید ضعیف عمل کند.
درمقابل، «کم برازش» وقتی اتفاق میافتد که مدل نیاز دارد دادههای یادگیری را به قدر کافی یاد بگیرد که منجر به پاسخهای سادهتر میشود. بنابراین، حفظ تعادل بین این افراطها چالش برانگیز، اما برای کاهش توهم ضروری است.
ابهامات در زبان
زبان انسان به طور ذاتی پیچیده و پر از نکات ظریف است. کلمات و عبارات بسته به محتوا میتوانند معانی متعددی داشته باشند. به عنوان مثال، کلمه «شیر» در فارسی میتواند به معنای یک حیوان یا یکی از انواع لبنیات باشد. مدلهای هوش مصنوعی اغلب برای ابهام زدایی از این اصطلاحات به زمینه بیشتری نیاز دارند که منجر به سوء تفاهم و توهم میشود.
چالشهای الگوریتمی
الگوریتمهای هوش مصنوعی فعلی دارای محدودیتهایی هستند، به ویژه در مدیریت وابستگیهای بلندمدت و حفظ ثبات در پاسخ هایشان. این چالشها میتوانند باعث شوند که هوش مصنوعی حتی در یک مکالمه عبارات متناقض یا غیرقابل قبولی تولید کند. به عنوان مثال، یک هوش مصنوعی ممکن است در ابتدای مکالمه یک واقعیت را ادعا کند و بعد در ادامه مطالبی در نقض گفتههای خود ارائه دهد.
تحقیق و توسعههای اخیر
محققان به طور مداوم سعی میکنند توهمات هوش مصنوعی را کاهش دهند و مطالعات اخیر نوید بخش پیشرفتهای امیدوارکنندهای در چندین زمینه مهم بوده است. یکی از تلاشهای چشمگیر، بهبود کیفیت دادهها با تنظیم مجموعه دادههای دقیقتر، متنوعتر و به روزتر است. این امر شامل توسعه روشهایی است که دادههای مغرضانه یا نادرست را فیلتر کرده و از اینکه مجموعههای آموزشی نشان دهنده زمینهها و فرهنگهای مختلف باشند اطمینان حاصل میکند.
با پالایش دادههای آموزش دهنده مدلهای هوش مصنوعی، احتمال توهم کاهش مییابد، زیرا سیستمهای هوش مصنوعی پایه بهتری از اطلاعات دقیق به دست میآورند.
روشهای آموزشی پیشرفته نیز نقشی مهمی در رسیدگی به توهمات هوش مصنوعی دارند. روشهایی مانند اعتبارسنجی متقابل و مجموعه دادههای جامعتر به کاهش مشکلاتی مانند بیش برازش و کم برازش کمک میکنند.
{$sepehr_key_656}
علاوه بر این، محققان در حال بررسی راههایی برای گنجاندن درک محتوایی بهتر در مدلهای هوش مصنوعی هستند. مدلهای دگرگون ساز، مانند BERT، پیشرفتهای قابل توجهی در شناخت و ایجاد پاسخهای مناسب از نظر محتوایی نشان داده اند و با اجازه دادن به هوش مصنوعی برای درک مؤثرتر تفاوتها، توهمات را کاهش میدهند.
همچنین مهندسان در حال بررسی نوآوریهای الگوریتمی برای رسیدگی مستقیم به توهمات هستند. یکی از این نوآوری ها، هوش مصنوعی توضیح پذیر (XAI) است که هدف آن شفافتر کردن فرآیندهای تصمیم گیری هوش مصنوعی است. توسعه دهندگان با درک اینکه چگونه یک سیستم هوش مصنوعی به یک نتیجه خاص میرسد، میتوانند به طور موثرتری منابع توهم را شناسایی و تصحیح کنند. این شفافیت به شناسایی و کاهش عوامل توهم زا کمک کرده و سیستمهای هوش مصنوعی را قابل اعتمادتر میکند.
این تلاشهای ترکیبی در کیفیت داده ها، آموزش مدلها و پیشرفتهای الگوریتمی، نشان دهنده یک رویکرد چند وجهی برای کاهش توهمات هوش مصنوعی و افزایش عملکرد و قابلیت اطمینان کلی چت باتهای هوش مصنوعی است.
نمونههایی از توهم هوش مصنوعی در دنیای واقعی
نمونههای دنیای واقعی توهم هوش مصنوعی نشان میدهد که چگونه این خطاها میتوانند بر بخشهای مختلف تاثیر بگذارند که گاهی اوقات عواقب جدی در پی دارند.
در حوزه مراقبتهای بهداشتی، پژوهشگران دانشکده پزشکی دانشگاه فلوریدا، هوش مصنوعی ChatGPT را بر روی سوالات رایج پزشکی مرتبط با اورولوژی آزمایش کردند. نتایج نگران کننده بود. چت بات فقط در ۶۰ درصد موارد پاسخهای مناسب ارائه داد. اغلب، دستورالعملهای بالینی را اشتباه تفسیر، اطلاعات محتوایی مهم را حذف و توصیههای درمانی نامناسبی را ارائه کرد. مثلا، گاهی اوقات درمانهایی را بدون تشخیص علائم مهم توصیه کرد که میتواند به توصیههای بالقوه خطرناک منجر شود. این نشان دهنده اهمیت اطمینان از دقت و قابل اعتماد بودن سیستمهای هوش مصنوعی پزشکی است.
حوادث مهمی در خدمات مشتری رخ داده است که در آن چت باتهای هوش مصنوعی اطلاعات نادرستی ارائه داده اند. یک مورد قابل توجه مربوط به چت بات «ایرکانادا» «Air Canada» است که جزئیات نادرستی در مورد خط مشی کرایه سوگواری آنها ارائه کرد. این اطلاعات نادرست منجر به بازپرداخت بلیت یک مسافر و بروز اختلال قابل توجهی شد. دادگاه علیه ایر کانادا حکم داد و بر مسئولیت آن در قبال اطلاعات ارائه شده توسط چت بات شان تاکید کرد. این رویداد اهمیت به روز رسانی منظم و تأیید صحت پایگاههای داده چت باتها را برای جلوگیری از مشکلات مشابه برجسته میکند.
حوزه حقوقی مشکلات قابل توجهی را با توهمات هوش مصنوعی تجربه کرده است. «استیون شوارتز» «Steven Schwartz»، وکیل نیویورکی برای یک پرونده دادگاهی، از ChatGPT برای ایجاد ارجاعات قانونی برای یک گزارش کوتاه استفاده کرد که شامل شش استناد پرونده ساختگی بود. این کار عواقب شدیدی در پی داشت و بر ضرورت نظارت انسانی در توصیههای حقوقی ایجاد شده توسط هوش مصنوعی برای اطمینان از دقت و قابلیت اطمینان تاکید کرد.
مفاهیم اخلاقی و عملی
پیامدهای اخلاقی توهمات هوش مصنوعی عمیق است، زیرا اطلاعات نادرست برپایه هوش مصنوعی میتواند آسیبهای چمشگیر و نابخشودنی مانند تشخیص اشتباه پزشکی و ضررهای مالی را به همراه داشته باشد. اطمینان از شفافیت و پاسخگویی در توسعه هوش مصنوعی برای کاهش این خطرات بسیار مهم است.
اطلاعات نادرست تولیدی هوش مصنوعی میتواند عواقبی در دنیای واقعی داشته باشد، با توصیههای پزشکی نادرست، زندگی را به خطر بیندازد و با توصیههای حقوقی اشتباه منجر به ارائه نتایج ناعادلانه شود. نهادهای نظارتی مانند اتحادیه اروپا به منظور رسیدگی به این مسائل و چالش ها، پیشنهادهایی مانند قانون هوش مصنوعی را با هدف ایجاد دستورالعملهایی برای استقرار ایمن و اخلاقی هوش مصنوعی مطرح کرده اند.
شفافیت در عملیات هوش مصنوعی ضروری است و حوزه XAI بر قابل فهم کردن فرآیندهای تصمیم گیری هوش مصنوعی تمرکز دارد. این شفافیت با کمک به شناسایی و تصحیح توهمات، از موثق و قابل اعتماد بودن سیستمهای هوش مصنوعی اطمینان حاصل میکند.
{$sepehr_key_658}
سخن نهایی
چت باتهای هوش مصنوعی به ابزارهای ضروری در زمینههای مختلف تبدیل شده اند، اما تمایل آنها به ایجاد توهم چالشهای مهمی را ایجاد میکند. با درک طیفی از علت ها، از مسائل مربوط به کیفیت داده گرفته تا محدودیتهای الگوریتمی و اجرای راهبردهایی برای کاهش این خطاها، میتوانیم قابلیت اطمینان و ایمنی سیستمهای هوش مصنوعی را افزایش دهیم.
پیشرفتهای مستمر در پردازش داده ها، آموزش مدلها و هوش مصنوعی توضیح پذیر، همراه با نظارت ضروری انسانی، به اطمینان از اینکه چت باتهای هوش مصنوعی اطلاعات دقیق و قابل اعتمادی ارائه میکنند، کمک کرده و در نهایت باعث افزایش اعتماد و کاربرد بیشتر در این فناوریهای قدرتمند میشود.
گفتنی است کاربران باید در مورد راه حلهای برتر تشخیص توهم هوش مصنوعی نیز چیزهایی بیاموزند.
انتهای پیام/