دیده بان پیشرفت علم، فناوری و نوآوری
تقلید هوش مصنوعی از ذهن انسان؛

«چت جی‌پی‌تی» در حل مسائل استدلالی بهتر از دانشجویان عمل می‌کند

«چت جی‌پی‌تی» در حل مسائل استدلالی بهتر از دانشجویان عمل می‌کند
محققان دانشگاه کالیفرنیا (UCLA) نشان داده‌اند که مدل هوش مصنوعی «چت جی‌پی‌تی-۳» می‌تواند مسائل استدلال قیاسی را بهتر از دانشجویان مقطح کارشناسی حل کند.
کد خبر : 861044

به گزارش خبرنگار خبرگزاری علم و فناوری آنا، افراد می‌توانند مشکلات جدید را به‌آسانی و بدون هیچ آموزش یا تمرین خاصی حل کنند. مدت‌ها تصور می‌شد، این فرآیند که به‌عنوان استدلال قیاسی شناخته می‌شود، یک توانایی منحصربه‌فرد انسانی است. اما حالا ممکن است مردم مجبور شوند برای یک بچه جدید جا باز کنند.

تحقیقات روانشناسان دانشگاه کالیفرنیا نشان می‌دهد که به طرز شگفت‌انگیزی، مدل زبان هوش مصنوعی «چت جی‌پی‌تی-۳» (GPT - ۳) زمانی که از آن‌ها خواسته می‌شود نوعی از مشکلات استدلالی را که معمولاً در آزمون‌های هوش و آزمون‌های استاندارد مانند SAT ظاهر می‌شوند، حل کنند، همانند دانشجویان کارشناسی دانشگاه عمل می‌کند. این مطالعه در مجله «نیچر» منتشرشده است.

بررسی فرایند‌های شناختی هوش مصنوعی

اما نویسندگان این مقاله می‌نویسند که این مطالعه این سؤال را مطرح می‌کند: آیا «چت جی‌پی‌تی-۳» از استدلال انسانی به‌عنوان محصول جانبی مجموعه داده‌های عظیم آموزش زبان تقلید می‌کند یا از نوع جدیدی از فرآیند شناختی استفاده می‌کند؟

بدون دسترسی به کار‌های داخلی «چت جی‌پی‌تی-۳» - که توسط «اوپن ای‌آی» محافظت می‌شود، دانشمندان نمی‌توانند با اطمینان بگویند که توانایی‌های استدلالی آن چگونه کار می‌کند. آن‌ها همچنین می‌نویسند که اگرچه «چت جی‌پی‌تی-۳» در برخی از وظایف استدلالی بسیار بهتر ازآنچه انتظار داشتند عمل می‌کند، اما ابزار محبوب هوش مصنوعی هنوز هم در برخی از موارد دیگر به طرز چشمگیری شکست می‌خورد.


محدودیت‌های اصلی هوش مصنوعی در وظایف استدلالی

تیلور وب، پژوهشگر پسادکتری روانشناسی دانشگاه کالیفرنیا و نویسنده اول این مطالعه گفت: مهم نیست که نتایج ما چقدر تأثیرگذار باشد، مهم است تأکید کنیم که این سیستم محدودیت‌های عمده‌ای دارد. این سیستم می‌تواند استدلال قیاسی انجام دهد، اما نمی‌تواند کار‌هایی را انجام دهد که برای مردم بسیار آسان است، مانند استفاده از ابزار برای حل یک کار فیزیکی. زمانی که ما چنین مشکلاتی را به هوش مصنوعی سپردیم (بعضی از آن‌ها را بچه‌ها می‌توانند سریع حل کنند) چیز‌هایی که پیشنهاد کرد بی‌معنی بود.

وب و همکارانش توانایی «چت جی‌پی‌تی-۳» در حل مجموعه‌ای از مشکلات را با الهام از آزمایشی به نام ماتریس‌های پیشرو «راون» آزمایش کردند که از سوژه می‌خواهد تصویر بعدی را با آرایش پیچیده‌ای از اشکال پیش‌بینی کند. وب برای فعال کردن «چت جی‌پی‌تی-۳» برای "دیدن" اشکال، تصاویر را به فرمت متنی تبدیل کرد که «چت جی‌پی‌تی-۳» می‌توانست آن‌ها را پردازش کند؛ این رویکرد همچنین تضمین می‌کرد که هوش مصنوعی هرگز قبلاً با این سؤالات روبرو نشده بود.

محققان از ۴۰ دانشجوی کارشناسی خواستند تا همین مشکلات را حل کنند.


نتایج شگفت‌انگیز و مفاهیم آینده

هونگ جینگ لو، استاد روانشناسی و نویسنده ارشد این مطالعه گفت: جالب اینجاست که «چت جی‌پی‌تی-۳» نه‌تنها همانند انسان‌ها عمل می‌کرد، بلکه اشتباهات مشابهی را نیز مرتکب می‌شد.

«چت جی‌پی‌تی-۳» ۸۰ درصد از مشکلات را به‌درستی حل کرد بسیار بالاتر از میانگین نمره افراد انسانی که کمی کمتر از ۶۰ درصد بود

محققان همچنین «چت جی‌پی‌تی-۳» را وادار به حل مجموعه‌ای از سؤالات اس‌ای‌تی (یکی از دو امتحان استاندارد برای ورود به دانشگاه در آمریکا) کردند که به اعتقاد آن‌ها هرگز در اینترنت منتشرنشده بود به این معنی که این سؤالات احتمالاً از داده‌های آموزشی «چت جی‌پی‌تی-۳» نبوده است. سؤال‌ها از کاربران می‌خواهند جفت کلماتی را انتخاب کنند که نوع یکسانی از روابط را به اشتراک می‌گذارند.

آن‌ها نمرات «چت جی‌پی‌تی-۳» را با نتایج منتشرشده از نمرات SAT متقاضیان دانشگاهی مقایسه کردند و دریافتند که هوش مصنوعی بهتر از میانگین نمره برای انسان‌ها عمل می‌کند.


محدودیت‌های هوش مصنوعی: از «چت جی‌پی‌تی-۳» تا «چت جی‌پی‌تی-۴»

سپس محققان از «چت جی‌پی‌تی-۳» و داوطلبان دانشجویی خواستند تا قیاس‌ها را بر اساس داستان‌های کوتاه حل کنند که باعث شد آن‌ها یک متن را بخوانند و سپس داستان متفاوتی را شناسایی کنند که همان معنی را منتقل می‌کرد. این فناوری عملکرد ضعیف‌تری نسبت به دانشجویان  داشت، هرچند «چت جی‌پی‌تی-۴»، آخرین نسخه  فناوری اوپن ای‌آی، بهتر از «چت جی‌پی‌تی-۳» عمل کرد.

محققان دانشگاه کالیفرنیا مدل کامپیوتری خود را توسعه داده‌اند که از شناخت انسان الهام گرفته و توانایی‌های آن را با هوش مصنوعی تجاری مقایسه کرده‌اند.

کیت هولیوک، استاد روانشناسی این دانشگاه گفت: هوش مصنوعی در حال بهتر شدن بود، اما مدل هوش مصنوعی روان‌شناختی ما هنوز در انجام مشکلات قیاسی بهترین بود.

محققان گفتند «چت جی‌پی‌تی-۳» تاکنون قادر به حل مشکلاتی که نیاز به درک فضای فیزیکی دارند، نبوده است. برای مثال، اگر توضیحاتی در مورد مجموعه‌ای از ابزار‌ها ارائه شود.مثلاً یک لوله مقوایی، قیچی و نوار - که می‌توان از آن برای انتقال گلوله‌های آدامس از یک کاسه به کاسه دیگر استفاده کرد، «چت جی‌پی‌تی-۳» راه‌حل‌های عجیبی را پیشنهاد کرد.

لو گفت: مدل‌های یادگیری زبان فقط سعی می‌کنند کلمات را پیش‌بینی کنند، بنابراین ما از آن‌ها تعجب می‌کنیم که می‌توانند استدلال کنند. طی دو سال گذشته، این فناوری جهش بزرگی نسبت به تجسم‌های قبلی خود داشته است.

دانشمندان امیدوارند کشف کنند که آیا مدل‌های یادگیری زبان واقعاً مانند انسان‌ها شروع به «فکر کردن» می‌کنند یا کاری کاملاً متفاوت انجام می‌دهند که صرفاً تفکر انسان را تقلید می‌کند.


هوش مصنوعی مثل انسان‌ها فکر می‌کند؟

هولیوک گفت: «چت جی‌پی‌تی-۳»  ممکن است به‌نوعی مانند یک انسان فکر کند. اما از سوی دیگر، مردم با مصرف کل اینترنت همه آن‌ها را یاد نمی‌گیرند، بنابراین روش آموزش کاملاً متفاوت است. ما دوست داریم بدانیم که آیا واقعاً هوش مصنوعی این کار را به روشی که مردم انجام می‌دهند انجام می‌دهد یا اینکه چیزی کاملاً جدید است که در نوع خود شگفت‌انگیز خواهد بود.

برای پی‌بردن به این موضوع، آن‌ها باید فرآیند‌های شناختی زیربنایی را که مدل‌های هوش مصنوعی از آن‌ها استفاده می‌کنند بررسی کنند، که نیازمند دسترسی به نرم‌افزار و داده‌های مورداستفاده برای آموزش نرم‌افزار است و سپس آزمایش‌هایی را انجام دهند که مطمئن باشند نرم‌افزار قبلاً آموزش داده نشده است. آن‌ها گفتند که این گام بعدی در تصمیم‌گیری در مورد اینکه هوش مصنوعی باید به چه چیزی تبدیل شود، خواهد بود.

وب گفت: برای محققان هوش مصنوعی و شناختی بسیار مفید است که مدل‌های چت جی‌پی‌تی را داشته باشند. ما فقط ورودی‌ها و خروجی‌ها را بررسی می‌کنیم که آن‌قدر‌ها تعیین‌کننده نیست.

 

انتهای پیام/

ارسال نظر
هلدینگ شایسته