آخرین اخبار:
پیشنهاد سردبیر
پاتولوژی ترس در کاخ سفید / قمار مرگبار ترامپ بر سر پرستیژ

گزارش آنا از واکنش‌های عصبی واشنگتن به فرسایش بازدارندگی

پشت‌پرده آزادسازی قیمت نان در اتاق‌های فکر خاص

آیا بلاگر‌های اقتصادی دولت را به سوی خودکشی معیشتی هل می‌دهند؟

سرعت رشد AI باعث شده پژوهش‌های هوش‌مصنوعی قبل از انتشار منسوخ شوند

سرعت پیشرفت هوش‌‍مصنوعی پژوهش‌های این حوزه را زیر سوال برده است و بسیاری از این پژوهش‌ها قبل از انتشار منسوخ می‌شوند. این چالش تازه‌ای است که محققان هوش‌مصنوعی با آن روبه‌رو هستند.
نویسنده : زهرا چشم براه

طبق گزارش خبرگزاری «آکسیوس» هوش‌مصنوعی سریع‌تر از سیستم‌هایی  که برای ارزیابی آن طراحی شده‌اند، در حال تکامل است؛ به این معنا که بسیاری از پژوهش‌های علمی تا زمان انتشار عملاً اعتبار خود را از دست داده‌اند.اگر قرار است هوش‌مصنوعی جهان را تغییر دهد، کسانی که در این حوزه تحقیق می‌کنند باید بتوانند خود را با این سرعت هماهنگ کنند؛ در غیر این صورت ممکن است ناخواسته اطلاعات نادرست ارائه دهند.

پژوهش‌های جدیدی که خیلی زود منسوخ شده‌اند

یک مطالعه جدید از دانشگاه آکسفورد نشان داده است که هوش‌مصنوعی اغلب توصیه‌های پزشکی اشتباه ارائه می‌دهد. بخش عمده‌ای از آن به نحوه طرح پرسش کاربران مربوط می‌شود، اما «کوین روز»، روزنامه‌نگار فناوری نیویورک تایمز اشاره کرده است که این مطالعه تنها بر ۳ مدل خاص متکی بوده است: جی پی تی از اوپن ای آی، Llama 3 از متا و +Command R از Cohere. از آن زمان، اوپن ای آی چت‌جی‌پی‌تی را به GPT-5.2 ارتقا داده است. همچنین Llama 4 در سال ۲۰۲۴ منتشر شده است. به این معنا که پس از انتشار این پژوهش، مدل‌های زبانی استفاده شده در آن دیگر قدیمی شده بودند.

 پژوهشی به سرپرستی یکی از پژوهشگران دانشگاه براون نشان داده است که استفاده از هوش‌مصنوعی برای روان‌درمانی ممکن است استاندارد‌های اخلاقی را نقض کند. با این حال، این مطالعه با استفاده از مدل‌هایی مانند GPT-3 ،Llama 3.1 و Claude 3 Haiku انجام شده بود که برخی از آنها اکنون از نسل‌های قبلی این مدل‌ها محسوب می‌شوند.

فینلیسون: همیشه این امکان وجود دارد که شما مقاله‌ای منتشر کنید، به نتیجه‌ای برسید و سپس هفته بعد کسی سیستمی معرفی کند که نتیجه شما را پشت سر بگذارد یا بی‌اعتبار کند

پیشرفت هوش‌مصنوعی پژوهش‌ها را بی‌اعتبار می‌کند

«مارک فینلیسون»، دانشیار علوم کامپیوتر در دانشگاه بین‌المللی فلوریدا، به آکسیوس می‌گوید: «همیشه این امکان وجود دارد که شما مقاله‌ای منتشر کنید و به نتیجه برسید، اما هفته بعد سیستمی معرفی شود که نتیجه شما را پشت سر بگذارد یا بی‌اعتبار کند.»

او همچنین اضافه کرد پژوهش‌های جدید در حوزه هوش‌مصنوعی می‌تواند «عمر بسیار کوتاهی» داشته باشند.

شرکت‌های هوش‌مصنوعی در رابطه با فناوری خود پژوهش نمی‌کنند

این وضعیت نوعی عدم توازن قدرت ایجاد می‌کند؛ جایی که شرکت‌های هوش‌مصنوعی از یافته‌های دانشگاهی بهره می‌برند، بی‌آنکه خود متحمل هزینه و زمان انجام آن پژوهش‌ها شوند.

فینلیسون درباره شرکت‌های هوش‌مصنوعی و پژوهش می‌گوید: «آن‌ها وقتشان را صرف پژوهش نمی‌کنند، بلکه زمانشان را صرف تولید مدل‌هایی می‌کنند که به مشکلات مشاهده‌شده پاسخ می‌دهد.» به همین دلیل، به گفته «جولیا پولز»، مدیر اجرایی مؤسسه فناوری، حقوق و سیاست در UCLA، مطالعات داوری‌شده ضروری هستند.

او در گفت‌وگو با آکسیوس می‌گوید: «تنها سازوکار‌های نظارتی بر توسعه سیستم‌های هوش‌مصنوعی، درون خود شرکت‌ها است. این موضوع صنعت را بی‌ملاحظه کرده است. همچنین این امر به عدم توازن شدید قدرت میان شرکت‌ها و کسانی که در پی مطالعه، تنظیم‌گری، نظارت و مطالبه هستند، منجر می‌شود.»

فرآیند انتشار پژوهش‌های هوش‌مصنوعی کند است. همانند اغلب تحقیقات دانشگاهی، انجام مطالعه، نگارش و داوری زمان‌بر است. این مسئله می‌تواند به «تأخیر در انتشار» منجر شود؛ وضعیتی که در آن یافته‌های پژوهش هنگام انتشار تا حدی منسوخ شده‌اند؛ پدیده‌ای که در دوران همه‌گیری کرونا نیز مشاهده شد

فرآیند انتشار پژوهش‌های هوش‌مصنوعی کند است. همانند اغلب تحقیقات دانشگاهی، انجام مطالعه، نگارش و داوری می‌تواند زمان‌بر باشد. این مسئله ممکن است به «تأخیر در انتشار» منجر شود؛ وضعیتی که در آن یافته‌های پژوهش هنگام انتشار تا حدی منسوخ شده‌اند؛ پدیده‌ای که در دوران همه‌گیری کرونا نیز مشاهده شد.

شرکت‌های هوش‌مصنوعی مشتاق اصلاح مدل‌های خود هستند

هوش‌مصنوعی تحت نظارت و انتقاد گسترده‌ای قرار گرفته است. با این حال، به نظر می‌رسد شرکت‌ها مشتاق‌اند مدل‌های خود را بر اساس همین انتقاد‌ها آموزش دهند و اصلاح کنند. برای مثال، اوپن ای آی با چندین شکایت قضایی روبه‌رو شده که مدعی‌اند چت‌جی‌پی‌تی در چندین مورد خودکشی و آسیب روانی نقش داشته است. با این حال، «سم آلتمن»، مدیرعامل این شرکت، درباره اصلاح مدل‌ها بر اساس این انتقاد‌ها موضع‌گیری و اظهارنظر‌های علنی داشته است.

سیستم‌هایی که برای ارزیابی علمیِ کند و تدریجی طراحی شده‌اند، در همگامی با سرعت سرسام‌آور پیشرفت هوش‌مصنوعی با چالشی بنیادین روبه‌رو هستند. چالشی که اگر حل نشود، می‌تواند فاصله میان توسعه فناوری و نظارت علمی را هر روز عمیق‌تر کند.

انتهای پیام/

ارسال نظر