دیده بان پیشرفت علم، فناوری و نوآوری
آنا گزارش می‌دهد؛

حباب هیاهوی هوش مصنوعی مولد چه زمانی می‌ترکد؟

حباب هیاهوی هوش مصنوعی مولد چه زمانی می‌ترکد؟
آخرین پیشرفت‌های هوش مصنوعی از چت جی‌پی‌تی، بارد، بینگ و... چشم‌گیرتر از دستاوردهای قبلی هستند. اما آیا ما امروز در حباب دیگری از هیاهوی هوش مصنوعی هستیم؟
کد خبر : 922984

خبرگزاری علم و فناوری آنا؛ این لحظه برای هوش مصنوعی شبیه لحظه‌های قبلی نیست. هوش مصنوعی‌های قدرتمند مبتنی بر زبان از نظر توانایی پیشرفت کرده‌اند و اکنون می‌توانند مجموعه‌ای از نثر قابل قبول تولید کنند که اغلب نمی‌توانند از متن نوشته شده توسط انسان متمایز شوند. آنها می‌توانند به سؤالات فنی پیچیده، مانند سؤالاتی که برای وکلا و برنامه نویسان رایانه می‌شود، پاسخ دهند. آنها حتی می‌توانند به آموزش بهتر سایر مدل‌های هوش مصنوعی‌ کمک کنند.

با این حال، آنها نگرانی‌های جدی را مطرح کرده‌اند. محققان برجسته هوش مصنوعی و رهبران صنعت فناوری از آزمایشگاه‌های تحقیقاتی خواسته‌اند تا بزرگترین آزمایش‌های در حال انجام هوش مصنوعی را حداقل به مدت شش ماه متوقف کنند تا زمان لازم برای توسعه و اجرای دستورالعمل‌های ایمنی فراهم شود. رگولاتور‌های ایتالیا پا را فراتر گذاشته و یک چت ربات پیشرو هوش مصنوعی را به طور موقت ممنوع کرده‌اند.

در مرکز همه مدل‌های زبان بزرگ، انواع دیگری از هوش مصنوعی مولد قرار دارند که می‌توانند در پاسخ به درخواست‌های انسان متن و تصاویر ایجاد کنند. استارت‌آپ‌هایی که توسط قدرتمندترین شرکت‌های فناوری جهان پشتیبانی می‌شوند، از سال ۲۰۲۲ استقرار این هوش مصنوعی‌های مولد را تسریع کرده‌اند و دسترسی میلیون‌ها نفر به چت‌بات‌ها را فراهم کرده‌اند و اینترنت را با نوشته‌ها و تصاویر تولید شده توسط هوش مصنوعی پر می‌کنند.

تحقیقات هوش مصنوعی مدتهاست که با هیاهو همراه بوده است. اما به نظر می‌رسد کسانی که بر روی پیش بردن مرز‌های ممکن کار می‌کنند و کسانی که خواستار خویشتن‌داری هستند همگی در یک چیز توافق دارند: هوش مصنوعی‌ مولد می‌تواند تأثیرات اجتماعی بسیار گسترده‌تری نسبت به هوش مصنوعی‌ قبلی داشته باشد.

مهم‌ترین لحظات در تاریخ هوش مصنوعی

داستان هوش مصنوعی یکی از چرخه‌های تکراری است که شامل افزایش علاقه و بودجه می‌شود و پس از آن که انتظارات بزرگ مردم کم‌رنگ می‌شود، با آرامش همراه می‌شود. در دهه ۱۹۵۰، اشتیاق زیادی در مورد ایجاد ماشین‌هایی وجود داشت که هوش در سطح انسان را نشان می‌داد . اما این هدف عالی محقق نشد، زیرا سخت افزار و نرم افزار کامپیوتر به سرعت با محدودیت‌های فنی مواجه شدند. نتیجه به اصطلاح زمستان‌های هوش مصنوعی در دهه ۱۹۷۰ و در اواخر دهه ۱۹۸۰ بود، زمانی که بودجه تحقیقاتی و علاقه شرکت‌ها از بین رفت.

دهه گذشته هم برای محققانی که به دنبال بهبود قابلیت‌های یادگیری هوش مصنوعی هستند و هم برای شرکت‌هایی که به دنبال استقرار هوش مصنوعی هستند، چیزی شبیه به یک تابستان هوش مصنوعی بود. به لطف ترکیبی از پیشرفت‌های عظیم در قدرت رایانه و در دسترس بودن داده‌ها، رویکردی که از هوش مصنوعی با الهام از مغز استفاده می‌کند موفقیت‌های زیادی داشته است.

قابلیت‌های تشخیص صدا و تشخیص چهره در تلفن‌های هوشمند معمولی از چنین شبکه‌های عصبی استفاده می‌کنند، مانند هوش مصنوعی فشرده محاسباتی که بهترین بازیکنان جهان را در بازی تخته‌ای باستانی «گو» (Go) شکست داده و چالش‌های علمی دشوار پیش از اینرا حل کرده است، مانند پیش‌بینی ساختار تمام پروتئین‌های شناخته شده در علوم پایه.

پیشرفت‌های تحقیقاتی در این زمینه معمولاً طی سال‌ها آشکار شده‌اند و ابزار‌های هوش مصنوعی جدید برای کار‌های تخصصی به کار می‌روند یا به صورت نامرئی در محصولات و خدمات تجاری موجود مانند موتور‌های جستجوی اینترنتی قرار می‌گیرند.

اما در چند ماه گذشته، هوش مصنوعی‌های مولد، که از شبکه‌های عصبی نیز استفاده می‌کنند، به کانون تلاش‌های صنعت فناوری برای خروج هوش مصنوعی از آزمایشگاه‌های شرکت‌ها و به دست‌های عموم تبدیل شده‌اند. نتایج عجیب، گاهی چشمگیر و اغلب غیرقابل پیش بینی بوده است، زیرا افراد و سازمان‌ها با این مدل‌ها آزمایش می‌کنند.

تیمنیت گبرو، بنیانگذار موسسه تحقیقاتی هوش مصنوعی توزیع شده در کالیفرنیا، می‌گوید: «من واقعاً انتظار انفجار مدل‌های مولد را که اکنون شاهد آن هستیم، نداشتم. من هرگز چنین گسترش محصولات را به این سرعت ندیده بودم.

نگاهی به سیر تحول هوش مصنوعی/ حباب هیاهوی چت‌بات‌ها چه زمانی می‌ترکد؟

جرقه‌ای که انفجار را روشن کرد، از اوپن ای‌آی، یک شرکت مستقر در سانفرانسیسکو، زمانی که نمونه اولیه عمومی از چت‌بات مبتنی بر هوش مصنوعی چت جی‌پی‌تی خود را در ۳۰ نوامبر ۲۰۲۲ راه اندازی کرد و تنها در پنج روز ۱ میلیون کاربر را جذب کرد، شروع شد. مایکروسافت، یک سرمایه‌گذار چند میلیارد دلاری اوپن ای‌آی، ماه فوریه، در تلاشی آشکار برای به چالش کشیدن سلطه طولانی مدت گوگل بر بازار موتور‌های جستجو یک ربات چت با فناوری مشابه چت جی‌پی‌تی را از طریق موتور جستجوی بینگ خود در دسترس کاربران قرار داد.

این امر باعث شد تا گوگل در ماه مارس با معرفی ربات چت هوش مصنوعی خود به نام بارد به تقاضای کاربران خود پاسخ دهد. گوگل همچنین ۳۰۰ میلیون دلار در آنتروپیک سرمایه گذاری کرده است، یک استارت آپ هوش مصنوعی که توسط کارمندان سابق اوپن ای‌آی، تأسیس شده است و ربات چت کلود را از ماه مارس در دسترس تعداد محدودی از افراد و شرکای تجاری خود قرار داده است. شرکت‌های بزرگ فناوری چینی مانند بایدو و علی‌بابا نیز به رقابت برای گنجاندن چت‌بات‌های هوش مصنوعی در موتور‌های جستجو و سایر خدمات خود پیوسته‌اند.

این هوش مصنوعی‌های مولد در حال حاضر زمینه‌هایی مانند آموزش را تحت تأثیر قرار داده‌اند، به طوری که برخی از مدارس چت جی‌پی‌تی را ممنوع کرده‌اند، زیرا می‌تواند مقاله‌های کاملی تولید کند که اغلب غیرقابل تشخیص از نوشته‌های دانش‌آموز به نظر می‌رسد. توسعه‌دهندگان نرم‌افزار نشان داده‌اند که چت جی‌پی‌تی می‌تواند باگ‌های کد برنامه‌نویسی را پیدا و رفع کند و همچنین برنامه‌های خاصی را از ابتدا بنویسد. نمایندگان املاک و مستغلات از چت جی‌پی‌تی برای ایجاد لیست فروش جدید و پست‌های رسانه‌های اجتماعی استفاده کرده‌اند و شرکت‌های حقوقی از چت ربات‌های هوش مصنوعی برای پیش نویس قرارداد‌های قانونی استفاده کرده‌اند. آزمایشگاه‌های تحقیقاتی دولت ایالات متحده حتی در حال آزمایش این هستند که چگونه فناوری اوپن ای‌آی، می‌تواند به سرعت مطالعات منتشر شده را برای کمک به هدایت آزمایش‌های علمی جدید بررسی کند.

بر اساس گزارش تحلیلگران بانک سرمایه گذاری گلدمن ساکس، حدود ۳۰۰ میلیون شغل تمام وقت ممکن است حداقل با اتوماسیون جزئی از هوش مصنوعی مولد مواجه شوند. اما، همانطور که آنها می‌نویسند، این بستگی به این دارد که آیا هوش مصنوعی مولد توانایی ارائه وعده‌های داده شده خود را دارد یا خیر؟

آنچه واضح است این است که خطرات واقعی هوش مصنوعی مولد نیز با سرعتی سرگیجه‌آور آشکار می‌شوند. چت جی‌پی‌تی و سایر ربات‌های چت اغلب اشتباهات واقعی را ارائه می‌دهند و به رویداد‌ها یا مقالات کاملاً ساختگی ارجاع می‌دهند. استفاده از چت جی‌پی‌تی همچنین منجر به رسوایی‌های حفظ حریم خصوصی داده‌ها شده است که شامل نشت اطلاعات محرمانه شرکت می‌شود و کاربران چت جی‌پی‌تی می‌توانند تاریخچه چت و اطلاعات پرداخت شخصی افراد را ببینند.

هنرمندان و عکاسان نگرانی‌های بیشتری را در مورد آثار هنری تولید شده توسط هوش مصنوعی که معیشت حرفه‌ای آنها را تهدید می‌کند، مطرح کرده‌اند، در حالی که برخی از شرکت‌ها هوش مصنوعی مولد را بر روی کار آن هنرمندان و عکاسان آموزش می‌دهند بدون اینکه به آنها غرامتی بپردازند. تصاویر تولید شده توسط هوش مصنوعی همچنین می‌تواند منجر به نشر اطلاعات نادرست شود، همانطور که با تصاویر جعلی ساخته شده توسط هوش مصنوعی از دستگیری دونالد ترامپ، رئیس جمهور ایالات متحده و پاپ فرانسیس با پوشیدن یک ژاکت پف دار سفید شیک، که هر دو در فضای مجازی منتشر شدند، نشان داد. بسیاری از مردم فریب خوردند و معتقد بودند که واقعی هستند.

بسیاری از این خطرات احتمالی توسط گبرو زمانی که او و همکارانش در مورد خطرات مدل‌های زبانی بزرگ در مقاله‌ای مهم در سال ۲۰۲۰ نوشتند، پیش‌بینی می‌شد، زمانی که او یکی از رهبران تیم هوش مصنوعی اخلاقی گوگل بود. گبرو توضیح داد که پس از اینکه رهبری شرکت از او خواسته بود که مقاله را پس بگیرد، مجبور شد از گوگل خارج شود، اگرچه گوگل خروج او را به عنوان استعفا و نه اخراج توصیف کرد. گبرو می‌گوید: «[وضعیت فعلی] مانند یک چرخه تبلیغاتی دیگر به نظر می‌رسد، اما تفاوت این است که اکنون محصولات واقعی وجود دارند که باعث آسیب می‌شوند.

ظهورهوش مصنوعی مولد/ از قابلیت‌های فرا انسانی تا چالش‌های حریم خصوصی

آرویند نارایانان از دانشگاه پرینستون می‌گوید فناوری هوش مصنوعی مولد مبتنی بر تحقیقات یک دهه است که هوش مصنوعی را در تشخیص تصاویر، طبقه‌بندی مقاله‌ها بر اساس موضوع و تبدیل کلمات گفتاری به نوشتاری بهتر کرده است.   آنها می‌توانند هنگام ارائه توضیحات تصاویر مصنوعی ایجاد کنند، مقالاتی در مورد یک موضوع خاص تولید کنند یا نسخه‌های صوتی متن نوشته شده را تولید کنند. نارایانان می‌گوید:  اگرچه ارزیابی این فناوری می‌تواند دشوار باشد. اما هوش مصنوعی مولد واقعاً چیز‌های جدید زیادی را ممکن می‌کند.

مدل‌های زبان بزرگ، شاهکار‌های مهندسی هستند که از مقادیر عظیمی از قدرت محاسباتی در مراکز داده استفاده می‌کنند که توسط شرکت‌هایی مانند مایکروسافت و گوگل اداره می‌شوند. آنها به حجم عظیمی از داده‌های آموزشی نیاز دارند که شرکت‌ها اغلب از مخازن اطلاعات عمومی در اینترنت، مانند ویکی پدیا، استفاده می‌کنند. این فناوری همچنین به تعداد زیادی نیروی انسانی برای ارائه بازخورد و هدایت هوش مصنوعی در مسیر درست در طول فرآیند آموزش متکی است.

اما هوش مصنوعی قدرتمندی که توسط شرکت‌های فناوری بزرگ منتشر می‌شود، معمولاً سیستم‌های بسته‌ای هستند که دسترسی عموم یا توسعه‌دهندگان خارجی را محدود می‌کنند. سیستم‌های بسته می‌توانند به کنترل خطرات و آسیب‌های احتمالی که به هر کسی اجازه دانلود و استفاده از هوش مصنوعی را می‌دهد کمک کند، اما آنها همچنین قدرت را در دست سازمان‌هایی متمرکز می‌کنند که آنها را توسعه داده‌اند بدون اینکه اجازه ورود به افراد زیادی را بدهند که هوش مصنوعی می‌تواند زندگی آنها را تحت تأثیر قرار دهد.

ایرنه سلیمان، مدیر سیاست در «هاگینگ فیس» (Hugging Face)، شرکتی که ابزار‌هایی را برای به اشتراک گذاری کد‌های هوش مصنوعی و مجموعه داده‌ها توسعه می‌دهد، می‌گوید: «مهم‌ترین نگرانی در روند بسته بودن این است که مدل‌های کمی در خارج از تعداد انگشت شماری از سازمان‌های توسعه‌دهنده در دسترس خواهند بود.

چنین روند‌هایی را می‌توان در نحوه حرکت اوپن ای‌آی، به سمت یک موضع اختصاصی و بسته در مورد فناوری خود مشاهده کرد، علیرغم اینکه شروع به کار به عنوان یک سازمان غیرانتفاعی اختصاص داده شده به توسعه باز هوش مصنوعی است. زمانی که اوپن ای‌آی، فناوری هوش مصنوعی چت جی‌پی‌تی را به GPT-۴ ارتقا داد، این شرکت «چشم انداز رقابتی و پیامد‌های ایمنی مدل‌های مقیاس بزرگ مانند GPT-۴» را دلیل عدم افشای نحوه عملکرد این مدل عنوان کرد.

این نوع موضع گیری، ارزیابی قابلیت‌ها و محدودیت‌های هوش مصنوعی مولد را برای خارجی‌ها سخت می‌کند و به طور بالقوه به هیاهو دامن می‌زند. لی وینسل، مورخ فناوری در ویرجینیا تک، می‌گوید: «حباب‌های فناوری انرژی احساسی (هیجان و ترس) زیادی ایجاد می‌کنند، اما محیط‌های اطلاعاتی بدی هستند.»

بسیاری از حباب‌های فناوری هم شامل تبلیغات و هم چیزی است که وینسل آن را به عنوان «هیجان انتقادی» توصیف می‌کند انتقادی که با در نظر گرفتن احساسی‌ترین ادعا‌های شرکت‌ها و تغییر آنها برای صحبت در مورد خطرات فرضی، هیاهوی فناوری را تقویت می‌کند.

این را می‌توان در پاسخ به چت جی‌پی‌تی مشاهده کرد. بیانیه ماموریت اوپن ای‌آی، می‌گوید که این شرکت به گسترش مزایای هوش عمومی مصنوعی اختصاص دارد، هوش مصنوعی که می‌تواند در هر کار فکری از انسان‌ها بهتر عمل کند. چت جی‌پی‌تی با این هدف بسیار فاصله دارد، اما در ۲۲ مارس، محققان هوش مصنوعی مانند یوشوا بنجیو و چهره‌های صنعت فناوری مانند ایلان ماسک نامه‌ای سرگشاده امضا کردند که در آن از آزمایشگاه‌های تحقیقاتی خواستند آزمایش‌های غول پیکر هوش مصنوعی را متوقف کنند، در حالی که هوش مصنوعی را به عنوان «ذهن غیرانسانی که ممکن است در نهایت از ما  پیشی بگیرد»، یاد کردند.

قانونگذاران اتحادیه اروپا در حال نهایی کردن قانون هوش مصنوعی هستند که نخستین استاندارد‌های گسترده جهان را برای تنظیم این فناوری ایجاد می‌کند. هدف این قانون ممنوعیت یا تنظیم هوش مصنوعی با خطر بالاتر، با بحث‌های مداوم در مورد گنجاندن چت جی‌پی‌تی و هوش مصنوعی‌های مولد مشابه با کاربرد‌های عمومی در دسته خطر بالا است. در همین حال، رگولاتور‌ها در ایتالیا چت جی‌پی‌تی را به دلیل نگرانی از نقض قوانین موجود در خصوص حریم خصوصی داده‌ها به طور موقت ممنوع کرده‌اند.

مؤسسه «ای آی نو» (AI Now) در نیویورک و دیگر کارشناسان اخلاق هوش مصنوعی پیشنهاد کرده‌اند که بار مسئولیت را بر دوش شرکت‌های بزرگ فناوری گذاشته شود و آنها را مجبور به نشان دادن اینکه هوش مصنوعی آنها آسیبی نمی‌زند، به جای الزام قانون‌گذاران به شناسایی و برخورد با هر یک از آنها، ارائه کرده‌اند.

سارا مایرز وست، مدیر عامل این مؤسسه می‌گوید: بازیگران صنعت از نخستین کسانی بودند که گفتند ما نیاز به مقررات داریم. اما‌ ای کاش این سوال به آنها پاسخ داده می‌شد، مانند اینکه از کجا مطمئن هستید که کاری که انجام می‌دهید در وهله اول قانونی است؟

آرمان‌شهر یا آخرالزمان خیال‌پردازانه هوش مصنوعی؟

بسیاری از اتفاقات بعدی در رونق هوش مصنوعی مولد به نحوه استفاده و تنظیم فناوری‌های درگیر بستگی دارد. تارون آجم‌اغلو می‌گوید: «من فکر می‌کنم مهم‌ترین درس تاریخ این است که ما به‌عنوان یک جامعه، انتخاب‌های بسیار بیشتری در مورد چگونگی توسعه و گسترش فناوری‌ها نسبت به آنچه که آینده‌نگران فناوری به ما می‌گویند، داریم.

سم آلتمن، مدیر عامل اوپن ای‌آی، گفته است که چت جی‌پی‌تی در حال حاضر نمی‌تواند جایگزین موتور‌های جستجوی سنتی شود. اما در مصاحبه‌ای با فوربس، او پیشنهاد کرد که یک هوش مصنوعی روزی می‌تواند نحوه دریافت اطلاعات آنلاین افراد را به گونه‌ای کاملاً متفاوت تغییر دهد.

نگاهی به سیر تحول هوش مصنوعی/ حباب هیاهوی چت‌بات‌ها چه زمانی می‌ترکد؟

آلتمن همچنین سناریو‌های بسیار شدیدتری در آینده را در نظر گرفته است که شامل هوش مصنوعی قدرتمندی است که عموماً عملکرد بهتری از انسان‌ها دارند، و بهترین حالت هوش مصنوعی را توصیف می‌کند که بتواند «همه جنبه‌های واقعیت را بهبود بخشد و به همه ما اجازه دهد بهترین زندگی خود را داشته باشیم». او همچنین هشدار داده است که «هوش مصنوعی» می‌تواند یک مورد بد چراغ خاموش برای همه ما باشد. اما او توسعه فعلی هوش مصنوعی را همچنان با هوش مصنوعی عمومی بسیار دور توصیف کرد.

ماه گذشته، گبرو و همکارانش بیانیه‌ای منتشر کردند و هشدار دادند که «پرت کردن حواس با یک آرمان‌شهر یا آخرالزمانی خیال‌پردازانه مبتنی بر هوش مصنوعی که نوید یک آینده درخشان یا  فاجعه‌بار را می‌دهد، خطرناک است.

آنها نوشتند: «مسابقه کنونی به سوی آزمایش‌های هوش مصنوعی بزرگ‌تر، مسیری از پیش تعیین‌شده نیست که در آن تنها انتخاب ما سرعت دویدن است، بلکه مجموعه‌ای از تصمیم‌هایی است که با انگیزه سود هدایت می‌شوند.» اقدامات و انتخاب‌های شرکت‌ها باید با مقرراتی شکل بگیرد که از حقوق و منافع مردم حمایت می‌کند.

ساشا لوچونی، دانشمند تحقیقاتی هوش مصنوعی در «هاگینگ فیس» می‌گوید اگر حباب کف‌آلود انتظارات کسب‌وکار در مورد هوش مصنوعی مولد به سطوح ناپایدار برسد و در نهایت منفجر شود، می‌تواند به طور کلی توسعه هوش مصنوعی آینده را کاهش دهد. با این حال، رونق هوش مصنوعی مولد لزوماً نیازی به زمستان دیگری در زمینه هوش مصنوعی ندارد. یک دلیل این است که برخلاف چرخه‌های قبلی، بسیاری از سازمان‌ها به جای قرار دادن تمام تخم‌های خود در سبد هوش مصنوعی مولد، به دنبال راه‌های دیگر تحقیقات هوش مصنوعی هستند.

مقابله با پنهان کاری؛ عملکرد هوش مصنوعی باید ارزیابی شود

محققان باید داده‌های آموزشی خود را افشا کنند، اجازه دسترسی به مدل‌های هوش مصنوعی خود را بدهند و کار خود را به جای پنهان کردن آن به عنوان فناوری اختصاصی نشان دهند.

نیما بوسکارینو، مهندس اخلاق در «هاگینگ فیس» می‌گوید: محققان هوش مصنوعی باید به وضوح توضیح دهند که مدل‌ها چه کاری می‌توانند انجام دهند و چه کاری نمی‌توانند انجام دهند، بین توسعه محصول و تحقیقات علمی بیشتر تمایز قائل شوند و از نزدیک با جوامعی که بیشتر تحت تأثیر هوش مصنوعی قرار گرفته‌اند همکاری کنند تا در مورد ویژگی‌ها و اقدامات حفاظتی مرتبط با آنها بیاموزند. بوسکارینو همچنین بر نیاز به اتخاذ شیوه‌هایی مانند ارزیابی عملکرد یک هوش مصنوعی با افراد با هویت‌های مختلف تاکید می‌کند.

کار روی هوش مصنوعی مولد که به این روش انجام می‌شود، می‌تواند شکل پایدارتری از توسعه فناوری سودمند را در آینده تضمین کند.

بوسکارینو می‌گوید: این زمان‌های هیجان‌انگیزی در فضای اخلاق هوش مصنوعی است و من امیدوارم که بخش وسیع‌تر یادگیری ماشینی بیاموزد که رویکردی مخالف آنچه اوپن ای‌آی، انجام می‌دهد اتخاذ کند.

انتهای پیام/

ارسال نظر
هلدینگ شایسته