حباب هیاهوی هوش مصنوعی مولد چه زمانی میترکد؟
خبرگزاری علم و فناوری آنا؛ این لحظه برای هوش مصنوعی شبیه لحظههای قبلی نیست. هوش مصنوعیهای قدرتمند مبتنی بر زبان از نظر توانایی پیشرفت کردهاند و اکنون میتوانند مجموعهای از نثر قابل قبول تولید کنند که اغلب نمیتوانند از متن نوشته شده توسط انسان متمایز شوند. آنها میتوانند به سؤالات فنی پیچیده، مانند سؤالاتی که برای وکلا و برنامه نویسان رایانه میشود، پاسخ دهند. آنها حتی میتوانند به آموزش بهتر سایر مدلهای هوش مصنوعی کمک کنند.
با این حال، آنها نگرانیهای جدی را مطرح کردهاند. محققان برجسته هوش مصنوعی و رهبران صنعت فناوری از آزمایشگاههای تحقیقاتی خواستهاند تا بزرگترین آزمایشهای در حال انجام هوش مصنوعی را حداقل به مدت شش ماه متوقف کنند تا زمان لازم برای توسعه و اجرای دستورالعملهای ایمنی فراهم شود. رگولاتورهای ایتالیا پا را فراتر گذاشته و یک چت ربات پیشرو هوش مصنوعی را به طور موقت ممنوع کردهاند.
در مرکز همه مدلهای زبان بزرگ، انواع دیگری از هوش مصنوعی مولد قرار دارند که میتوانند در پاسخ به درخواستهای انسان متن و تصاویر ایجاد کنند. استارتآپهایی که توسط قدرتمندترین شرکتهای فناوری جهان پشتیبانی میشوند، از سال ۲۰۲۲ استقرار این هوش مصنوعیهای مولد را تسریع کردهاند و دسترسی میلیونها نفر به چتباتها را فراهم کردهاند و اینترنت را با نوشتهها و تصاویر تولید شده توسط هوش مصنوعی پر میکنند.
تحقیقات هوش مصنوعی مدتهاست که با هیاهو همراه بوده است. اما به نظر میرسد کسانی که بر روی پیش بردن مرزهای ممکن کار میکنند و کسانی که خواستار خویشتنداری هستند همگی در یک چیز توافق دارند: هوش مصنوعی مولد میتواند تأثیرات اجتماعی بسیار گستردهتری نسبت به هوش مصنوعی قبلی داشته باشد.
مهمترین لحظات در تاریخ هوش مصنوعی
داستان هوش مصنوعی یکی از چرخههای تکراری است که شامل افزایش علاقه و بودجه میشود و پس از آن که انتظارات بزرگ مردم کمرنگ میشود، با آرامش همراه میشود. در دهه ۱۹۵۰، اشتیاق زیادی در مورد ایجاد ماشینهایی وجود داشت که هوش در سطح انسان را نشان میداد . اما این هدف عالی محقق نشد، زیرا سخت افزار و نرم افزار کامپیوتر به سرعت با محدودیتهای فنی مواجه شدند. نتیجه به اصطلاح زمستانهای هوش مصنوعی در دهه ۱۹۷۰ و در اواخر دهه ۱۹۸۰ بود، زمانی که بودجه تحقیقاتی و علاقه شرکتها از بین رفت.
دهه گذشته هم برای محققانی که به دنبال بهبود قابلیتهای یادگیری هوش مصنوعی هستند و هم برای شرکتهایی که به دنبال استقرار هوش مصنوعی هستند، چیزی شبیه به یک تابستان هوش مصنوعی بود. به لطف ترکیبی از پیشرفتهای عظیم در قدرت رایانه و در دسترس بودن دادهها، رویکردی که از هوش مصنوعی با الهام از مغز استفاده میکند موفقیتهای زیادی داشته است.
قابلیتهای تشخیص صدا و تشخیص چهره در تلفنهای هوشمند معمولی از چنین شبکههای عصبی استفاده میکنند، مانند هوش مصنوعی فشرده محاسباتی که بهترین بازیکنان جهان را در بازی تختهای باستانی «گو» (Go) شکست داده و چالشهای علمی دشوار پیش از اینرا حل کرده است، مانند پیشبینی ساختار تمام پروتئینهای شناخته شده در علوم پایه.
پیشرفتهای تحقیقاتی در این زمینه معمولاً طی سالها آشکار شدهاند و ابزارهای هوش مصنوعی جدید برای کارهای تخصصی به کار میروند یا به صورت نامرئی در محصولات و خدمات تجاری موجود مانند موتورهای جستجوی اینترنتی قرار میگیرند.
اما در چند ماه گذشته، هوش مصنوعیهای مولد، که از شبکههای عصبی نیز استفاده میکنند، به کانون تلاشهای صنعت فناوری برای خروج هوش مصنوعی از آزمایشگاههای شرکتها و به دستهای عموم تبدیل شدهاند. نتایج عجیب، گاهی چشمگیر و اغلب غیرقابل پیش بینی بوده است، زیرا افراد و سازمانها با این مدلها آزمایش میکنند.
تیمنیت گبرو، بنیانگذار موسسه تحقیقاتی هوش مصنوعی توزیع شده در کالیفرنیا، میگوید: «من واقعاً انتظار انفجار مدلهای مولد را که اکنون شاهد آن هستیم، نداشتم. من هرگز چنین گسترش محصولات را به این سرعت ندیده بودم.
جرقهای که انفجار را روشن کرد، از اوپن ایآی، یک شرکت مستقر در سانفرانسیسکو، زمانی که نمونه اولیه عمومی از چتبات مبتنی بر هوش مصنوعی چت جیپیتی خود را در ۳۰ نوامبر ۲۰۲۲ راه اندازی کرد و تنها در پنج روز ۱ میلیون کاربر را جذب کرد، شروع شد. مایکروسافت، یک سرمایهگذار چند میلیارد دلاری اوپن ایآی، ماه فوریه، در تلاشی آشکار برای به چالش کشیدن سلطه طولانی مدت گوگل بر بازار موتورهای جستجو یک ربات چت با فناوری مشابه چت جیپیتی را از طریق موتور جستجوی بینگ خود در دسترس کاربران قرار داد.
این امر باعث شد تا گوگل در ماه مارس با معرفی ربات چت هوش مصنوعی خود به نام بارد به تقاضای کاربران خود پاسخ دهد. گوگل همچنین ۳۰۰ میلیون دلار در آنتروپیک سرمایه گذاری کرده است، یک استارت آپ هوش مصنوعی که توسط کارمندان سابق اوپن ایآی، تأسیس شده است و ربات چت کلود را از ماه مارس در دسترس تعداد محدودی از افراد و شرکای تجاری خود قرار داده است. شرکتهای بزرگ فناوری چینی مانند بایدو و علیبابا نیز به رقابت برای گنجاندن چتباتهای هوش مصنوعی در موتورهای جستجو و سایر خدمات خود پیوستهاند.
این هوش مصنوعیهای مولد در حال حاضر زمینههایی مانند آموزش را تحت تأثیر قرار دادهاند، به طوری که برخی از مدارس چت جیپیتی را ممنوع کردهاند، زیرا میتواند مقالههای کاملی تولید کند که اغلب غیرقابل تشخیص از نوشتههای دانشآموز به نظر میرسد. توسعهدهندگان نرمافزار نشان دادهاند که چت جیپیتی میتواند باگهای کد برنامهنویسی را پیدا و رفع کند و همچنین برنامههای خاصی را از ابتدا بنویسد. نمایندگان املاک و مستغلات از چت جیپیتی برای ایجاد لیست فروش جدید و پستهای رسانههای اجتماعی استفاده کردهاند و شرکتهای حقوقی از چت رباتهای هوش مصنوعی برای پیش نویس قراردادهای قانونی استفاده کردهاند. آزمایشگاههای تحقیقاتی دولت ایالات متحده حتی در حال آزمایش این هستند که چگونه فناوری اوپن ایآی، میتواند به سرعت مطالعات منتشر شده را برای کمک به هدایت آزمایشهای علمی جدید بررسی کند.
بر اساس گزارش تحلیلگران بانک سرمایه گذاری گلدمن ساکس، حدود ۳۰۰ میلیون شغل تمام وقت ممکن است حداقل با اتوماسیون جزئی از هوش مصنوعی مولد مواجه شوند. اما، همانطور که آنها مینویسند، این بستگی به این دارد که آیا هوش مصنوعی مولد توانایی ارائه وعدههای داده شده خود را دارد یا خیر؟
آنچه واضح است این است که خطرات واقعی هوش مصنوعی مولد نیز با سرعتی سرگیجهآور آشکار میشوند. چت جیپیتی و سایر رباتهای چت اغلب اشتباهات واقعی را ارائه میدهند و به رویدادها یا مقالات کاملاً ساختگی ارجاع میدهند. استفاده از چت جیپیتی همچنین منجر به رسواییهای حفظ حریم خصوصی دادهها شده است که شامل نشت اطلاعات محرمانه شرکت میشود و کاربران چت جیپیتی میتوانند تاریخچه چت و اطلاعات پرداخت شخصی افراد را ببینند.
هنرمندان و عکاسان نگرانیهای بیشتری را در مورد آثار هنری تولید شده توسط هوش مصنوعی که معیشت حرفهای آنها را تهدید میکند، مطرح کردهاند، در حالی که برخی از شرکتها هوش مصنوعی مولد را بر روی کار آن هنرمندان و عکاسان آموزش میدهند بدون اینکه به آنها غرامتی بپردازند. تصاویر تولید شده توسط هوش مصنوعی همچنین میتواند منجر به نشر اطلاعات نادرست شود، همانطور که با تصاویر جعلی ساخته شده توسط هوش مصنوعی از دستگیری دونالد ترامپ، رئیس جمهور ایالات متحده و پاپ فرانسیس با پوشیدن یک ژاکت پف دار سفید شیک، که هر دو در فضای مجازی منتشر شدند، نشان داد. بسیاری از مردم فریب خوردند و معتقد بودند که واقعی هستند.
بسیاری از این خطرات احتمالی توسط گبرو زمانی که او و همکارانش در مورد خطرات مدلهای زبانی بزرگ در مقالهای مهم در سال ۲۰۲۰ نوشتند، پیشبینی میشد، زمانی که او یکی از رهبران تیم هوش مصنوعی اخلاقی گوگل بود. گبرو توضیح داد که پس از اینکه رهبری شرکت از او خواسته بود که مقاله را پس بگیرد، مجبور شد از گوگل خارج شود، اگرچه گوگل خروج او را به عنوان استعفا و نه اخراج توصیف کرد. گبرو میگوید: «[وضعیت فعلی] مانند یک چرخه تبلیغاتی دیگر به نظر میرسد، اما تفاوت این است که اکنون محصولات واقعی وجود دارند که باعث آسیب میشوند.
ظهورهوش مصنوعی مولد/ از قابلیتهای فرا انسانی تا چالشهای حریم خصوصی
آرویند نارایانان از دانشگاه پرینستون میگوید فناوری هوش مصنوعی مولد مبتنی بر تحقیقات یک دهه است که هوش مصنوعی را در تشخیص تصاویر، طبقهبندی مقالهها بر اساس موضوع و تبدیل کلمات گفتاری به نوشتاری بهتر کرده است. آنها میتوانند هنگام ارائه توضیحات تصاویر مصنوعی ایجاد کنند، مقالاتی در مورد یک موضوع خاص تولید کنند یا نسخههای صوتی متن نوشته شده را تولید کنند. نارایانان میگوید: اگرچه ارزیابی این فناوری میتواند دشوار باشد. اما هوش مصنوعی مولد واقعاً چیزهای جدید زیادی را ممکن میکند.
مدلهای زبان بزرگ، شاهکارهای مهندسی هستند که از مقادیر عظیمی از قدرت محاسباتی در مراکز داده استفاده میکنند که توسط شرکتهایی مانند مایکروسافت و گوگل اداره میشوند. آنها به حجم عظیمی از دادههای آموزشی نیاز دارند که شرکتها اغلب از مخازن اطلاعات عمومی در اینترنت، مانند ویکی پدیا، استفاده میکنند. این فناوری همچنین به تعداد زیادی نیروی انسانی برای ارائه بازخورد و هدایت هوش مصنوعی در مسیر درست در طول فرآیند آموزش متکی است.
اما هوش مصنوعی قدرتمندی که توسط شرکتهای فناوری بزرگ منتشر میشود، معمولاً سیستمهای بستهای هستند که دسترسی عموم یا توسعهدهندگان خارجی را محدود میکنند. سیستمهای بسته میتوانند به کنترل خطرات و آسیبهای احتمالی که به هر کسی اجازه دانلود و استفاده از هوش مصنوعی را میدهد کمک کند، اما آنها همچنین قدرت را در دست سازمانهایی متمرکز میکنند که آنها را توسعه دادهاند بدون اینکه اجازه ورود به افراد زیادی را بدهند که هوش مصنوعی میتواند زندگی آنها را تحت تأثیر قرار دهد.
ایرنه سلیمان، مدیر سیاست در «هاگینگ فیس» (Hugging Face)، شرکتی که ابزارهایی را برای به اشتراک گذاری کدهای هوش مصنوعی و مجموعه دادهها توسعه میدهد، میگوید: «مهمترین نگرانی در روند بسته بودن این است که مدلهای کمی در خارج از تعداد انگشت شماری از سازمانهای توسعهدهنده در دسترس خواهند بود.
چنین روندهایی را میتوان در نحوه حرکت اوپن ایآی، به سمت یک موضع اختصاصی و بسته در مورد فناوری خود مشاهده کرد، علیرغم اینکه شروع به کار به عنوان یک سازمان غیرانتفاعی اختصاص داده شده به توسعه باز هوش مصنوعی است. زمانی که اوپن ایآی، فناوری هوش مصنوعی چت جیپیتی را به GPT-۴ ارتقا داد، این شرکت «چشم انداز رقابتی و پیامدهای ایمنی مدلهای مقیاس بزرگ مانند GPT-۴» را دلیل عدم افشای نحوه عملکرد این مدل عنوان کرد.
این نوع موضع گیری، ارزیابی قابلیتها و محدودیتهای هوش مصنوعی مولد را برای خارجیها سخت میکند و به طور بالقوه به هیاهو دامن میزند. لی وینسل، مورخ فناوری در ویرجینیا تک، میگوید: «حبابهای فناوری انرژی احساسی (هیجان و ترس) زیادی ایجاد میکنند، اما محیطهای اطلاعاتی بدی هستند.»
بسیاری از حبابهای فناوری هم شامل تبلیغات و هم چیزی است که وینسل آن را به عنوان «هیجان انتقادی» توصیف میکند انتقادی که با در نظر گرفتن احساسیترین ادعاهای شرکتها و تغییر آنها برای صحبت در مورد خطرات فرضی، هیاهوی فناوری را تقویت میکند.
این را میتوان در پاسخ به چت جیپیتی مشاهده کرد. بیانیه ماموریت اوپن ایآی، میگوید که این شرکت به گسترش مزایای هوش عمومی مصنوعی اختصاص دارد، هوش مصنوعی که میتواند در هر کار فکری از انسانها بهتر عمل کند. چت جیپیتی با این هدف بسیار فاصله دارد، اما در ۲۲ مارس، محققان هوش مصنوعی مانند یوشوا بنجیو و چهرههای صنعت فناوری مانند ایلان ماسک نامهای سرگشاده امضا کردند که در آن از آزمایشگاههای تحقیقاتی خواستند آزمایشهای غول پیکر هوش مصنوعی را متوقف کنند، در حالی که هوش مصنوعی را به عنوان «ذهن غیرانسانی که ممکن است در نهایت از ما پیشی بگیرد»، یاد کردند.
قانونگذاران اتحادیه اروپا در حال نهایی کردن قانون هوش مصنوعی هستند که نخستین استانداردهای گسترده جهان را برای تنظیم این فناوری ایجاد میکند. هدف این قانون ممنوعیت یا تنظیم هوش مصنوعی با خطر بالاتر، با بحثهای مداوم در مورد گنجاندن چت جیپیتی و هوش مصنوعیهای مولد مشابه با کاربردهای عمومی در دسته خطر بالا است. در همین حال، رگولاتورها در ایتالیا چت جیپیتی را به دلیل نگرانی از نقض قوانین موجود در خصوص حریم خصوصی دادهها به طور موقت ممنوع کردهاند.
مؤسسه «ای آی نو» (AI Now) در نیویورک و دیگر کارشناسان اخلاق هوش مصنوعی پیشنهاد کردهاند که بار مسئولیت را بر دوش شرکتهای بزرگ فناوری گذاشته شود و آنها را مجبور به نشان دادن اینکه هوش مصنوعی آنها آسیبی نمیزند، به جای الزام قانونگذاران به شناسایی و برخورد با هر یک از آنها، ارائه کردهاند.
سارا مایرز وست، مدیر عامل این مؤسسه میگوید: بازیگران صنعت از نخستین کسانی بودند که گفتند ما نیاز به مقررات داریم. اما ای کاش این سوال به آنها پاسخ داده میشد، مانند اینکه از کجا مطمئن هستید که کاری که انجام میدهید در وهله اول قانونی است؟
آرمانشهر یا آخرالزمان خیالپردازانه هوش مصنوعی؟
بسیاری از اتفاقات بعدی در رونق هوش مصنوعی مولد به نحوه استفاده و تنظیم فناوریهای درگیر بستگی دارد. تارون آجماغلو میگوید: «من فکر میکنم مهمترین درس تاریخ این است که ما بهعنوان یک جامعه، انتخابهای بسیار بیشتری در مورد چگونگی توسعه و گسترش فناوریها نسبت به آنچه که آیندهنگران فناوری به ما میگویند، داریم.
سم آلتمن، مدیر عامل اوپن ایآی، گفته است که چت جیپیتی در حال حاضر نمیتواند جایگزین موتورهای جستجوی سنتی شود. اما در مصاحبهای با فوربس، او پیشنهاد کرد که یک هوش مصنوعی روزی میتواند نحوه دریافت اطلاعات آنلاین افراد را به گونهای کاملاً متفاوت تغییر دهد.
آلتمن همچنین سناریوهای بسیار شدیدتری در آینده را در نظر گرفته است که شامل هوش مصنوعی قدرتمندی است که عموماً عملکرد بهتری از انسانها دارند، و بهترین حالت هوش مصنوعی را توصیف میکند که بتواند «همه جنبههای واقعیت را بهبود بخشد و به همه ما اجازه دهد بهترین زندگی خود را داشته باشیم». او همچنین هشدار داده است که «هوش مصنوعی» میتواند یک مورد بد چراغ خاموش برای همه ما باشد. اما او توسعه فعلی هوش مصنوعی را همچنان با هوش مصنوعی عمومی بسیار دور توصیف کرد.
ماه گذشته، گبرو و همکارانش بیانیهای منتشر کردند و هشدار دادند که «پرت کردن حواس با یک آرمانشهر یا آخرالزمانی خیالپردازانه مبتنی بر هوش مصنوعی که نوید یک آینده درخشان یا فاجعهبار را میدهد، خطرناک است.
آنها نوشتند: «مسابقه کنونی به سوی آزمایشهای هوش مصنوعی بزرگتر، مسیری از پیش تعیینشده نیست که در آن تنها انتخاب ما سرعت دویدن است، بلکه مجموعهای از تصمیمهایی است که با انگیزه سود هدایت میشوند.» اقدامات و انتخابهای شرکتها باید با مقرراتی شکل بگیرد که از حقوق و منافع مردم حمایت میکند.
ساشا لوچونی، دانشمند تحقیقاتی هوش مصنوعی در «هاگینگ فیس» میگوید اگر حباب کفآلود انتظارات کسبوکار در مورد هوش مصنوعی مولد به سطوح ناپایدار برسد و در نهایت منفجر شود، میتواند به طور کلی توسعه هوش مصنوعی آینده را کاهش دهد. با این حال، رونق هوش مصنوعی مولد لزوماً نیازی به زمستان دیگری در زمینه هوش مصنوعی ندارد. یک دلیل این است که برخلاف چرخههای قبلی، بسیاری از سازمانها به جای قرار دادن تمام تخمهای خود در سبد هوش مصنوعی مولد، به دنبال راههای دیگر تحقیقات هوش مصنوعی هستند.
مقابله با پنهان کاری؛ عملکرد هوش مصنوعی باید ارزیابی شود
محققان باید دادههای آموزشی خود را افشا کنند، اجازه دسترسی به مدلهای هوش مصنوعی خود را بدهند و کار خود را به جای پنهان کردن آن به عنوان فناوری اختصاصی نشان دهند.
نیما بوسکارینو، مهندس اخلاق در «هاگینگ فیس» میگوید: محققان هوش مصنوعی باید به وضوح توضیح دهند که مدلها چه کاری میتوانند انجام دهند و چه کاری نمیتوانند انجام دهند، بین توسعه محصول و تحقیقات علمی بیشتر تمایز قائل شوند و از نزدیک با جوامعی که بیشتر تحت تأثیر هوش مصنوعی قرار گرفتهاند همکاری کنند تا در مورد ویژگیها و اقدامات حفاظتی مرتبط با آنها بیاموزند. بوسکارینو همچنین بر نیاز به اتخاذ شیوههایی مانند ارزیابی عملکرد یک هوش مصنوعی با افراد با هویتهای مختلف تاکید میکند.
کار روی هوش مصنوعی مولد که به این روش انجام میشود، میتواند شکل پایدارتری از توسعه فناوری سودمند را در آینده تضمین کند.
بوسکارینو میگوید: این زمانهای هیجانانگیزی در فضای اخلاق هوش مصنوعی است و من امیدوارم که بخش وسیعتر یادگیری ماشینی بیاموزد که رویکردی مخالف آنچه اوپن ایآی، انجام میدهد اتخاذ کند.
انتهای پیام/