در نامه سرگشادهای درخواست شد؛
توسعه هوش مصنوعی بهخاطر بشریت متوقف شود
جمعی از فعالان حوزه فناوری در نامه سرگشادهای از آزمایشگاههای هوش مصنوعی خواستهاند توسعه مدلهای پیشرفتهتر از GPT-4 را متوقف کنند.
کد خبر : 839468
به گزارش گروه دانش و فناوری خبرگزاری آنا، گروهی از فعالان فناوری، متخصصان هوش مصنوعی و علاقهمندان به این حوزه ازجمله «ایلان ماسک»، مدیرعامل توئیتر و «استیو وزنیاک»، همبنیانگذار اپل در نامهای سرگشاده از آزمایشگاههای هوش مصنوعی درخواست کردهاند که حداقل تا ۶ ماه آینده توسعه مدلهای قدرتمندتر از GPT-4 را متوقف کنند.
نامه سرگشادهای که توسط مؤسسه غیرانتفاعی Future of Life منتشر شده و به امضای حدود هزار نفر ازجمله مدیرعامل Stability AI، همبنیانگذار پینترست، همبنیانگذار ریپل و «یووال نوح هراری» رسیده، خواستار توقف فوری آموزش مدلهای هوش مصنوعی پیشرفتهتر شده است.
در بخشی از این نامه آمده است که «سیستمهای هوش مصنوعی با هوشمندی قابل رقابت با انسانها میتوانند ریسکهای بزرگی را متوجه جامعه و بشریت کنند.» نامه حاضر باور دارد که این ابزارهای پیشرفته میتوانند تغییر بزرگی را در تاریخ حیات در زمین ایجاد کنند و ازاینرو، باید دقیق و با صرف منابع کافی آنها را برنامهریزی و مدیریت کرد.
نامه سرگشادهای که توسط مؤسسه غیرانتفاعی Future of Life منتشر شده و به امضای حدود هزار نفر ازجمله مدیرعامل Stability AI، همبنیانگذار پینترست، همبنیانگذار ریپل و «یووال نوح هراری» رسیده، خواستار توقف فوری آموزش مدلهای هوش مصنوعی پیشرفتهتر شده است.
در بخشی از این نامه آمده است که «سیستمهای هوش مصنوعی با هوشمندی قابل رقابت با انسانها میتوانند ریسکهای بزرگی را متوجه جامعه و بشریت کنند.» نامه حاضر باور دارد که این ابزارهای پیشرفته میتوانند تغییر بزرگی را در تاریخ حیات در زمین ایجاد کنند و ازاینرو، باید دقیق و با صرف منابع کافی آنها را برنامهریزی و مدیریت کرد.
**توسعه هوش مصنوعی باید تحت کنترل دربیاید
این نامه اضافه میکند که «متأسفانه این سطح از برنامهریزی و مدیریت فعلاً بهچشم نمیخورد، هرچند که آزمایشگاههای هوش مصنوعی در ماههای اخیر وارد رقابتی خارج از کنترل برای توسعه و پیادهسازی ذهنهای دیجیتالی قدرتمندتری شدند که هیچکس – نه حتی سازندگانشان – نمیتوانند آنها را بفهمند و پیشبینی یا بهشکلی قابل اطمینان کنترل کنند.»
«گری مارکوس»، استاد بازنشسته افتخاری دانشگاه نیویورک که از امضاکنندگان این نامه بوده است، درباره آن میگوید: «این نامه بینقص نیست، اما روحیه درستی دارد. تا زمانی که درک بهتری نسبت به عواقباین فناوری پیدا کنیم، باید سرعت توسعه آن را کاهش دهیم. هوش مصنوعی میتواند آسیبهای جدی داشته باشد. بازیگران بزرگ این حوزه روزبهروز کارهای خود را مخفیانهتر پیش میبرند، درنتیجه کار جامعه برای ایستادگی در برابر آسیبهای احتمالی این فناوری سختتر میشود.»
شرکت OpenAI هنوز به انتشار این نامه واکنشی نشان نداده است. این درخواست در شرایطی مطرح میشود که پلیس اتحادیه اروپا هم روز دوشنبه به جمع سازمانهایی پیوست که درباره مسائل اخلاقی و حقوقی مدلهای هوش مصنوعی پیشرفته ازجمله ChatGPT ابراز نگرانی کرده بودند.
انتهای پیام/۱۱۰/
این نامه اضافه میکند که «متأسفانه این سطح از برنامهریزی و مدیریت فعلاً بهچشم نمیخورد، هرچند که آزمایشگاههای هوش مصنوعی در ماههای اخیر وارد رقابتی خارج از کنترل برای توسعه و پیادهسازی ذهنهای دیجیتالی قدرتمندتری شدند که هیچکس – نه حتی سازندگانشان – نمیتوانند آنها را بفهمند و پیشبینی یا بهشکلی قابل اطمینان کنترل کنند.»
«گری مارکوس»، استاد بازنشسته افتخاری دانشگاه نیویورک که از امضاکنندگان این نامه بوده است، درباره آن میگوید: «این نامه بینقص نیست، اما روحیه درستی دارد. تا زمانی که درک بهتری نسبت به عواقباین فناوری پیدا کنیم، باید سرعت توسعه آن را کاهش دهیم. هوش مصنوعی میتواند آسیبهای جدی داشته باشد. بازیگران بزرگ این حوزه روزبهروز کارهای خود را مخفیانهتر پیش میبرند، درنتیجه کار جامعه برای ایستادگی در برابر آسیبهای احتمالی این فناوری سختتر میشود.»
شرکت OpenAI هنوز به انتشار این نامه واکنشی نشان نداده است. این درخواست در شرایطی مطرح میشود که پلیس اتحادیه اروپا هم روز دوشنبه به جمع سازمانهایی پیوست که درباره مسائل اخلاقی و حقوقی مدلهای هوش مصنوعی پیشرفته ازجمله ChatGPT ابراز نگرانی کرده بودند.
انتهای پیام/۱۱۰/
انتهای پیام/