صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
سازندگان چت جی‌پی‌تی خواستار شدند؛

تنظیم مقررات برای جلوگیری از نابودی بشریت توسط هوش مصنوعی

بنیانگذاران چت جی‌پی‌تی با انتشار بیانیه‌ای خواستار ایجاد سازمانی معادل آژانس بین‌المللی انرژی اتمی در حوزه هوش مصنوعی شدند تا از نابودی بشریت جلوگیری کند.
کد خبر : 849199

به گزارش خبرنگار خبرگزاری علم و فناوری آنا، رهبران  شرکت «OpenAI»  که  چت جی‌پی‌تی را توسعه داده‌اند به منظور حفاظت از بشریت در برابر هوش مصنوعی «فوق‌هوشمند» خواستار ایجاد سازمانی معادل آژانس بین‌المللی انرژی اتمی شدند.

در یادداشت کوتاهی که در وب سایت این شرکت منتشر شده است، بنیانگذاران گرگ براکمن و ایلیا سوتسکور و مدیر اجرایی سم آلتمن، از یک تنظیم کننده بین المللی می‌خواهند تا  در مورد چگونگی بازرسی سیستم ها، نیاز به ممیزی، تست انطباق با استاندارد‌های ایمنی شروع به کارکند. [و]محدودیت‌هایی را برای درجات استقرار و سطوح امنیتی به منظور کاهش "خطر وجودی" چنین سیستم‌هایی ایجاد کند.

آن‌ها نوشتند: «می توان تصور کرد که در ۱۰ سال آینده، سیستم‌های هوش مصنوعی در بیشتر حوزه‌ها از سطح مهارت‌های متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکت‌های امروزی فعالیت‌های سازنده‌ای را انجام خواهند داد. از نظر جنبه‌های مثبت و منفی بالقوه، ابر هوش قوی‌تر از سایر فناوری‌هایی است که بشر در گذشته مجبور به مبارزه با آن‌ها بوده است. ما می‌توانیم آینده‌ای به طور چشمگیری مرفه‌تر داشته باشیم. اما برای رسیدن به آن باید خطرات آن را مدیریت کنیم. با توجه به احتمال خطر وجودی، ما نمی‌توانیم فقط در مقابل آن واکنش نشان دهیم.»

این سه نفر در کوتاه مدت خواستار «درجاتی از هماهنگی» میان شرکت‌هایی هستند که بر روی تحقیقات پیشرفته هوش مصنوعی کار می‌کنند، تا اطمینان حاصل شود که توسعه مدل‌های قوی‌تر به راحتی با جامعه ادغام می‌شود و در عین حال ایمنی را در اولویت قرار می‌دهد. این هماهنگی می‌تواند از طریق یک پروژه تحت رهبری دولت، یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.

محققان ده‌ها سال است که درباره خطرات بالقوه این ابرهوش هشدار می‌دهند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینی‌تر شده‌اند. مرکز ایمنی هوش مصنوعی (CAIS) مستقر در ایالات متحده، که برای «کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی» کار می‌کند، هشت دسته خطر «فاجعه بار» و «وجودی» را که توسعه هوش مصنوعی می‌تواند ایجاد کند، توصیف می‌کند.

در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیب‌های مخرب دیگری را توصیف می‌کند. جهانی که در آن سیستم‌های هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست می‌آورند، می‌تواند منجر به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشین‌ها توسط بشر» شود که به عنوان «ناتوانی» توصیف می‌شود؛ و گروه کوچکی از افراد که سیستم‌های قدرتمند را کنترل می‌کنند، می‌توانند هوش مصنوعی را به یک نیروی متمرکز تبدیل کنند، که منجر به از بین بردن  ارزش ها شود.

رهبران OpenAI می‌گویند که این خطرات به این معنی است که مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیت‌ها و پیش فرض‌های سیستم‌های هوش مصنوعی تصمیم بگیرند، اما اذعان دارند که ما هنوز نمی‌دانیم چگونه چنین مکانیزمی را طراحی کنیم. با این حال، آن‌ها می‌گویند توسعه مداوم سیستم‌های قدرتمند ارزش ریسک را دارد.

آن‌ها در این بیانیه نوشتند: ما معتقدیم که این امر به دنیایی بسیار بهتر از آنچه امروز می‌توانیم تصور کنیم منجر خواهد شد. ما در حال حاضر نمونه‌های اولیه آن را در زمینه‌هایی مانند آموزش، کار خلاق و بهره وری شخصی می‌بینیم. آن‌ها هشدار می‌دهند که توقف توسعه هوش مصنوعی نیز می‌تواند خطرناک باشد. از آنجایی که نکات مثبت بسیار زیادی دارد، هزینه ساخت آن هر سال کاهش می‌یابد، تعداد بازیگرانی که آن را می‌سازند به سرعت در حال افزایش است، و ذاتاً بخشی از مسیر تکنولوژیکی است که ما در آن قرار داریم. توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد، و حتی این کار تضمینی نیست؛ بنابراین ما باید آن را درست انجام دهیم.

انتهای پیام/

ارسال نظر