صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

ورزش

سلامت

پژوهش

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

علم +

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

اقدام جدید سازنده چت جی‌پی‌تی برای جلوگیری از سرکش شدن هوش مصنوعی

اوپن‌ای‌آی قصد دارد با سرمایه‌گذاری منابعی قابل توجه، یک گروه تحقیقاتی جدید به منظور جلوگیری از خطرات هوش مصنوعی برای نسل بشر ایجاد کند.
کد خبر : 856623

به گزارش خبرنگار خبرگزاری علم و فناوری آنا به نقل از رویترز، «اوپن‌ای‌آی» (OpenAI) خالق چت‌بات قصد دارد منابع قابل توجهی را برای ایجاد یک تیم تحقیقاتی جدید سرمایه‌گذاری کند. این تیم به دنبال اطمینان از ایمن ماندن هوش مصنوعی  برای انسان‌ها و در نهایت استفاده از  آن برای نظارت بر خود خواهد بود.

«ایلیا سوتسکور» یکی از موسسان اوپن‌ای‌آی و «جان لیک»، رئیس این شرکت معتقد هستند که «قدرت عظیم ابرهوشمند می‌تواند به نابودی بشریت یا حتی انقراض انسان منجر شود.»

به گفته آن‌ها «انسان‌ها برای اینکه بتوانند هوش مصنوعی فوق هوشمند را کنترل کنند، به تکنیک‌های بهتری نسبت به آن چه در حال حاضر در دسترس است، نیاز خواهند داشت. از این رو نیاز به پیشرفت در تحقیقات است که بر تضمین سودمند بودن هوش مصنوعی برای انسان‌ها تمرکز دارد. اوپن‌ای‌آی با حمایت مایکروسافت ۲۰ درصد از توان محاسباتی خود را در چهار سال آینده به حل این مشکل اختصاص می‌دهد.»

علاوه بر این، این شرکت در حال تشکیل تیم جدیدی است که حول این تلاش سازمان‌دهی می‌کند. هدف این تیم ایجاد یک تحقیق هم‌ترازی هوش مصنوعی در سطح انسانی و سپس مقیاس‌بندی آن از طریق قدرت محاسباتی است.

به گفته اوپن‌ای‌آی «این بدان معناست که آن‌ها سیستم‌های هوش مصنوعی را با استفاده از بازخورد انسانی آموزش می‌دهند، سیستم‌های هوش مصنوعی را برای کمک به ارزیابی انسان آموزش می‌دهند و در نهایت سیستم‌های هوش مصنوعی را برای انجام تحقیقات هم‌ترازی آموزش می‌دهند.»

«کانر لیهی»، مدافع ایمنی هوش مصنوعی معتقد است که «این طرح اساساً ناقص بود، زیرا هوش مصنوعی اولیه در سطح انسانی می‌توانست پیش از آن که مجبور به حل مشکلات ایمنی هوش مصنوعی شود، ویران کند. من شخصاً فکر نمی‌کنم که این یک برنامه خوب یا مطمئن باشد.»

خطرات بالقوه هوش مصنوعی هم برای محققان و هم برای عموم مردم مورد توجه بوده است. در ماه آوریل، گروهی از رهبران و کارشناسان صنعت هوش مصنوعی نامه‌ای سرگشاده را امضا کردند که در آن خواستار توقف ۶ ماهه در توسعه سیستم‌های قدرتمندتر از «چت جی‌پی‌تی» (GPT-۴) شدند و خطرات احتمالی برای جامعه را ذکر کردند.

نظرسنجی ماه مه نشان داده که بیش از دو سوم آمریکایی‌ها در مورد اثرات منفی احتمالی هوش مصنوعی نگران هستند و ۶۱ درصد معتقدند که می‌تواند تمدن را تهدید کند.

انتهای پیام/

ارسال نظر