صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
کارشناسان می گویند؛

کاهش خطر انقراض توسط هوش مصنوعی باید اولویت جهانی باشد

صد‌ها نفر از رهبران فناوری جهان در بیانیه‌ای درخواست کردند که هوش مصنوعی به عنوان خطری همتراز با بیماری‌های همه گیر و جنگ هسته‌ای تلقی شود.
کد خبر : 850379

به گزارش خبرنگار گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا،گروهی از کارشناسان برجسته فناوری از سرتاسر جهان هشدار داده‌اند که فناوری هوش مصنوعی باید به عنوان یک خطر اجتماعی در نظر گرفته شود و در رده همه‌گیری و جنگ‌های هسته‌ای در اولویت قرار گیرد.

این بیانیه که توسط صدها مدیر اجرایی و دانشگاهی امضا شد، روز سه‌شنبه توسط مرکز ایمنی هوش مصنوعی در میان نگرانی‌های فزاینده درباره مقررات و خطراتی که این فناوری برای بشریت ایجاد می‌کند منتشر کرد.

در این بیانیه آمده است: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای، یک اولویت جهانی باشد. امضاکنندگان شامل مدیران ارشد DeepMind Google، OpenAI توسعه‌دهنده ChatGPT و استارت‌آپ هوش مصنوعی Anthropic بودند.

رهبران جهانی و کارشناسان صنعت - مانند رهبران OpenAI - به دلیل ترس وجودی این فناوری که می‌تواند به طور قابل‌توجهی بر بازار کار تأثیر بگذارد، به سلامت میلیون‌ها انسان آسیب برساند و اطلاعات نادرست، تبعیض و جعل هویت تسلیحاتی ایجاد کند، خواستار تنظیم مقررات این فناوری شده‌اند.

 در این ماه، جفری هینتون،مردی که اغلب به‌عنوان پدرخوانده هوش مصنوعی شناخته می‌شود گوگل را به دلیل «خطر وجودی» آن ترک کرد. این خطر هفته گذشته برای اولین بار توسط ساختمان شماره 10 برتانیا (ساختمان نخست‌وزیری) تکرار شد و به رسمیت شناخته شد.

 به گفته مایکل آزبورن، استاد یادگیری ماشین در دانشگاه آکسفورد و یکی از بنیان‌گذاران مایند، اگرچه نامه منتشر شده، اولین نامه نیست، اما با توجه به طیف گسترده‌تر امضاکنندگان و نگرانی اصلی وجودی آن، احتمالاً بیشترین تأثیر را دارد. 

 او گفت: «واقعاً قابل توجه است که افراد زیادی در این نامه ثبت نام کردند. این نشان می‌دهد که ما به عنوان افرادی که در زمینه هوش مصنوعی کار می‌کنیم، متوجه می‌شویم که خطرات وجودی هوش مصنوعی یک نگرانی واقعی هستند.»

پتانسیل هوش مصنوعی برای تشدید خطرات وجودی مانند بیماری های همه گیر مهندسی شده و مسابقات تسلیحاتی نظامی نگرانی هایی است که آزبورن را به امضای نامه عمومی جدید علیه خطرات وجودی هوش مصنوعی سوق داد.

آزبورن گفت: «از آنجایی که ما هوش مصنوعی را به خوبی درک نمی کنیم، این احتمال وجود دارد که به عنوان نوعی ارگانیسم رقیب جدید در این سیاره نقش داشته باشد، بنابراین نوعی گونه مهاجم که ما طراحی کرده ایم ممکن است نقشی ویرانگر داشته باشد. نقشی مهم در بقای ما به عنوان یک گونه دارد.»

انتهای پیام/

ارسال نظر