صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

کاهش خطرات هوش مصنوعی باید یک اولویت جهانی باشد

مرکز ایمنی هوش مصنوعی به تازگی هشداری عمومی را درباره خطراتی که این فناوری برای بشریت ایجاد می‌کند، منتشر کرد. 
کد خبر : 852726

به گزارش خبرنگار خبرگزاری علم و فناوری آنا به نقل از الجزیره، مرکز ایمنی هوش مصنوعی به تازگی هشداری عمومی را درباره خطراتی که هوش مصنوعی برای بشریت ایجاد می‌کند، منتشر کرد. در این بیانیه که از سوی بیش از ۳۵۰ دانشمند، مدیران تجاری و شخصیت‌های عمومی امضا شده است، آمده است که «کاهش خطر هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‎گیر و جنگ هسته‌ای یک اولویت جهانی باشد.»

برخی از امضاکنندگان همچون مدیران گوگل دیپ‌مایند و اپن‌آی که در مورد پایان تمدن بشری هشدار می‌دهند، شرکت‌هایی را نماینده می‌دانند که مسئول ایجاد این فناوری هستند. این شرکت‌ها قدرت آن را دارند که مطمئن شوند هوش مصنوعی واقعا برای بشریت مفید است یا حداقل آسیبی به آن وارد نمی‌کند. این شرکت‌ها باید به توصیه‌های جامعه حقوق بشر توجه کنند و هرچه سریع‌تر چارچوبی را لحاظ کنند که اثرات منفی بالقوه محصولات خود را شناسایی، پیشگیری و کاهش دهند.

دانشمندان مدت‌ها است در مورد خطرات هوش مصنوعی مولد هشدار داده‌اند، اما تا زمان انتشار ابزار‌های جدید هوش مصنوعی، بخش بزرگی از مردم متوجه پیامد‌های منفی آن نشدند.

هوش مصنوعی مولد یک اصطلاح گسترده است که الگوریتم‌های خلاقانه‌ای را توصیف می‌کند که خود می‌توانند محتوای جدیدی از جمله تصاویر، متن، صدا، ویدئو و حتی کد‌های رایانه‎ای تولید کنند؛ این الگوریتم‌ها بر روی مجموعه‌های داده عظیم آموزش داده می‌شوند، و سپس از آن آموزش برای ایجاد خروجی‌هایی استفاده می‌کنند که اغلب از داده‌های واقعی قابل تشخیص نیستند. تشخیص اینکه آیا محتوا از سوی یک شخص یا یک الگوریتم تولید شده، دشوار است.

ظهور ناگهانی ابزار‌های جدید هوش مصنوعی مولد بی سابقه بوده است. چت ربات «ChatGPT» (چت جی‌پی‌تی) توسعه یافته از سوی «OpenAI» (اپن‌آی) در مدت ۲ ماه توانست ۱۰۰ میلیون کاربر داشته باشد؛ این به مراتب بیشتر از رشد اولیه پلتفرم‌های محبوبی مانند تیک‌تاک است که ۹ ماه طول کشید تا به همان تعداد کاربر دسترسی پیدا کند.

در طول تاریخ، فناوری به پیشرفت حقوق بشر کمک کرده، اما آسیب‌هایی نیز به بار آورده است. هنگامی که ابزار‌های جستجوی اینترنتی، رسانه‌های اجتماعی و فناوری تلفن همراه برای نخستین بار توسعه یافتند، پیش‌بینی بسیاری از راه‌ها برای افزایش‌ نقض حقوق بشر در سراسر جهان، غیرممکن بود. 

جامعه حقوق بشر از شرکت‌هایی که محصولات هوش مصنوعی مولد را توسعه می‌دهند می‌خواهد که فوراً برای جلوگیری از هرگونه عواقب منفی برای حقوق بشر اقدام کنند؛ بنابراین رویکرد مبتنی بر حقوق بشر به هوش مصنوعی مولد چگونه ممکن است به نظر برسد؟ برای انجام مسئولیت خود در مورد احترام به حقوق بشر، آن‌ها باید فوراً چارچوب دقیق بررسی حقوق بشر را که در اصول راهنمای سازمان ملل در مورد تجارت و حقوق بشر آمده است، اجرا کنند.

این موضوع شامل بررسی‌های لازم، پیشگیرانه و مستمر برای شناسایی آسیب‌های واقعی، شفافیت در مورد این آسیب‌ها و کاهش و اصلاح در صورت لزوم است. شرکت‌هایی که این فناوری‌ها را توسعه می‌دهند، باید فعالانه با دانشگاهیان، فعالان و سازمان‌های اجتماعی، به‌ویژه نمایندگان جوامع سنتی که به حاشیه رانده شده‌اند، وارد تعامل شوند.

لازم به یاداوری است؛ تعامل فعال با جوامع به حاشیه رانده شده باید بخشی از طراحی محصول و فرآیند‌های توسعه سیاست باشد تا تأثیر بالقوه این ابزار‌های جدید بهتر درک شود. این کار را نمی‌توان پس از اینکه شرکت‌ها به آسیب‌ کمک کرده‌اند، انجام داد.

انتهای پیام/

ارسال نظر