هوش مصنوعی با اخلاق توسعه مییابد
به گزارش خبرگزاری علم و فناوری آنا به نقل از سیجیتیان، هشت شرکت جهانی فناوری از جمله لنوو و مایکروسافت متعهد شدند که هوش مصنوعی اخلاق مدار را مطابق با چارچوب سازمان ملل توسعه دهند؛ این شرکتها ز جمله شرکتهایی هستند که به عنوان متعهدان، در راستای ساخت و استفاده از هوش مصنوعی با اخلاق تلاش خواهند کرد.
شرکتهای فناوری مذکور در دومین مجمع جهانی سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد (یونسکو) درباره اخلاق هوش مصنوعی در شهر کرانج اسلوونی توافق نامهای امضا کردند.
آدری آزولای، مدیر کل یونسکو، این اقدام را «گام بزرگ دیگری» با اخذ «تعهد ملموس» از شرکتهای جهانی فناوری توصیف کرد.
وی گفت، یونسکو در نوامبر سال ۲۰۲۱ بین همه کشورهای عضو خود اجماع ایجاد کرد تا نخستین چارچوب جهانی اخلاقی را برای استفاده از هوش مصنوعی اتخاذ کند.
آزولای از همه شرکتهای فناوری خواست تا از این هشت شرکت الگوبرداری کنند و اتحاد بخشهای دولتی و خصوصی را در ایجاد هوش مصنوعی برای منافع عمومی تشویق کرد.
این توافقنامه شرکتها را مجبور میکند تا به طور کامل نقش خود را در تضمین حقوق بشر در طراحی، توسعه، خرید، فروش و استفاده از هوش مصنوعی ایفا کنند.
همچنین نیازمند دقت لازم برای رعایت استانداردهای ایمنی و شناسایی اثرات نامطلوب هوش مصنوعی، در کنار اقدامات به موقع برای پیشگیری، کاهش یا اصلاح چنین اثراتی مطابق با قوانین داخلی است.
توصیه یونسکو در مورد اخلاقیات هوش مصنوعی اولین توصیه در جهان بود و تنها چارچوب آن در زمینه هوش مصنوعی باقی مانده است. در دو سال گذشته بیش از ۵۰ کشور در اجرای آن و همکاریهای چند جانبه در این زمینه مشارکت داشتهاند.
هدف اصلی این توافق، تامین اعتماد عمومی و احترام به حقوق انسانی در توسعه و استفاده از هوش مصنوعی است.
این شرکتها علاوه بر توسعه فناوری هوش مصنوعی دستور کارهای زیر را دارند:
۱. بهرهگیری از رویکردها و الگوریتمهای انسانمند: شرکتها به جهت ایجاد سیستمها و الگوریتمهایی که به مرور زمان با تجربه و آموزش از انسانها یاد بگیرند و توانایی پذیرش اختلافات فرهنگی را داشته باشند تلاش خواهند کرد.
۲. افزایش شفافیت: همکاری با دیگر شرکتها و ارائه اطلاعاتی در مورد معیارها و ملاحظات اخلاقی که در توسعه هوش مصنوعی استفاده میشود تا اعتماد عمومی را بیشتر کنند.
۳. ارزیابی تأثیرات اجتماعی: شرکتها سعی خواهند کرد تا از تأثیرات اجتماعی ناخواسته این فناوری جلوگیری کنند و مسئولیت اجتماعی خود را در توسعه و استفاده از این فناوری برعهده گیرند.
انتهای پیام/