دیده بان پیشرفت علم، فناوری و نوآوری

مدل‌های هوش مصنوعی زیر ذره‌بین کمیته ایمنی اپن ای‌آی

مدل‌های هوش مصنوعی زیر ذره‌بین کمیته ایمنی اپن ای‌آی
اپن ای‌آی اعلام کرد که کمیته ایمنی این شرکت به عنوان یک نهاد مستقل بر فرایندهای امنیتی و ایمنی توسعه و استقرار مدل هوش مصنوعی این شرکت نظارت خواهد کرد.
کد خبر : 932076

به گزارش خبرگزاری علم و فناوری آنا به نقل از رویترز، شرکت اپن ای‌آی اعلام کرد که کمیته ایمنی این شرکت به عنوان یک نهاد مستقل بر فرایند‌های امنیتی و ایمنی توسعه و استقرار مدل هوش مصنوعی این شرکت نظارت خواهد کرد.

این تغییربه دنبال توصیه‌های خود کمیته به هیئت مدیره اپن ای‌آی صورت گرفته است که برای اولین بار به صورت عمومی منتشر می‌شود.

اپن ای‌آی، شرکت پشت پرده چت بات چت جی‌پی‌تی، ماه مه امسال کمیته ایمنی و امنیت خود را برای ارزیابی و توسعه بیشتر شیوه‌های ایمنی موجود این شرکت تشکیل داد.

عرضه چت جی‌پی‌تی در اواخر سال ۲۰۲۲ موج قابل توجهی از علاقه و هیجان را پیرامون هوش مصنوعی برانگیخت.

شایعات پیرامون چت جی‌پی‌تی فرصت‌ها و چالش‌های هوش مصنوعی را برجسته کرد و بحث‌هایی را  در مورد استفاده اخلاقی و سوگیری‌های احتمالی آن ایجاد کرد.


به عنوان بخشی از توصیه‌های این کمیته، اپن ای‌آی گفت که در حال ارزیابی توسعه مرکز به اشتراک گذاری و تحلیل اطلاعات (ISAC) برای صنعت هوش مصنوعی است تا امکان به اشتراک گذاری اطلاعات تهدید و امنیت سایبری را در میان نهاد‌های بخش هوش مصنوعی فراهم کند.

ریاست این کمیته مستقل را زیکو کولتر، استاد و مدیر بخش یادگیری ماشین در دانشگاه کارنگی ملون که عضو هیِت مدیره اپن ای‌آی است، بر عهده خواهد داشت.

به گفته اپن ای‌آی، ما به دنبال بخش بندی گسترده اطلاعات داخلی، نیروی انسانی بیشتر برای تعمیق تیم‌های عملیات امنیتی ۲۴ ساعته هستیم.

این شرکت همچنین گفت که برای شفاف‌تر شدن در مورد قابلیت‌ها و خطرات مدل‌های هوش مصنوعی خود تلاش خواهد کرد.

ماه گذشته، اپن ای‌آی قراردادی با دولت ایالات متحده آمریکا برای تحقیق، آزمایش و ارزیابی مدل‌های هوش مصنوعی این شرکت امضا کرد.

انتهای پیام/

ارسال نظر
قالیشویی ادیب