دیده بان پیشرفت علم، فناوری و نوآوری
توسط انگلیس انجام شد؛

انتشار ابزاری برای آزمایش ایمنی مدل‌های هوش مصنوعی

انتشار ابزاری برای آزمایش ایمنی مدل‌های هوش مصنوعی
مؤسسه ایمنی هوش مصنوعی انگلیس، مجموعه ابزاری به نام «اینسپکت» را با هدف «تقویت ایمنی هوش مصنوعی» منتشر کرد.
کد خبر : 910921

به گزارش خبرگزاری علم و فناوری آنا به نقل از تک کرانچ، مؤسسه ایمنی هوش مصنوعی انگلیس که به تازگی تأسیس شده است، مجموعه ابزاری به نام «اینسپکت» (Inspect) را با هدف «تقویت ایمنی هوش مصنوعی» منتشر کرده است که به صنعت، سازمان‌های تحقیقاتی و دانشگاه‌ها کمک می‌کند تا ارزیابی‌های هوش مصنوعی را توسعه دهند.

این مجموعه ابزار تحت یک لایسنس منبع باز، در دسترس قرار دارد قادر است توانایی‌های خاصی از مدل‌های هوش مصنوعی  از جمله دانش اصلی مدل‌ها و توانایی آنها در استدلال را ارزیابی کند.

مؤسسه ایمنی هوش مصنوعی در یک بیانیه مطبوعاتی ادعا کرد که «اینسپکت» برای نخستین بار به عنوان یک پلت فرم آزمون ایمنی هوش مصنوعی تحت حمایت دولت، به منظوراستفاده گسترده منتشر شده است.

یان هوگارت، رئیس موسسه ایمنی در بیانیه‌ای گفت: همکاری موفقیت‌آمیز در تست ایمنی هوش مصنوعی به معنای داشتن یک رویکرد مشترک و در دسترس برای ارزیابی است. ما امیدواریم که «اینسپکت» بتواند یک عنصر سازنده باشد. ما امیدواریم که جامعه جهانی هوش مصنوعی را با استفاده از «اینسپکت» نه تنها برای انجام آزمایش‌های ایمنی مدل خود، بلکه برای کمک به انطباق و ایجاد پلت‌فرم منبع باز ببینیم تا بتوانیم ارزیابی‌های با کیفیت بالا را در سراسر جهان تولید کنیم.»

معیار‌های هوش مصنوعی سخت هستند، از این رو به این دلیل که پیچیده‌ترین مدل‌های هوش مصنوعی امروز جعبه‌های سیاهی هستند که زیرساخت‌ها، داده‌های آموزشی و سایر جزئیات کلیدی مواردی هستند که توسط شرکت‌هایی که آنها را ایجاد می‌کنند پنهان نگه داشته می‌شوند؛ بنابراین «اینسپکت» با توسعه و گسترش روش‌های آزمایش جدید با این چالش مقابله می‌کند.

بازرسی از سه جزء اصلی تشکیل شده است: مجموعه داده‌ها، حل کننده‌ها و امتیاز دهنده ها. مجموعه داده‌ها نمونه‌هایی را برای آزمون‌های ارزیابی ارائه می‌دهند. حل کننده‌ها کار انجام تست‌ها را انجام می‌دهند؛ و امتیازدهندگان کار حل‌کننده‌ها را ارزیابی می‌کنند و نمرات را از آزمون‌ها به معیار‌ها تبدیل می‌کنند.

انتشار «اینسپکت» پس از آن صورت گرفت که یک سازمان دولتی موسسه ملی استاندارد و فناوری (NIST)، «نیست جن ای‌آی» (NIST GenAI) را برای ارزیابی فناوری‌های مختلف هوش مصنوعی از جمله مدل‌های تولیدکننده متن و تصویرراه‌اندازی کرد. «نیست جن ای‌آی» قصد دارد معیار‌هایی را منتشر کند، به ایجاد سیستم‌های تشخیص اصالت محتوا کمک کند و توسعه نرم‌افزاری را برای شناسایی اطلاعات جعلی یا گمراه‌کننده تولید شده توسط هوش مصنوعی تشویق کند.

در ماه آوریل، آمریکا و انگلیس به دنبال تعهدات اعلام شده در اجلاس ایمنی هوش مصنوعی انگلیس در بلچلی پارک، همکاری مشترکی برای توسعه آزمایش مدل پیشرفته هوش مصنوعی اعلام کردند. به عنوان بخشی از این همکاری، آمریکا قصد دارد مؤسسه ایمنی هوش مصنوعی خود را راه اندازی کند که به طور گسترده مسئولیت ارزیابی خطرات ناشی از هوش مصنوعی و هوش مصنوعی مولد را بر عهده خواهد داشت.

انتهای پیام/

ارسال نظر
قالیشویی ادیب