انتشار ابزاری برای آزمایش ایمنی مدلهای هوش مصنوعی
به گزارش خبرگزاری علم و فناوری آنا به نقل از تک کرانچ، مؤسسه ایمنی هوش مصنوعی انگلیس که به تازگی تأسیس شده است، مجموعه ابزاری به نام «اینسپکت» (Inspect) را با هدف «تقویت ایمنی هوش مصنوعی» منتشر کرده است که به صنعت، سازمانهای تحقیقاتی و دانشگاهها کمک میکند تا ارزیابیهای هوش مصنوعی را توسعه دهند.
این مجموعه ابزار تحت یک لایسنس منبع باز، در دسترس قرار دارد قادر است تواناییهای خاصی از مدلهای هوش مصنوعی از جمله دانش اصلی مدلها و توانایی آنها در استدلال را ارزیابی کند.
مؤسسه ایمنی هوش مصنوعی در یک بیانیه مطبوعاتی ادعا کرد که «اینسپکت» برای نخستین بار به عنوان یک پلت فرم آزمون ایمنی هوش مصنوعی تحت حمایت دولت، به منظوراستفاده گسترده منتشر شده است.
یان هوگارت، رئیس موسسه ایمنی در بیانیهای گفت: همکاری موفقیتآمیز در تست ایمنی هوش مصنوعی به معنای داشتن یک رویکرد مشترک و در دسترس برای ارزیابی است. ما امیدواریم که «اینسپکت» بتواند یک عنصر سازنده باشد. ما امیدواریم که جامعه جهانی هوش مصنوعی را با استفاده از «اینسپکت» نه تنها برای انجام آزمایشهای ایمنی مدل خود، بلکه برای کمک به انطباق و ایجاد پلتفرم منبع باز ببینیم تا بتوانیم ارزیابیهای با کیفیت بالا را در سراسر جهان تولید کنیم.»
معیارهای هوش مصنوعی سخت هستند، از این رو به این دلیل که پیچیدهترین مدلهای هوش مصنوعی امروز جعبههای سیاهی هستند که زیرساختها، دادههای آموزشی و سایر جزئیات کلیدی مواردی هستند که توسط شرکتهایی که آنها را ایجاد میکنند پنهان نگه داشته میشوند؛ بنابراین «اینسپکت» با توسعه و گسترش روشهای آزمایش جدید با این چالش مقابله میکند.
بازرسی از سه جزء اصلی تشکیل شده است: مجموعه دادهها، حل کنندهها و امتیاز دهنده ها. مجموعه دادهها نمونههایی را برای آزمونهای ارزیابی ارائه میدهند. حل کنندهها کار انجام تستها را انجام میدهند؛ و امتیازدهندگان کار حلکنندهها را ارزیابی میکنند و نمرات را از آزمونها به معیارها تبدیل میکنند.
انتشار «اینسپکت» پس از آن صورت گرفت که یک سازمان دولتی موسسه ملی استاندارد و فناوری (NIST)، «نیست جن ایآی» (NIST GenAI) را برای ارزیابی فناوریهای مختلف هوش مصنوعی از جمله مدلهای تولیدکننده متن و تصویرراهاندازی کرد. «نیست جن ایآی» قصد دارد معیارهایی را منتشر کند، به ایجاد سیستمهای تشخیص اصالت محتوا کمک کند و توسعه نرمافزاری را برای شناسایی اطلاعات جعلی یا گمراهکننده تولید شده توسط هوش مصنوعی تشویق کند.
در ماه آوریل، آمریکا و انگلیس به دنبال تعهدات اعلام شده در اجلاس ایمنی هوش مصنوعی انگلیس در بلچلی پارک، همکاری مشترکی برای توسعه آزمایش مدل پیشرفته هوش مصنوعی اعلام کردند. به عنوان بخشی از این همکاری، آمریکا قصد دارد مؤسسه ایمنی هوش مصنوعی خود را راه اندازی کند که به طور گسترده مسئولیت ارزیابی خطرات ناشی از هوش مصنوعی و هوش مصنوعی مولد را بر عهده خواهد داشت.
انتهای پیام/