دیده بان پیشرفت علم، فناوری و نوآوری

تعهدات داوطلبانه غول‌های فناوری برای ایمنی هوش مصنوعی به کجا رسید؟

تعهدات داوطلبانه غول‌های فناوری برای ایمنی هوش مصنوعی به کجا رسید؟
شرکت‌های هوش مصنوعی یک سال پیش وعده داده بودند که برای افزایش ایمنی و شفافیت این فناوری اقداماتی داوطلبانه انجام دهند. حالا باید دید چه چیزی تغییر کرده است؟
کد خبر : 923635

خبرگزاری علم و فناوری آنا؛ یک سال پیش، در ۲۱ ژوئیه ۲۰۲۳، ۷ شرکت پیشرو هوش مصنوعی یعنی آمازون، آنتروپیک، گوگل، اینفلکشن، متا، مایکروسافت و اوپن ای‌آی با کاخ سفید به مجموعه‌ای از ۸ تعهد داوطلبانه در مورد چگونگی توسعه هوش مصنوعی در فضای امن و راه قابل اعتماد متعهد شدند.

اینها شامل وعده‌هایی برای انجام کار‌هایی مانند بهبود تست و شفافیت در مورد سیستم‌های هوش مصنوعی و به اشتراک گذاری اطلاعات در مورد مضرات و خطرات احتمالی بود.  

در اولین سالگرد تعهدات داوطلبانه، ام آی تی تکنولوژی ریویو از شرکت‌های هوش مصنوعی که این تعهدات را امضا کرده‌اند، خواست جزییاتی در مورد اقداماتی که تاکنون انجام داده‌اند را اعلام کند. پاسخ‌های آنها نشان می‌دهد که بخش فناوری با اخطار‌های بزرگ پیشرفت خوبی داشته است.

این تعهدات داوطلبانه زمانی اتفاق افتاد که شیدایی هوش مصنوعی مولد شاید در بالاترین حد خود بود، شرکت‌هایی که برای راه‌اندازی مدل‌های خود و بزرگ‌تر کردن و بهتر کردن آنها از رقبای خود رقابت می‌کردند. در همان زمان، شاهد تحولاتی مانند دعوا بر سر کپی رایت و دیپ فیک بودیم. لابی پرنفوذی از بازیگران تأثیرگذار فناوری، مانند جفری هینتون، همچنین این نگرانی را ایجاد کرده بود که هوش مصنوعی می‌تواند خطری وجودی برای بشریت ایجاد کند. ناگهان، همه در مورد نیاز فوری به ایمن سازی هوش مصنوعی صحبت می‌کردند و تنظیم کننده‌ها در همه جا تحت فشار قرار گرفتند تا کاری در مورد آن انجام دهند.

تا همین اواخر، توسعه هوش مصنوعی یک غرب وحشی بود. به طور سنتی، ایالات متحده از تنظیم مقررات غول‌های فناوری خود بیزار است، در عوض به دنبال خود تنظیمی آنهاست. تعهدات داوطلبانه نمونه خوبی از آن است: آنها برخی از نخستین قوانین تجویزی برای بخش هوش مصنوعی در ایالات متحده بودند، اما همچنان داوطلبانه و غیرقابل اجرا هستند. کاخ سفید از آن زمان فرمان اجرایی صادر کرده است که تعهدات را گسترش می‌دهد که شامل سایر شرکت‌های فناوری و ادارات دولتی می‌شود.  

مروه هیکوک، پژوهشگر و مدیر مرکز هوش مصنوعی و سیاست دیجیتال، می‌گوید: «یک سال پس از این اقدام، ما تعدادی از شیوه‌های خوب را در مورد محصولات هوش مصنوعی می‌بینیم، اما هنوز به جایی که  در مورد حکومت خوب یا حفاظت از حقوق نیاز داریم به طور کلی نرسیده‌ایم. او اضافه می‌کند که بسیاری از این شرکت‌ها همچنان به ادعا‌های غیر قابل اثبات در مورد محصولات خود ادامه می‌دهند، مانند اینکه می‌گویند آنها می‌توانند هوش و توانایی‌های انسانی را جایگزین کنند.  

یکی از گرایش‌هایی که از پاسخ‌های شرکت‌های فناوری پدیدار شد این است که شرکت‌ها بیشتر تلاش می‌کنند تا به دنبال اصلاح‌های فنی مانند «تیم قرمز» (Red-team)، که در آن انسان‌ها مدل‌های هوش مصنوعی را برای نقص‌ها بررسی می‌کنند، و واترمارک برای محتوای تولید شده توسط هوش مصنوعی انجام دهند.  

ریشی بوماسانی، سرپرست انجمن در مرکز تحقیقات مدل‌های بنیادی استنفورد، می‌گوید:، اما مشخص نیست که تعهدات چه چیزی تغییر کرده‌اند و آیا شرکت‌ها به هر حال این اقدامات را اجرا می‌کنند یا خیر.

یک سال در هوش مصنوعی زمان زیادی است. از زمان امضای تعهدات داوطلبانه، مصطفی سلیمان بنیانگذار هوش مصنوعی اینفلکشن شرکت را ترک کرد و به مایکروسافت پیوست تا تلاش‌های هوش مصنوعی شرکت را رهبری کند. اینفلکشن از اظهار نظر خودداری کرد.  

رابین پترسون، سخنگوی کاخ سفید می‌گوید: ما از پیشرفتی که شرکت‌های پیشرو در راستای اجرای تعهدات داوطلبانه خود علاوه بر آنچه در فرمان اجرایی لازم است، انجام داده‌اند، سپاسگزاریم. اما، پترسون اضافه می‌کند، رئیس‌جمهور همچنان از کنگره می‌خواهد تا قوانین دو حزبی در مورد هوش مصنوعی را تصویب کند.  

برندی نونک، مدیر آزمایشگاه سیاست CITRIS در دانشگاه برکلی، می‌گوید بدون قوانین جامع فدرال، بهترین کاری که ایالات متحده در حال حاضر می‌تواند انجام دهد این است که از شرکت‌ها بخواهد این تعهدات داوطلبانه را انجام دهند.  

انتهای پیام/

ارسال نظر
هلدینگ شایسته