دیده بان پیشرفت علم، فناوری و نوآوری

نهادی نوپا برای نظارت بر توسعه مدل‌های هوش مصنوعی تشکیل شد

نهادی نوپا برای نظارت بر توسعه مدل‌های هوش مصنوعی تشکیل شد
چهار شرکت تأثیرگذار در زمینه هوش مصنوعی برای نظارت بر توسعه ایمن پیشرفته‌ترین مدل‌های هوش مصنوعی نهاد نظارتی نوپا تشکیل دادند.
کد خبر : 860395

به گزارش خبرنگار خبرگزاری علم و فناوری آنا، چهار شرکت تأثیرگذار در زمینه هوش مصنوعی از تشکیل نهادی صنعتی برای نظارت بر توسعه ایمن پیشرفته‌ترین مدل‌ها خبر داده‌اند که ازانجمن مدل مرزی توسط توسعه‌دهنده چت جی‌پی‌تی، اپن ‌ای‌آی، آنتروپ، مایکروسافت و گوگل، مالک دین مایند در بریتانیا تشکیل‌شده است.

این گروه با اشاره به فناوری هوش مصنوعی حتی پیشرفته‌تر از نمونه‌های موجود گفت: بر توسعه ایمن و مسئولانه مدل‌های هوش مصنوعی مرزی تمرکز خواهد کرد.

برد اسمیت، رئیس مایکروسافت گفت: شرکت‌هایی که فناوری هوش مصنوعی را ایجاد می‌کنند، مسئولیت دارند اطمینان حاصل کنند که این فناوری ایمن و تحت کنترل انسان است.

اعضای این انجمن گفتند: اهداف اصلی آن‌ها ترویج تحقیقات در زمینه ایمنی هوش مصنوعی، مانند توسعه استاندارد‌های ارزیابی مدل‌ها، تشویق به استقرار مسئولانه مدل‌های پیشرفته هوش مصنوعی، بحث درباره خطرات اعتماد و ایمنی در هوش مصنوعی با سیاستمداران و دانشگاهیان، و کمک به توسعه کاربرد‌های مثبت برای هوش مصنوعی مانند مبارزه با بحران آب‌وهوا و تشخیص سرطان است.
 
آن‌ها افزودند: عضویت در این گروه برای سازمان‌هایی که مدل‌های مرزی را توسعه می‌دهند آزاد است و به‌عنوان مدل‌های یادگیری ماشین در مقیاس بزرگ تعریف می‌شود که از قابلیت‌های موجود در پیشرفته‌ترین مدل‌های موجود فراتر می‌رود و می‌تواند طیف گسترده‌ای از وظایف را انجام دهد.

این خبر در حالی اعلام می‌شود که اقدامات برای تنظیم سرعت این فناوری در حال افزایش است. روز جمعه شرکت‌های فناور از جمله اعضای مؤسس فروم مدل مرزی پس از جلسه کاخ سفید با جو بایدن با حفاظت‌های جدید هوش مصنوعی موافقت کردند. اهداف این جلسه شامل بررسی محتوای‌ هوش مصنوعی برای آسان‌تر کردن تشخیص مطالب گمراه‌کننده مانند دیپ فیک و اجازه دادن به کارشناسان مستقل برای آزمایش مدل‌های‌ هوش مصنوعی بود.
 
اعلامیه کاخ سفید با شک و تردید برخی فعالان مواجه شد که می‌گفتند صنعت فناوری سابقه عدم پایبندی به تعهدات  تنظیم گری را دارد. بیانیه هفته گذشته متا مبنی بر انتشار یک مدل هوش مصنوعی برای عموم توسط یکی از کارشناسان کمی شبیه دادن الگو به مردم برای ساخت بمب هسته‌ای توصیف شد.

اعلامیه این انجمن به کمک‌های مهمی اشاره دارد که توسط نهاده‌ای ازجمله دولت بریتانیا که یک نشست جهانی در مورد ایمنی هوش مصنوعی برگزار کرده است و اتحادیه اروپا یک قانون هوش مصنوعی را معرفی می‌کند که نشان‌دهنده جدی‌ترین تلاش قانونی برای تنظیم این فناوری است.
 
اندرو روگویسکی از موسسه هوش مصنوعی مردم محور در دانشگاه سوری می‌گوید: نظارت برهوش مصنوعی نباید تحت تأثیر ثبت قانونی قرار بگیرد که به‌موجب آن نگرانی‌های شرکت‌ها بر فرآیند نظارتی حاکم می‌شود.

وی افزود: من نگرانی‌های جدی دارم که دولت‌ها رهبری هوش مصنوعی را به بخش خصوصی واگذار کرده‌اند، احتمالاً به‌طور غیرقابل جبرانی این‌ یک فناوری قدرتمند با پتانسیل بالا نیاز به نظارت مستقلی دارد.

انتهای پیام/

ارسال نظر
قالیشویی ادیب