نهادی نوپا برای نظارت بر توسعه مدلهای هوش مصنوعی تشکیل شد
به گزارش خبرنگار خبرگزاری علم و فناوری آنا، چهار شرکت تأثیرگذار در زمینه هوش مصنوعی از تشکیل نهادی صنعتی برای نظارت بر توسعه ایمن پیشرفتهترین مدلها خبر دادهاند که ازانجمن مدل مرزی توسط توسعهدهنده چت جیپیتی، اپن ایآی، آنتروپ، مایکروسافت و گوگل، مالک دین مایند در بریتانیا تشکیلشده است.
این گروه با اشاره به فناوری هوش مصنوعی حتی پیشرفتهتر از نمونههای موجود گفت: بر توسعه ایمن و مسئولانه مدلهای هوش مصنوعی مرزی تمرکز خواهد کرد.
برد اسمیت، رئیس مایکروسافت گفت: شرکتهایی که فناوری هوش مصنوعی را ایجاد میکنند، مسئولیت دارند اطمینان حاصل کنند که این فناوری ایمن و تحت کنترل انسان است.
اعضای این انجمن گفتند: اهداف اصلی آنها ترویج تحقیقات در زمینه ایمنی هوش مصنوعی، مانند توسعه استانداردهای ارزیابی مدلها، تشویق به استقرار مسئولانه مدلهای پیشرفته هوش مصنوعی، بحث درباره خطرات اعتماد و ایمنی در هوش مصنوعی با سیاستمداران و دانشگاهیان، و کمک به توسعه کاربردهای مثبت برای هوش مصنوعی مانند مبارزه با بحران آبوهوا و تشخیص سرطان است.
آنها افزودند: عضویت در این گروه برای سازمانهایی که مدلهای مرزی را توسعه میدهند آزاد است و بهعنوان مدلهای یادگیری ماشین در مقیاس بزرگ تعریف میشود که از قابلیتهای موجود در پیشرفتهترین مدلهای موجود فراتر میرود و میتواند طیف گستردهای از وظایف را انجام دهد.
این خبر در حالی اعلام میشود که اقدامات برای تنظیم سرعت این فناوری در حال افزایش است. روز جمعه شرکتهای فناور از جمله اعضای مؤسس فروم مدل مرزی پس از جلسه کاخ سفید با جو بایدن با حفاظتهای جدید هوش مصنوعی موافقت کردند. اهداف این جلسه شامل بررسی محتوای هوش مصنوعی برای آسانتر کردن تشخیص مطالب گمراهکننده مانند دیپ فیک و اجازه دادن به کارشناسان مستقل برای آزمایش مدلهای هوش مصنوعی بود.
اعلامیه کاخ سفید با شک و تردید برخی فعالان مواجه شد که میگفتند صنعت فناوری سابقه عدم پایبندی به تعهدات تنظیم گری را دارد. بیانیه هفته گذشته متا مبنی بر انتشار یک مدل هوش مصنوعی برای عموم توسط یکی از کارشناسان کمی شبیه دادن الگو به مردم برای ساخت بمب هستهای توصیف شد.
اعلامیه این انجمن به کمکهای مهمی اشاره دارد که توسط نهادهای ازجمله دولت بریتانیا که یک نشست جهانی در مورد ایمنی هوش مصنوعی برگزار کرده است و اتحادیه اروپا یک قانون هوش مصنوعی را معرفی میکند که نشاندهنده جدیترین تلاش قانونی برای تنظیم این فناوری است.
اندرو روگویسکی از موسسه هوش مصنوعی مردم محور در دانشگاه سوری میگوید: نظارت برهوش مصنوعی نباید تحت تأثیر ثبت قانونی قرار بگیرد که بهموجب آن نگرانیهای شرکتها بر فرآیند نظارتی حاکم میشود.
وی افزود: من نگرانیهای جدی دارم که دولتها رهبری هوش مصنوعی را به بخش خصوصی واگذار کردهاند، احتمالاً بهطور غیرقابل جبرانی این یک فناوری قدرتمند با پتانسیل بالا نیاز به نظارت مستقلی دارد.
انتهای پیام/