صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

قانون‌گذاری چین در زمینه هوش مصنوعی با تمرکز بر کنترل محتوا/ شرکت‌های فعال باید مجوز بگیرند

اداره فضای سایبری چین قصد دارد سیستمی ایجاد کند که شرکت‌ها را قبل از انتشار سیستم‌های هوش مصنوعی مولد مجبور به دریافت مجوز می‌کند.
کد خبر : 857468

به گزارش خبرنگار خبرگزاری علم و فناوری آنا، چین قرار است قوانینی برای هوش مصنوعی مولد وضع کند؛ زیرا پکن به دنبال ایجاد تعادل در تشویق شرکت‌های محلی به توسعه فناوری‌های انقلابی در مقابل تمایل آن به کنترل محتواست.

به گفته دو فرد نزدیک به رگولاتورها، اداره فضای مجازی چین، ناظر قدرتمند اینترنت، قصد دارد سیستمی ایجاد کند که شرکت‌ها را مجبور می‌کند قبل از انتشار سیستم‌های هوش مصنوعی مولد مجوز بگیرند. این الزام پیش‌نویس مقررات صادرشده در ماه آوریل را تشدید می‌کند که فضای بیشتری را برای مانور در اختیار شرکت‌ها قرار داده بود، چرا که گروه‌ها ۱۰ روز کاری فرصت داشتند تا محصول خود را پس از عرضه، در سازمان مربوطه ثبت کنند. قوانین جدید صدور مجوز، بخشی از مقرراتی است که به گفته افراد مطلع از این حرکت، اوایل ماه جاری میلادی نهایی می‌شود.

قانون‌گذاری هوش مصنوعی با تمرکز بر کنترل محتوا

چین به دنبال پاسخگویی به ظهور سیستم‌های هوش مصنوعی مولد است که در پاسخ به درخواست‌های ساده به‌سرعت متن، تصاویر و سایر محتوا‌های انسانی را ایجاد می‌کنند. طبق پیش‌نویس قوانین ماه آوریل، محتوا‌ها نباید حاوی چیزی باشد که قدرت دولتی را زیر پا بگذارد، از سرنگونی نظام سوسیالیستی حمایت کند، کشور را تحریک کند یا وحدت ملی را تضعیف کند. دو نفر دیگر از نزدیکان به رگولاتور‌ها گفتند که شرکت‌هایی مانند بایدو و علی بابا که امسال برنامه‌های هوش مصنوعی مولد را عرضه کردند، در چند ماه گذشته با تنظیم کننده‌ها در تماس بوده‌اند تا اطمینان حاصل کنند که هوش مصنوعی آن‌ها قوانین را نقض نمی‌کند.

ژوانگ رونگ ون، رئیس اداره فضای سایبری چین (CAC) اخیراً گفت که این سازمان باید اطمینان حاصل کند که هوش مصنوعی قابل اعتماد و قابل کنترل است، زیرا پکن نگران داده‌های استفاده شده توسط هوش مصنوعی است.

آنجلا ژانگ، دانشیار حقوق در دانشگاه هنگ کنگ گفت: اقدامات نظارتی چین در درجه اول بر کنترل محتوا متمرکز است. دولت‌ها و مقامات دیگر در حال تلاش برای وضع قوانین علیه سوء استفاده‌های احتمالی از این فناوری هستند.

نظارت بر داده‌های آموزش مدل‌های هوش مصنوعی

اتحادیه اروپا برخی از سخت‌ترین قوانین را در جهان پیشنهاد داده است که باعث اعتراض شرکت‌ها و مدیران اجرایی منطقه شده است، در حالی که واشنگتن در حال بحث در مورد اقداماتی برای کنترل هوش مصنوعی است و بریتانیا بازبینی قوانین را آغاز کرده است.

پیش‌نویس مقررات آوریل در چین الزامات داده‌هایی را که شرکت‌های فناوری برای آموزش مدل‌های هوش مصنوعی مولد با تقاضای خاص برای اطمینان از «صحت، دقت، عینیت و تنوع» به کار می‌برند، تعیین کرده است. این الزام نشان می‌دهد که چین مسیری مشابه اروپا را در پیش گرفته است؛ جایی که کیفیت داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی یکی از حوزه‌های کلیدی بررسی نظارتی است.

مت شیهان، یکی از همکاران مؤسسه موقوفه کارنگی، گفت: با این حال، پکن نیاز خود را بسیار بالاتر قرار داده است. این بدان معنی است که شرکت‌های چینی باید تلاش بیشتری برای فیلتر کردن نوع داده‌های مورد استفاده برای آموزش هوش مصنوعی صرف کنند. با این حال، فقدان داده‌های موجود متناسب با این خواسته‌ها، به گلوگاهی تبدیل شده است که بسیاری از شرکت‌ها را از توسعه و بهبود به اصطلاح مدل‌های زبان بزرگ، فناوری زیربنایی چت‌بات‌هایی مانند «چت جی‌پی‌تی» و «گوگل بارد» محدود می‌کند.

مسئولیت محتوا با شرکت‌های ارائه دهنده هوش مصنوعی است

هلن تونر، مدیر استراتژی و کمک هزینه‌های تحقیقاتی بنیادی در مرکز امنیت و فناوری‌های نوظهور دانشگاه جورج تاون، گفت: کسب و کار‌ها احتمالاً در مورد آنچه [هوش مصنوعی] می‌سازد محتاط‌تر و محافظه‌کارتر هستند، زیرا عواقب نقض قوانین می‌تواند شدید باشد.

به گفته تونر، مقامات چینی در پیش‌نویس مقررات خود اشاره کردند که گروه‌های فناوری که یک مدل هوش مصنوعی را تولید می‌کنند تقریباً به طور کامل مسئولیت هر محتوای ایجادشده را بر عهده خواهند داشت، اقدامی که باعث می‌شود شرکت‌ها کمتر تمایلی به عرضه مدل‌های خود داشته باشند، زیرا ممکن است آن‌ها مسئول مشکلات خارج از کنترل خود باشند.

انتهای پیام/

ارسال نظر