صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
آنا گزارش می‌دهد؛

صفر تا صد قوانین هوش مصنوعی اتحادیه اروپا؛ از ممنوعیت‌ها تا زمان اجرا

پارلمان اتحادیه اروپا و کشور‌های عضو درباره پیش‌نویس قانون جدید هوش مصنوعی به توافق رسیده‌اند که گامی مهم به سوی مقررات جامع برای هوش مصنوعی است.  
کد خبر : 884093

به گزارش خبرگزاری علم و فناوری آنا به نقل از دویچه وله، هدف از قانون‌گذاری در این زمینه، دستیابی به هوش مصنوعیِ قابل فهم، شفاف، منصفانه، امن و سازگار با محیط‌ زیست است. این مقررات مانع از فرصت‌های توسعه استارت‌آپ‌های هوش مصنوعی نمی‌شود.

درباره چه چیزی قانون‌گذاری شد؟

تعریف اتحادیه اروپا از هوش مصنوعی به دوراز جانبداری و با در نظر گرفتن تحولات آینده تدوین شده است. بر اساس پیش‌نویس این قانون، ریسک محصولات هوش مصنوعی به چهار دسته طبقه‌بندی می‌شوند: ممنوع، دارای ریسک بالا، هوش مصنوعی مولد و با ریسک محدود.

ممنوعه‌ها

سیستم‌هایی که سبب اقدامات خطرناک می‌شوند یا افراد را وادار به تغییر رفتار غیرعادی می‌کنند در رده ممنوعه‌ها هستند. برای مثال، اسباب‌بازی‌هایی که کودکان را ترغیب به انجام کار‌های خطرناک می‌کنند. مورد ممنوعه دیگر، سیستم‌هایی هستند که با تشخیص زیست‌سنجی فوری و بر اساس ویژگی‌هایی، چون جنسیت، رنگ پوست یا نژاد به طبقه‌بندی افراد می‌پردازند.

ریسک بالا با مجوز

برنامه‌های هوش مصنوعی که ریسک بالایی دارند، قبل از ورود به بازار باید تأیید شوند، مورد بازبینی قرار بگیرند و مجوز دریافت کنند. این برنامه‌های پرخطر شامل خودرو‌های خودران، فناوری پزشکی، تامین انرژی، حمل و نقل هوایی و اسباب بازی‌ها هستند.

نظارت بر مرزها، کنترل مهاجرت، اقدامات پلیسی، مدیریت کارکنان شرکت‌ها و ثبت داده‌های زیست‌سنجی در کارت‌های شناسایی نیز در همین طبقه‌بندی قرار می‌گیرند.

هوش مصنوعی مولد

طبق گفته قانونگذاران اتحادیه اروپا، سیستم‌هایی که محتوای جدید تولید می‌کنند و حجم وسیعی از داده‌ها را تجزیه‌و‌تحلیل می‌کنند، مانند محصولات هوش مصنوعی مولد با چت جی‌پی‌تی اُپن ای‌آی، خطر متوسطی دارند.

شرکت‌ها موظف هستند در مورد شیوه عملکرد هوش مصنوعی خود و چگونگی جلوگیری از تولید محتوای غیرقانونی شفاف باشند. آن‌ها همچنین باید نحوه آموزش هوش مصنوعی و داده‌های دارای حق نشر را افشا کنند. برای مثال، تمام محتوای تولید شده با چت جی‌پی‌تی باید برچسب‌گذاری شود.

ریسک محدود

برنامه‌هایی هستند که ویدیو، صدا یا عکس را دستکاری می‌کنند و نیز برنامه‌های خدمات مشتریان در گروه ریسک محدود قرار می‌گیرند. موارد مربوط به «جعل عمیق» (deep fake) که در بسیاری از رسانه‌های اجتماعی رایج هستند نیز در این گروه طبقه‌بندی می‌شوند. برنامه‌های خدمات مشتریان نیز به این گروه تعلق دارند و مشمول حداقل قوانین شفافیت می‌شوند.

فقط کافی است که کاربران آگاه شوند که با برنامه هوش مصنوعی در تعامل هستند و نه با انسان. سپس می‌توانند خودشان درباره ادامه این تعامل تصمیم‌گیری کنند.

قانون جدید چه زمانی اجرایی می‌شود؟

کمیسیون اروپا، پارلمان و شورای وزیران درباره پیش‌نویس اولیه قانون هوش مصنوعی به توافق رسیده‌اند. انتظار می‌رود این قانون در آوریل ۲۰۲۴ به طور رسمی تصویب شود و کشور‌های عضو دو سال فرصت دارند تا آن را به قوانین ملی تبدیل کنند

مقایسه با کشور‌های دیگر

ایالات متحده، بریتانیا و ۲۰ کشور دیگر قوانین و توصیه‌هایی را برای حفاظت از داده‌ها در حوزه هوش مصنوعی وضع کرده‌اند، اما هیچ‌کدام از آن‌ها به لحاظ قانونی الزام‌آور نیستند. انتظار می‌رود شرکت‌های بزرگ فناوری که در حوزه هوش مصنوعی کار می‌کنند، نظارت داوطلبانه دشته باشند. در چین، استفاده از هوش مصنوعی برای مشتریان و شرکت‌های خصوصی به شدت محدود شده است، برای مثال چت جی‌پی‌تی در چین در دسترس نیست.

انتهای پیام/

ارسال نظر