صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

سلامت

پژوهش

علم +

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

ورزش

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری

یک بام و دو هوای خالق چت جی‌پی‌تی در قانون‌گذاری هوش مصنوعی

شرکت اوپن ای‌آی که پیش از این خواستار وضع قوانین سخت‌گیرانه علیه هوش مصنوعی بود، در تعامل با اتحادیه اروپا به دنبال کاهش بار نظارتی قوانین بر شرکت‌های ارائه دهنده خدمات هوش مصنوعی است.
کد خبر : 854086

به گزارش خبرنگار خبرگزاری علم و فناوری آنا به نقل از تایم، «سم آلتمن»، مدیرعامل شرکت «اوپن‌ ای‌آی» (OpenAI)، ماه گذشته را در پایتخت‌های جهان گذرانده و با جمعیت حاضر و در جلساتی با سران دولت‌ها، بار‌ها از نیاز به مقررات جهانی هوش مصنوعی سخن گفته است.

در پشت صحنه قانون‌گذاری هوش مصنوعی چه خبر است؟

اما در پشت صحنه، اوپن‌‌ای‌آی برای قانون هوش مصنوعی در جهان بر اساس تعامل با اتحادیه اروپا، بار نظارتی بر شرکت را کاهش داده است. اوپن ای‌آی اصلاحاتی را پیشنهاد داده که در متن نهایی قانون اتحادیه اروپا که در ۱۴ ژوئن به تصویب پارلمان اروپا رسید، اعمال شد و اکنون پیش از نهایی شدن در ماه ژانویه، به دور نهایی مذاکرات می‌رود.

در سال ۲۰۲۲، اوپن ای‌آی بار‌ها برای مقامات اروپایی استدلال کرده که قانون آینده هوش مصنوعی نباید سیستم‌های هوش مصنوعی از جمله «جی‌پی‌تی-GPT-۳) «۳)، «چت جی‌پی‌تی» (ChatGPT) و مولد‌های تصویر را پر خطر در نظر بگیرند. آن‌ها نباید در معرض قانون‌های سخت‌گیرانه‌ای از جمله شفافیت، قابلیت ردیابی و نظارت انسانی قرار داده شوند.

قوانین سخت‌گیرانه برای ابزارهای پرخطر هوش مصنوعی 

این استدلال اوپن‌ای‌آی با مایکروسافت که ۱۳ میلیارد دلار در آزمایشگاه هوش مصنوعی سرمایه‌گذاری کرده هماهنگ است. مقامات، طرفدار کاهش بار نظارتی بر روی ارائه دهندگان بزرگ هوش مصنوعی هستند. هر دو شرکت استدلال کرده‌اند که قوانین سخت‌گیرانه باید بر دوش شرکت‌هایی باشد که قصد دارند از هوش مصنوعی در موارد پرخطر استفاده کنند، نه شرکت‌هایی که سیستم‌های هوش مصنوعی عمومی می‌سازند.

اپن‌ ای‌آی در سند هفت صفحه‌ای در مورد قانون هوش مصنوعی اتحادیه اروپا برای مقامات کمیسیون و شورا گفته است که «به خودی خود، جی‌پی‌تی-۳ یک سیستم پرخطر نیست؛ اما دارای قابلیت‌هایی است که می‌تواند در موارد خطرآفرین به کار گرفته شود.»

اپن‌‌ای‌آی در ماه مه به خبرنگاران در لندن گفته است که «در صورتی که خود را قادر به پیروی از این مقررات نداند، می‌تواند تصمیم به توقف فعالیت در اروپا بگیرد که احتمالا با انتقادات زیادی مواجه می‌شود.» البته او این هشدار را پس گرفت و گفت که شرکتش هیچ برنامه‌ای برای ترک اروپا ندارد و قصد همکاری با این اتحادیه را دارد.

با این حال، به نظر می‌رسد که تلاش اپن‌‌ای‌آی موفقیت آمیز بوده است. پیش نویس نهایی قانون تصویب شده توسط قانون گذاران اتحادیه اروپا حاوی عبارات موجود در پیش نویس‌های قبلی نبود که نشان می‌داد هدف کلی سیستم‌های هوش مصنوعی ذاتا پرخطر هستند. در عوض در این پیش نویس خواسته شده از تولید محتوای غیرقانونی جلوگیری شود و اینکه یک سیستم بر روی مطالب دارای حق کپی رایت آموزش دیده باشد.

منفعت عمومی یا منافع مالی شرکت‌های بزرگ فناوری؟

«سارا چاندر»، مشاور ارشد سیاست در حقوق دیجیتال اروپا و کارشناس این قانون درباره مقاله سفید اپن‌‌ای‌آی معتقد است که «آن‌ها آنچه را که می‌خواستند، دریافت کردند. این سند نشان می‌دهد که اپن‌ای‌آی، مانند بسیاری از شرکت‌های بزرگ فناوری، از بحث سودمندی و منفعت عمومی هوش مصنوعی برای پنهان کردن منافع مالی خود در کاهش مقررات استفاده کرده است.»

یکی از سخنگویان اپن‌‌ای‌آی در بیانیه‌ای اعلام کرده است که «به درخواست سیاست گذاران در اتحادیه اروپا ما یک مرور کلی از رویکرد خود را برای استقرار ایمن سیستم‌هایی مانند جی‌پی‌تی-۳ ارائه کردیم. براساس آن تجربه در مورد پیش نویس قانون هوش مصنوعی اظهار نظر کردیم. از آن زمان، قانون هوش مصنوعی به طور قابل توجهی تکامل یافته است. با همکاری سیاست گذاران ادامه می‌دهیم و از هدف اتحادیه اروپا برای اطمینان از ساخت، استقرار و استفاده ایمن ابزار‌های هوش مصنوعی آینده حمایت می‌کنیم.»

در ژوئن ۲۰۲۲، سه ماه قبل از ارسال مقاله سفید، سه نفر از کارکنان اپن‌‌ای‌آی برای اولین بار با مقامات کمیسیون اروپا دیدار کردند. کارکنان اپن‌‌ای‌آی در این جلسه گفتند که از خطرات این فناوری‌ها آگاه هستند و تمام تلاش خود را برای کاهش آن‌ انجام می‌دهند، اما به صراحت نگفتند که اپن‌‌ای‌آی مشمول مقررات سخت گیرانه نمی‌شود.

در بخشی از این سند، اپن‌‌ای‌آی سیاست‌ها و مکانیزم‌های ایمنی که برای جلوگیری از سو استفاده از ابزار‌های هوش مصنوعی تولیدی خود استفاده می‌شود، از جمله منع تولید تصاویر افراد خاص، اطلاع رسانی به کاربرانی که با یک هوش مصنوعی در تعامل هستند و توسعه ابزار‌هایی برای تشخیص اینکه آیا یک تصویر تولید شده توسط هوش مصنوعی است یا خیر را به تفصیل شرح داده است. پس از تشریح این توضیحات، به نظر می‌رسد اپن‌آل پیشنهاد می‌کند که این اقدامات ایمنی باید برای جلوگیری از خطرات سیستم‌ها کافی باشد.

در بخشی از مقاله سفید اپن‌ای‌آی به اصلاحاتی اشاره می‌شود که به ارائه دهندگان هوش مصنوعی اجازه می‌دهد به سرعت سیستم‌های خود را به دلایل ایمنی به روزرسانی کنند، بدون اینکه ابتدا نیاز به ارزیابی توسط مقامات اتحادیه اروپا باشد.

این شرکت همچنین در مورد استفاده‌های خاص از هوش مصنوعی مولد در بحث آموزش و اشتغال هم صحبت کرده است. اپن‌‌ای‌آی استدلال کرد که توانایی یک سیستم هوش مصنوعی برای پیش نویس توصیفات شغلی یا استفاده از یک هوش مصنوعی در محیط آموزشی یا برای درمان انسان به عنوان یک مورد پرخطر نباید در نظر گرفته شود.

اپن‌‌ای‌ای به مقامات گفته است که «دستورالعمل‌های هوش مصنوعی را می‌توان به گونه‌ای تنظیم کرد که از به اشتراک گذاشتن اطلاعات درباره نحوه ایجاد موارد خطرناک خودداری کند.»

انتهای پیام/

ارسال نظر