یک بام و دو هوای خالق چت جیپیتی در قانونگذاری هوش مصنوعی
به گزارش خبرنگار خبرگزاری علم و فناوری آنا به نقل از تایم، «سم آلتمن»، مدیرعامل شرکت «اوپن ایآی» (OpenAI)، ماه گذشته را در پایتختهای جهان گذرانده و با جمعیت حاضر و در جلساتی با سران دولتها، بارها از نیاز به مقررات جهانی هوش مصنوعی سخن گفته است.
در پشت صحنه قانونگذاری هوش مصنوعی چه خبر است؟
اما در پشت صحنه، اوپنایآی برای قانون هوش مصنوعی در جهان بر اساس تعامل با اتحادیه اروپا، بار نظارتی بر شرکت را کاهش داده است. اوپن ایآی اصلاحاتی را پیشنهاد داده که در متن نهایی قانون اتحادیه اروپا که در ۱۴ ژوئن به تصویب پارلمان اروپا رسید، اعمال شد و اکنون پیش از نهایی شدن در ماه ژانویه، به دور نهایی مذاکرات میرود.
در سال ۲۰۲۲، اوپن ایآی بارها برای مقامات اروپایی استدلال کرده که قانون آینده هوش مصنوعی نباید سیستمهای هوش مصنوعی از جمله «جیپیتی-GPT-۳) «۳)، «چت جیپیتی» (ChatGPT) و مولدهای تصویر را پر خطر در نظر بگیرند. آنها نباید در معرض قانونهای سختگیرانهای از جمله شفافیت، قابلیت ردیابی و نظارت انسانی قرار داده شوند.
قوانین سختگیرانه برای ابزارهای پرخطر هوش مصنوعی
این استدلال اوپنایآی با مایکروسافت که ۱۳ میلیارد دلار در آزمایشگاه هوش مصنوعی سرمایهگذاری کرده هماهنگ است. مقامات، طرفدار کاهش بار نظارتی بر روی ارائه دهندگان بزرگ هوش مصنوعی هستند. هر دو شرکت استدلال کردهاند که قوانین سختگیرانه باید بر دوش شرکتهایی باشد که قصد دارند از هوش مصنوعی در موارد پرخطر استفاده کنند، نه شرکتهایی که سیستمهای هوش مصنوعی عمومی میسازند.
اپن ایآی در سند هفت صفحهای در مورد قانون هوش مصنوعی اتحادیه اروپا برای مقامات کمیسیون و شورا گفته است که «به خودی خود، جیپیتی-۳ یک سیستم پرخطر نیست؛ اما دارای قابلیتهایی است که میتواند در موارد خطرآفرین به کار گرفته شود.»
اپنایآی در ماه مه به خبرنگاران در لندن گفته است که «در صورتی که خود را قادر به پیروی از این مقررات نداند، میتواند تصمیم به توقف فعالیت در اروپا بگیرد که احتمالا با انتقادات زیادی مواجه میشود.» البته او این هشدار را پس گرفت و گفت که شرکتش هیچ برنامهای برای ترک اروپا ندارد و قصد همکاری با این اتحادیه را دارد.
با این حال، به نظر میرسد که تلاش اپنایآی موفقیت آمیز بوده است. پیش نویس نهایی قانون تصویب شده توسط قانون گذاران اتحادیه اروپا حاوی عبارات موجود در پیش نویسهای قبلی نبود که نشان میداد هدف کلی سیستمهای هوش مصنوعی ذاتا پرخطر هستند. در عوض در این پیش نویس خواسته شده از تولید محتوای غیرقانونی جلوگیری شود و اینکه یک سیستم بر روی مطالب دارای حق کپی رایت آموزش دیده باشد.
منفعت عمومی یا منافع مالی شرکتهای بزرگ فناوری؟
«سارا چاندر»، مشاور ارشد سیاست در حقوق دیجیتال اروپا و کارشناس این قانون درباره مقاله سفید اپنایآی معتقد است که «آنها آنچه را که میخواستند، دریافت کردند. این سند نشان میدهد که اپنایآی، مانند بسیاری از شرکتهای بزرگ فناوری، از بحث سودمندی و منفعت عمومی هوش مصنوعی برای پنهان کردن منافع مالی خود در کاهش مقررات استفاده کرده است.»
یکی از سخنگویان اپنایآی در بیانیهای اعلام کرده است که «به درخواست سیاست گذاران در اتحادیه اروپا ما یک مرور کلی از رویکرد خود را برای استقرار ایمن سیستمهایی مانند جیپیتی-۳ ارائه کردیم. براساس آن تجربه در مورد پیش نویس قانون هوش مصنوعی اظهار نظر کردیم. از آن زمان، قانون هوش مصنوعی به طور قابل توجهی تکامل یافته است. با همکاری سیاست گذاران ادامه میدهیم و از هدف اتحادیه اروپا برای اطمینان از ساخت، استقرار و استفاده ایمن ابزارهای هوش مصنوعی آینده حمایت میکنیم.»
در ژوئن ۲۰۲۲، سه ماه قبل از ارسال مقاله سفید، سه نفر از کارکنان اپنایآی برای اولین بار با مقامات کمیسیون اروپا دیدار کردند. کارکنان اپنایآی در این جلسه گفتند که از خطرات این فناوریها آگاه هستند و تمام تلاش خود را برای کاهش آن انجام میدهند، اما به صراحت نگفتند که اپنایآی مشمول مقررات سخت گیرانه نمیشود.
در بخشی از این سند، اپنایآی سیاستها و مکانیزمهای ایمنی که برای جلوگیری از سو استفاده از ابزارهای هوش مصنوعی تولیدی خود استفاده میشود، از جمله منع تولید تصاویر افراد خاص، اطلاع رسانی به کاربرانی که با یک هوش مصنوعی در تعامل هستند و توسعه ابزارهایی برای تشخیص اینکه آیا یک تصویر تولید شده توسط هوش مصنوعی است یا خیر را به تفصیل شرح داده است. پس از تشریح این توضیحات، به نظر میرسد اپنآل پیشنهاد میکند که این اقدامات ایمنی باید برای جلوگیری از خطرات سیستمها کافی باشد.
در بخشی از مقاله سفید اپنایآی به اصلاحاتی اشاره میشود که به ارائه دهندگان هوش مصنوعی اجازه میدهد به سرعت سیستمهای خود را به دلایل ایمنی به روزرسانی کنند، بدون اینکه ابتدا نیاز به ارزیابی توسط مقامات اتحادیه اروپا باشد.
این شرکت همچنین در مورد استفادههای خاص از هوش مصنوعی مولد در بحث آموزش و اشتغال هم صحبت کرده است. اپنایآی استدلال کرد که توانایی یک سیستم هوش مصنوعی برای پیش نویس توصیفات شغلی یا استفاده از یک هوش مصنوعی در محیط آموزشی یا برای درمان انسان به عنوان یک مورد پرخطر نباید در نظر گرفته شود.
اپنایای به مقامات گفته است که «دستورالعملهای هوش مصنوعی را میتوان به گونهای تنظیم کرد که از به اشتراک گذاشتن اطلاعات درباره نحوه ایجاد موارد خطرناک خودداری کند.»
انتهای پیام/