رگولاتوری هوش مصنوعی، ضرورت جلوگیری از ایجاد تبعیض در عصر دیجیتال
به گزارش خبرنگار گروه دانش و فناوری خبرگزاری آنا، علیرغم نقش مهم و روزافزون هوش مصنوعی در بسیاری از بخشهای جامعه مدرن، سیاست یا مقررات بسیار کمی بر توسعه و استفاده از سیستمهای هوش مصنوعی در اقصی نقاط دنیا به ویژه در کشورهای توسعه یافته وجود دارد و در نتیجه شرکتهای فناوری تا حد زیادی به حال خود رها شدهاند تا خود نقش تنظیمگر را ایفا کنند. روندی که منجر به تصمیمگیریها و موقعیتهایی میشود که مورد انتقاد قرار گرفته است.
گوگل کارمندی را اخراج کرد که علناً نگرانیهایی را در مورد اینکه چگونه نوع خاصی از هوش مصنوعی میتواند به مشکلات زیست محیطی و اجتماعی کمک کند، مطرح کرده بود. سایر شرکتهای هوش مصنوعی محصولاتی را توسعه دادهاند که توسط سازمانهایی مانند اداره پلیس لسآنجلس استفاده میشوند؛ مسئلهای که حاکی از آن است که سیاستهای مغرضانه آنها تقویت نژادپرستی موجود را دنبال میکنند.
**توصیهها و راهنماییهای دولتی در مورد استفاده از هوش مصنوعی
در اوایل اکتبر ۲۰۲۲، دفتر سیاست علم و فناوری دولت آمریکا با انتشار طرح اولیه منشور حقوق هوش مصنوعی بخش بزرگی را به لیست راهنماییهای دولتی در خصوص چگونگی بهکارگیری فناوری هوش مصنوعی افزود. مسئولان این دفتر علم و فناوری میگویند «حفاظتهای ذکر شده در سند باید برای همه سیستمهای خودکار اعمال شود. این طرح شامل پنج اصل است که باید طراحی، استفاده و استقرار سیستمهای خودکار را برای محافظت از مردم در عصر هوش مصنوعی هدایت کند.»
**بهبود سیستمها برای همه کاربران
هدف دو اصل اول پرداختن به ایمنی و اثربخشی سیستمهای هوش مصنوعی و همچنین خطر اصلی تبعیض بیشتر ناشی از هوش مصنوعی است. برای بهبود ایمنی و اثربخشی هوش مصنوعی، اصل اول پیشنهاد میکند که سیستمهای هوش مصنوعی نه تنها باید توسط متخصصان، بلکه با ورودی مستقیم افراد و جوامعی که از سیستمها استفاده میکنند و تحت تاثیر قرار میگیرند، توسعه داده شوند. جوامع استثمار شده و به حاشیه رانده شده اغلب مجبورند با عواقب سیستمهای هوش مصنوعی دست و پنجه نرم کنند بدون اینکه حرف زیادی در توسعه آنها داشته باشند. تحقیقات نشان داده است که مشارکت مستقیم و واقعی جامعه در فرآیند توسعه برای بهکارگیری فناوریهایی که تاثیر مثبت و پایداری بر آن جوامع دارند، مهم است.
بیشتر بخوانید:
اصل دوم بر مشکل شناخته شده تبعیض الگوریتمی در سیستمهای هوش مصنوعی متمرکز است. یک مثال شناخته شده در این باره این است که چگونه الگوریتمهای تأیید وام مسکن علیه اقلیتها تبعیض قائل میشوند. این سند از شرکتها میخواهد تا سیستمهای هوش مصنوعی را توسعه دهند که بر اساس نژاد، جنسیت یا سایر وضعیت طبقه محافظت شده با افراد رفتار متفاوتی نداشته باشد. بر اساس این اصل به شرکتها پیشنهاد میشود از ابزارهایی مانند ارزیابی حقوق صاحبان سهام استفاده کنند که میتواند به ارزیابی اینکه چگونه یک سیستم هوش مصنوعی ممکن است بر اعضای جوامع استثمار و به حاشیه رانده شده تاثیر بگذارد، کمک کند. این دو اصل اول به مسائل بزرگ سوگیری و انصاف میپردازند که در توسعه و استفاده از هوش مصنوعی یافت میشود.
**حریم خصوصی، شفافیت و کنترل
سه اصل آخر راههایی را برای کنترل بیشتر افراد در هنگام تعامل با سیستمهای هوش مصنوعی ترسیم میکند. اصل سوم در مورد حفظ حریم خصوصی دادههاست. این اصل به دنبال اطمینان از این است که مردم در مورد نحوه استفاده از دادههایشان نظر بیشتری داشته باشند و در برابر اقدامات سوءاستفاده از دادهها محافظت شوند. هدف این بخش رسیدگی به موقعیتهایی است که برای مثال، شرکتها از طراحی فریبنده برای دستکاری کاربران برای ارائه دادههایشان استفاده میکنند. این طرح شامل اقداماتی مانند نگرفتن دادههای یک فرد است، مگر اینکه آنها با آن موافقت کنند و به روشی که برای آن شخص قابل درک باشد، سوال کنند.
اصل بعدی بر «توضیح» تمرکز داشته و اهمیت شفافیت را برجسته میکند؛ مردم باید بدانند که چگونه از یک سیستم هوش مصنوعی استفاده میشود و همچنین در مورد روشهایی که هوش مصنوعی در نتایجی که ممکن است بر آنها تاثیر بگذارد، کمک کند. به عنوان مثال اداره خدمات کودکان شهر نیویورک را در نظر بگیرید. تحقیقات نشان داده است که آژانس از سیستمهای هوش مصنوعی برونسپاری شده برای پیشبینی بدرفتاری با کودکان استفاده میکند، سیستمهایی که اکثر مردم متوجه استفاده از آنها نیستند.
منشور حقوق هوش مصنوعی دستورالعملی را ارائه میکند که در این مثال، افرادی در نیویورک که تحت تاثیر سیستمهای هوش مصنوعی در حال استفاده قرار میگیرند، باید از دخالت هوش مصنوعی مطلع شده و به توضیحی در مورد کارهایی که هوش مصنوعی انجام داده است، دسترسی داشته باشند. تحقیقات نشان داده است که ایجاد شفافیت در سیستمهای هوش مصنوعی میتواند خطر خطا یا سوءاستفاده را کاهش دهد.
آخرین اصل منشور حقوق هوش مصنوعی چارچوبی را برای جایگزینهای انسانی، بررسی و بازخورد ترسیم میکند. این بخش مشخص میکند که افراد باید بتوانند در صورت معقول بودن، از استفاده از هوش مصنوعی یا سایر سیستمهای خودکار به نفع جایگزین انسانی خودداری کنند؛ برای مثال از اینکه چگونه این دو اصل آخر ممکن است با هم کار کنند. مورد شخصی را در نظر بگیرید که برای وام مسکن درخواست داده است. اگر از یک الگوریتم هوش مصنوعی برای بررسی برنامه آنها استفاده شود، به آنها اطلاع داده میشود و این گزینه را دارند که با استفاده از هوش مصنوعی به نفع یک شخص واقعی انصراف دهند.
**دستورالعملهای هوشمند، بدون قابلیت اجرا
پنج اصل مندرج در منشور حقوق هوش مصنوعی به بسیاری از مسائلی که محققان در مورد طراحی و استفاده از هوش مصنوعی مطرح کردهاند، میپردازد؛ با این حال این یک سند غیر الزامآور است و در حال حاضر قابل اجرا نیست. اما اگر نبرد نظارتی جاری بر سر حفظ حریم خصوصی دادهها هر گونه راهنمایی ارائه دهد، شرکتهای فناوری به فشار برای خود تنظیمی ادامه خواهند داد.
یکی دیگر از موضوعاتی که در منشور حقوق هوش مصنوعی وجود دارد این است که نمیتواند مستقیماً سیستمهای غیرعادلانه را مانند نژادپرستی یا تبعیض جنسی و اینکه چگونه میتوانند بر استفاده و توسعه هوش مصنوعی تاثیر بگذارند، فراخوانی کند. به عنوان مثال، مطالعات نشان دادهاند که فرضیات نادرست تعبیه شده در الگوریتمهای هوش مصنوعی مورد استفاده در مراقبتهای بهداشتی منجر به مراقبت بدتر برای بیماران سیاه پوست شده است مسئلهای که به اعتقاد کارشناسان در هنگام توسعه سیستمهای هوش مصنوعی باید به طور مستقیم به نژادپرستی ضدسیاهپوستان پرداخته شود. در حالی که منشور حقوق هوش مصنوعی به ایدههای تعصب و انصاف میپردازد، عدم تمرکز بر سیستمهای ظلمآمیز یک حفره قابل توجه و یک مسئله شناخته شده در توسعه هوش مصنوعی است.
با وجود کاستیهای این طرح میتواند گامی مثبت به سمت سیستمهای هوش مصنوعی بهتر و شاید اولین گام به سمت مقررات باشد. سندی مانند این، حتی اگر خط مشی نباشد، میتواند مرجع قدرتمندی برای افرادی باشد که از تغییرات در روش توسعه و استفاده سازمانی از فناوری هوش مصنوعی حمایت میکنند.
انتهای پیام/4144
انتهای پیام/