بدون سازوکار پاسخگویی روشن، اصول اخلاق در هوشمصنوعی به شعار تبدیل میشود
تصمیمهایی که تا چند سال پیش فقط توسط انسان گرفته میشدند، امروز به طور فزایندهای به الگوریتمها سپرده شدهاند؛ از این که چه کسی وام بگیرد، چه کسی استخدام شود، چه محتوایی دیده شود و حتی چه رفتاری مشکوک تلقی شود. هوش مصنوعی به آرامی، اما عمیق وارد زندگی روزمره ما شده است، بیآنکه همیشه بدانیم بر چه اساسی قضاوت میکند و چه کسی پشت این تصمیمها ایستاده است.
در این گفتوگو، مجید فرزانه، پژوهشگر حوزه هوش مصنوعی و مدیرعامل یکی از شرکتهای فعال در حوزه تکنولوژی، با خبرنگار آناتک به بررسی ابعاد مختلف اخلاق در هوش مصنوعی پرداخته است. او در این مصاحبه درباره مفهوم پاسخگویی به عنوان مهمترین اصل اخلاقی در شرایط ایران، ضرورت یا عدم ضرورت الزام قانونی، نسبت نوآوری و تنظیمگری، مسئولیت خطاهای اخلاقی در سیستمهای هوش مصنوعی، امکان یا عدم امکان غیراخلاقی بودن ذاتی مدلها، و نقش نظارت انسانی یا هیومن این لوپ در توسعه و استفاده از این فناوری توضیح داده است.
مهمترین اصل اخلاقی در هوش مصنوعی از نظر شما چیست؟
تقریبا میتوان گفت همه اصولی که در اخلاق هوش مصنوعی مطرح هستند، مانند عادلانه بودن یا انصاف، شفافیت، حفظ حریم شخصی و ایمن بودن، همگی اصول مهمی هستند و باید رعایت شوند. اما اگر بخواهم تنها یک اصل را به عنوان مهمترین اصل معرفی کنم، بهویژه در شرایطی که در ایران وجود دارد، آن اصل پاسخگویی یا اکانتبیلیتی (Accountability) است.
اگر پاسخگویی وجود نداشته باشد، عملا هیچکدام از اصول دیگر قابل اجرا نمیشوند. ممکن است ادعا شود که یک مدل عادلانه است، شفاف است، حریم شخصی را رعایت میکند و ایمن است و حتی این ادعاها در قالب اسنادی مانند مسئولیتپذیری هوش مصنوعی یا ریسپانسیبلایآی (Responsible AI) منتشر شوند، اما سوال اصلی این است که اگر این مدل در جایی تبعیض قائل شد یا حریم شخصی کاربران نقض شد، در آن صورت مسئول چه کسی است.
مسئولیت میتواند متوجه شرکت ارائهدهنده، پیمانکاری که با آن شرکت همکاری کرده، تیم داده یا تیم جمعآوری داده باشد. برای مثال، فرض کنید یک سیستم اعتبارسنجی وام در حوزه فینتک (FinTech) وجود دارد و بانک به جای بررسی مستقیم، از یک ابزار هوش مصنوعی استفاده میکند. اگر فردی به صورت ناعادلانه رد شود، این پرسش مطرح میشود که مسئول اصلی چه کسی است.
این موضوع زمانی پیچیدهتر میشود که بدانیم در ایران بخش زیادی از محصولات هوش مصنوعی موجود در بازار یا مبتنی بر مدلهای متنباز (Open Source) خارجی هستند یا از طریقایپیآی (API) به سرویسهای شرکتهایی مانند اوپنایآی (OpenAI)، آنتروپیک (Anthropic) یا گوگل (Google) متصل میشوند. در این شرایط، پاسخگویی با ابهام جدی مواجه است.
اگر این مدلها خطا کنند، باعث زیان به افراد شوند، تبعیضآمیز عمل کنند یا حریم شخصی کاربران را نقض کنند، عملا امکان مواخذه شرکتهای خارجی وجود ندارد و حتی شرکتهای داخلی استفادهکننده نیز سازوکار روشنی برای پاسخگویی ندارند.
نظارت انسانی به معنای کنترل تکتک خروجیها نیست، بلکه به معنای وجود سازوکاری است که در صورت بروز خطا، امکان مداخله انسانی فراهم باشد. برای نمونه، در همان مثال وام بانکی، اگر درخواست فردی توسط الگوریتم رد شود، باید فرآیندی وجود داشته باشد که در صورت اعتراض، تصمیم توسط انسان بازبینی شود
آیا رعایت اخلاق در توسعه هوش مصنوعی باید الزام قانونی داشته باشد؟
این سوال، سوال دشواری است. پاسخ کلی این است که بله، وجود الزام قانونی ضروری است، اما نمیتوان همین حالا قوانین ثابت و غیرقابل تغییر وضع کرد و همه را ملزم به رعایت آنها دانست.
فضای هوش مصنوعی فضایی بسیار پویا و داینامیک (Dynamic) است. تقریبا هر روز مدلها، فناوریها و کاربردهای جدیدی معرفی میشوند که هر کدام پرسشها و نگرانیهای اخلاقی تازهای را به همراه دارند. در چنین فضایی، تدوین قوانین ثابت که برای سالهای طولانی پاسخگو باشند، عملا کارآمد نیست، بهویژه با توجه به تجربه قوانینی که سالها بدون بهروزرسانی باقی ماندهاند.
در سالهای ابتدایی مطرح شدن اخلاق هوش مصنوعی، امریکا و اروپا دو رویکرد متفاوت داشتند. اروپا به سمت تنظیمگری و نظارت بیشتر حرکت کرد، در حالی که امریکا فضای بازتری ایجاد کرد. بسیاری معتقدند سرعت بالاتر پیشرفت هوش مصنوعی در امریکا نسبت به اروپا، تا حدی به همین رویکرد بازتر بازمیگردد، هرچند عواملی مانند اثر شبکهای (Network Effect) و اکوسیستم سیلیکون ولی (Silicon Valley) نیز نقش مهمی داشتهاند.
در ایران نیز تا حدی از این الگو استفاده شد. بهویژه در زمان راهاندازی سازمان ملی هوش مصنوعی، این دیدگاه وجود داشت که به دلیل عقبماندگی نسبی، نباید قوانین سختگیرانه وضع شود تا شرکتها و استارتاپها (Startup) بتوانند فعالیت کنند و از نظر علمی عقب نمانند. این دیدگاه تا حدی قابل دفاع است، زیرا قوانین سختگیرانه میتوانند مانعی برای نوآوری باشند.
با این حال، مشکل اصلی این است که در ایران سلفرگولیشن (Self Regulation) وجود ندارد. تجربه نشان داده است که در نبود قانون و نظارت، بسیاری از شرکتها به سمت انحصار حرکت میکنند. بازار ایران محدود است و شرکتها برای کسب سهم بازار (Market Share) رقابت شدیدی دارند، بنابراین اگر نظارتی وجود نداشته باشد، رعایت اخلاق معمولا در اولویت قرار نمیگیرد.
در صورت بروز خطای اخلاقی، مسئول اصلی کیست، توسعهدهنده یا سازمان استفادهکننده؟
در صورت بروز خطای اخلاقی، مسئول اصلی معمولا سازمان استفادهکننده است؛ یعنی نهادی که تصمیمگیری نهایی را انجام میدهد. در اغلب پروندههای مربوط به پلتفرمهای دیجیتال، حتی زمانی که تخلف توسط کاربران رخ داده است، مدیران ارشد و خود سازمان مورد مواخذه قرار گرفتهاند، نه برنامهنویسان.
در مورد هوش مصنوعی نیز وضعیت مشابهی وجود دارد، بهویژه در ایران که بسیاری از مدلها در خارج از کشور توسعه داده شدهاند و شرکتهای داخلی صرفا از طریقایپیآی از آنها استفاده میکنند. نهادی که تصمیم گرفته این مدل چگونه استفاده شود و چگونه در اختیار کاربر قرار گیرد، همان سازمان استفادهکننده است و مسئولیت اصلی نیز بر عهده او خواهد بود.
آیا یک سیستم هوش مصنوعی میتواند ذاتا غیراخلاقی باشد؟
خیر، ذاتا نمیتواند غیراخلاقی باشد. این سوال تا حدی هوش مصنوعی را دارای ابعاد انسانی در نظر میگیرد، در حالی که هوش مصنوعی در اصل مجموعهای از محاسبات ریاضی است. نمیتوان گفت یک سری محاسبات ریاضی ذاتا غیراخلاقی هستند. این شبیه آن است که گفته شود علم شیمی شیطانی است یا اقتصاد ذاتا بد است؛ چنین گزارههایی عملا بیمعنا یا نانسنس (Nonsense) هستند.
برای روشن شدن موضوع، میتوان به فناوری بازشناسی چهره (Face Recognition) اشاره کرد. این فناوری ذاتا غیراخلاقی نیست و کاربردهای مفید زیادی دارد. با این حال، در سالهای گذشته، استفادههایی از این فناوری مشاهده شده است که منجر به نقض حریم شخصی کاربران شده است، در حالی که حریم شخصی یکی از پایههای اصلی اخلاق هوش مصنوعی محسوب میشود.
خود مدل ذاتا غیراخلاقی نیست و صرفا در حال انجام یک تسک (Task) مشخص است. مسئله از جایی آغاز میشود که این مدل در خدمت یک کار غیراخلاقی قرار میگیرد. وقتی از غیراخلاقی بودن صحبت میکنیم، منظور استفادهای است که یکی از مصادیق آن نقض حریم شخصی است.
برای مثال، اگر در سطح شهر دوربینهایی نصب شوند که همه افراد را بازشناسی کنند و بر اساس آن جریمه صادر شود، بسیاری از افراد این وضعیت را ورود گسترده به حریم شخصی تلقی میکنند. برخی ممکن است نخواهند چهرهشان ذخیره شود یا مسیر رفتوآمد روزانهشان قابل ردیابی باشد. چه این اقدام توسط دولت انجام شود و چه توسط یک شرکت خصوصی، نتیجه آن نقض گسترده حریم شخصی است.
آیا استفاده از هوش مصنوعی بدون نظارت انسانی قابل قبول است؟
برای پاسخ به این سوال ابتدا باید مشخص شود منظور از نظارت انسانی چیست. در حوزه هوش مصنوعی مفهومی به نام هیومن این لوپ (Human in the Loop) وجود دارد که به حضور انسان در چرخه توسعه و استفاده از سیستم اشاره میکند؛ از جمعآوری داده و آموزش یا ترینینگ (Training) مدل گرفته تا تنظیم یا تیونینگ (Tuning) و مرحله استفاده کاربر از خروجی.
از آنجا که این فرآیند ماهیت چرخهای دارد، به آن لوپ (Loop) گفته میشود. در حال حاضر، تقریبا اجماع جهانی بر این است که هر سیستم هوش مصنوعی باید نوعی هیومن این لوپ داشته باشد.
منظور از هیومن این لوپ این نیست که انسان همه خروجیها را به صورت مستقیم بررسی و تایید کند. چنین کاری عملا غیرممکن است. برای مثال، نمیتوان انتظار داشت هر پرسشی که از چتجیپیتی (ChatGPT) پرسیده میشود، پیش از پاسخ توسط انسان بررسی شود، زیرا این سیستمها در هر ثانیه میلیونها ریکوئست (Request) دریافت میکنند.
بنابراین، نظارت انسانی به معنای کنترل تکتک خروجیها نیست، بلکه به معنای وجود سازوکاری است که در صورت بروز خطا، امکان مداخله انسانی فراهم باشد. برای نمونه، در همان مثال وام بانکی، اگر درخواست فردی توسط الگوریتم رد شود، باید فرآیندی وجود داشته باشد که در صورت اعتراض، تصمیم توسط انسان بازبینی شود.
این نظارت میتواند در سطوح مختلفی اعمال شود؛ از نظارت بر دادهها گرفته تا مانیتورینگ (Monitoring) عملکرد مدل و حتی بازآموزی یا ریترینینگ (Retraining) آن. در نتیجه، استفاده از هوش مصنوعی بدون نظارت انسانی قابل قبول نیست، اما این نظارت به معنای کنترل کامل خروجیها نیست، بلکه به معنای وجود هیومن این لوپ در ساختار کلی سیستم است.
انتهای پیام/