یک پژوهشگر حوزه هوش‌مصنوعی در گفت‌و‌گو با آناتک:

بدون سازوکار پاسخگویی روشن، اصول اخلاق در هوش‌مصنوعی به شعار تبدیل می‌شود

زمانی که هوش مصنوعی به جای انسان تصمیم می‌گیرد، مهم‌ترین پرسش این است که در صورت خطا چه کسی باید پاسخگو باشد. امروز الگوریتم‌ها در حوزه‌هایی مانند وام بانکی، استخدام و پایش رفتار کاربران نقش تعیین کننده دارند و همین موضوع، اخلاق هوش مصنوعی را از یک بحث نظری به مسئله‌ای روزمره و ملموس تبدیل کرده است. این گفت‌و‌گو بر این نکته تاکید دارد که بدون ساز و کار روشن پاسخگویی، مفاهیمی مانند شفافیت، انصاف و حفظ حریم شخصی عملا اجرا نخواهند شد. وابستگی به مدل‌ها و‌ همچنین ای‌پی‌آی‌های خارجی، نبود رگولاتوری کارآمد و فقدان نظارت انسانی موثر، از چالش‌های جدی پیش روی توسعه و استفاده اخلاقی از هوش مصنوعی در ایران هستند.
نویسنده : فهیمه سنجری

تصمیم‌هایی که تا چند سال پیش فقط توسط انسان گرفته می‌شدند، امروز به طور فزاینده‌ای به الگوریتم‌ها سپرده شده‌اند؛ از این که چه کسی وام بگیرد، چه کسی استخدام شود، چه محتوایی دیده شود و حتی چه رفتاری مشکوک تلقی شود. هوش مصنوعی به آرامی، اما عمیق وارد زندگی روزمره ما شده است، بی‌آن‌که همیشه بدانیم بر چه اساسی قضاوت می‌کند و چه کسی پشت این تصمیم‌ها ایستاده است.

در این گفت‌و‌گو، مجید فرزانه، پژوهشگر حوزه هوش مصنوعی و مدیرعامل یکی از شرکت‌های فعال در حوزه تکنولوژی، با خبرنگار آناتک به بررسی ابعاد مختلف اخلاق در هوش مصنوعی پرداخته است. او در این مصاحبه درباره مفهوم پاسخگویی به عنوان مهم‌ترین اصل اخلاقی در شرایط ایران، ضرورت یا عدم ضرورت الزام قانونی، نسبت نوآوری و تنظیم‌گری، مسئولیت خطا‌های اخلاقی در سیستم‌های هوش مصنوعی، امکان یا عدم امکان غیراخلاقی بودن ذاتی مدل‌ها، و نقش نظارت انسانی یا هیومن این لوپ در توسعه و استفاده از این فناوری توضیح داده است.

مهم‌ترین اصل اخلاقی در هوش مصنوعی از نظر شما چیست؟

تقریبا می‌توان گفت همه اصولی که در اخلاق هوش مصنوعی مطرح هستند، مانند عادلانه بودن یا انصاف، شفافیت، حفظ حریم شخصی و ایمن بودن، همگی اصول مهمی هستند و باید رعایت شوند. اما اگر بخواهم تنها یک اصل را به عنوان مهم‌ترین اصل معرفی کنم، به‌ویژه در شرایطی که در ایران وجود دارد، آن اصل پاسخگویی یا اکانت‌بیلیتی (Accountability) است.

اگر پاسخگویی وجود نداشته باشد، عملا هیچ‌کدام از اصول دیگر قابل اجرا نمی‌شوند. ممکن است ادعا شود که یک مدل عادلانه است، شفاف است، حریم شخصی را رعایت می‌کند و ایمن است و حتی این ادعا‌ها در قالب اسنادی مانند مسئولیت‌پذیری هوش مصنوعی یا ریسپانسیبل‌ای‌آی (Responsible AI) منتشر شوند، اما سوال اصلی این است که اگر این مدل در جایی تبعیض قائل شد یا حریم شخصی کاربران نقض شد، در آن صورت مسئول چه کسی است.

مسئولیت می‌تواند متوجه شرکت ارائه‌دهنده، پیمانکاری که با آن شرکت همکاری کرده، تیم داده یا تیم جمع‌آوری داده باشد. برای مثال، فرض کنید یک سیستم اعتبارسنجی وام در حوزه فین‌تک (FinTech) وجود دارد و بانک به جای بررسی مستقیم، از یک ابزار هوش مصنوعی استفاده می‌کند. اگر فردی به صورت ناعادلانه رد شود، این پرسش مطرح می‌شود که مسئول اصلی چه کسی است.

این موضوع زمانی پیچیده‌تر می‌شود که بدانیم در ایران بخش زیادی از محصولات هوش مصنوعی موجود در بازار یا مبتنی بر مدل‌های متن‌باز (Open Source) خارجی هستند یا از طریق‌ای‌پی‌آی (API) به سرویس‌های شرکت‌هایی مانند اوپن‌ای‌آی (OpenAI)، آنتروپیک (Anthropic) یا گوگل (Google) متصل می‌شوند. در این شرایط، پاسخگویی با ابهام جدی مواجه است.

اگر این مدل‌ها خطا کنند، باعث زیان به افراد شوند، تبعیض‌آمیز عمل کنند یا حریم شخصی کاربران را نقض کنند، عملا امکان مواخذه شرکت‌های خارجی وجود ندارد و حتی شرکت‌های داخلی استفاده‌کننده نیز سازوکار روشنی برای پاسخگویی ندارند.

نظارت انسانی به معنای کنترل تک‌تک خروجی‌ها نیست، بلکه به معنای وجود سازوکاری است که در صورت بروز خطا، امکان مداخله انسانی فراهم باشد. برای نمونه، در همان مثال وام بانکی، اگر درخواست فردی توسط الگوریتم رد شود، باید فرآیندی وجود داشته باشد که در صورت اعتراض، تصمیم توسط انسان بازبینی شود

آیا رعایت اخلاق در توسعه هوش مصنوعی باید الزام قانونی داشته باشد؟

این سوال، سوال دشواری است. پاسخ کلی این است که بله، وجود الزام قانونی ضروری است، اما نمی‌توان همین حالا قوانین ثابت و غیرقابل تغییر وضع کرد و همه را ملزم به رعایت آنها دانست.

فضای هوش مصنوعی فضایی بسیار پویا و داینامیک (Dynamic) است. تقریبا هر روز مدل‌ها، فناوری‌ها و کاربرد‌های جدیدی معرفی می‌شوند که هر کدام پرسش‌ها و نگرانی‌های اخلاقی تازه‌ای را به همراه دارند. در چنین فضایی، تدوین قوانین ثابت که برای سال‌های طولانی پاسخگو باشند، عملا کارآمد نیست، به‌ویژه با توجه به تجربه قوانینی که سال‌ها بدون به‌روزرسانی باقی مانده‌اند.

در سال‌های ابتدایی مطرح شدن اخلاق هوش مصنوعی، امریکا و اروپا دو رویکرد متفاوت داشتند. اروپا به سمت تنظیم‌گری و نظارت بیشتر حرکت کرد، در حالی که امریکا فضای بازتری ایجاد کرد. بسیاری معتقدند سرعت بالاتر پیشرفت هوش مصنوعی در امریکا نسبت به اروپا، تا حدی به همین رویکرد بازتر بازمی‌گردد، هرچند عواملی مانند اثر شبکه‌ای (Network Effect) و اکوسیستم سیلیکون ولی (Silicon Valley) نیز نقش مهمی داشته‌اند.

در ایران نیز تا حدی از این الگو استفاده شد. به‌ویژه در زمان راه‌اندازی سازمان ملی هوش مصنوعی، این دیدگاه وجود داشت که به دلیل عقب‌ماندگی نسبی، نباید قوانین سخت‌گیرانه وضع شود تا شرکت‌ها و استارتاپ‌ها (Startup) بتوانند فعالیت کنند و از نظر علمی عقب نمانند. این دیدگاه تا حدی قابل دفاع است، زیرا قوانین سخت‌گیرانه می‌توانند مانعی برای نوآوری باشند.

با این حال، مشکل اصلی این است که در ایران سلف‌رگولیشن (Self Regulation) وجود ندارد. تجربه نشان داده است که در نبود قانون و نظارت، بسیاری از شرکت‌ها به سمت انحصار حرکت می‌کنند. بازار ایران محدود است و شرکت‌ها برای کسب سهم بازار (Market Share) رقابت شدیدی دارند، بنابراین اگر نظارتی وجود نداشته باشد، رعایت اخلاق معمولا در اولویت قرار نمی‌گیرد.

در صورت بروز خطای اخلاقی، مسئول اصلی کیست، توسعه‌دهنده یا سازمان استفاده‌کننده؟

در صورت بروز خطای اخلاقی، مسئول اصلی معمولا سازمان استفاده‌کننده است؛ یعنی نهادی که تصمیم‌گیری نهایی را انجام می‌دهد. در اغلب پرونده‌های مربوط به پلتفرم‌های دیجیتال، حتی زمانی که تخلف توسط کاربران رخ داده است، مدیران ارشد و خود سازمان مورد مواخذه قرار گرفته‌اند، نه برنامه‌نویسان.

در مورد هوش مصنوعی نیز وضعیت مشابهی وجود دارد، به‌ویژه در ایران که بسیاری از مدل‌ها در خارج از کشور توسعه داده شده‌اند و شرکت‌های داخلی صرفا از طریق‌ای‌پی‌آی از آنها استفاده می‌کنند. نهادی که تصمیم گرفته این مدل چگونه استفاده شود و چگونه در اختیار کاربر قرار گیرد، همان سازمان استفاده‌کننده است و مسئولیت اصلی نیز بر عهده او خواهد بود.

آیا یک سیستم هوش مصنوعی می‌تواند ذاتا غیراخلاقی باشد؟

خیر، ذاتا نمی‌تواند غیراخلاقی باشد. این سوال تا حدی هوش مصنوعی را دارای ابعاد انسانی در نظر می‌گیرد، در حالی که هوش مصنوعی در اصل مجموعه‌ای از محاسبات ریاضی است. نمی‌توان گفت یک سری محاسبات ریاضی ذاتا غیراخلاقی هستند. این شبیه آن است که گفته شود علم شیمی شیطانی است یا اقتصاد ذاتا بد است؛ چنین گزاره‌هایی عملا بی‌معنا یا نان‌سنس (Nonsense) هستند.

برای روشن شدن موضوع، می‌توان به فناوری بازشناسی چهره (Face Recognition) اشاره کرد. این فناوری ذاتا غیراخلاقی نیست و کاربرد‌های مفید زیادی دارد. با این حال، در سال‌های گذشته، استفاده‌هایی از این فناوری مشاهده شده است که منجر به نقض حریم شخصی کاربران شده است، در حالی که حریم شخصی یکی از پایه‌های اصلی اخلاق هوش مصنوعی محسوب می‌شود.

خود مدل ذاتا غیراخلاقی نیست و صرفا در حال انجام یک تسک (Task) مشخص است. مسئله از جایی آغاز می‌شود که این مدل در خدمت یک کار غیراخلاقی قرار می‌گیرد. وقتی از غیراخلاقی بودن صحبت می‌کنیم، منظور استفاده‌ای است که یکی از مصادیق آن نقض حریم شخصی است.

برای مثال، اگر در سطح شهر دوربین‌هایی نصب شوند که همه افراد را بازشناسی کنند و بر اساس آن جریمه صادر شود، بسیاری از افراد این وضعیت را ورود گسترده به حریم شخصی تلقی می‌کنند. برخی ممکن است نخواهند چهره‌شان ذخیره شود یا مسیر رفت‌وآمد روزانه‌شان قابل ردیابی باشد. چه این اقدام توسط دولت انجام شود و چه توسط یک شرکت خصوصی، نتیجه آن نقض گسترده حریم شخصی است.

آیا استفاده از هوش مصنوعی بدون نظارت انسانی قابل قبول است؟

برای پاسخ به این سوال ابتدا باید مشخص شود منظور از نظارت انسانی چیست. در حوزه هوش مصنوعی مفهومی به نام هیومن این لوپ (Human in the Loop) وجود دارد که به حضور انسان در چرخه توسعه و استفاده از سیستم اشاره می‌کند؛ از جمع‌آوری داده و آموزش یا ترینینگ (Training) مدل گرفته تا تنظیم یا تیونینگ (Tuning) و مرحله استفاده کاربر از خروجی.

از آنجا که این فرآیند ماهیت چرخه‌ای دارد، به آن لوپ (Loop) گفته می‌شود. در حال حاضر، تقریبا اجماع جهانی بر این است که هر سیستم هوش مصنوعی باید نوعی هیومن این لوپ داشته باشد.

منظور از هیومن این لوپ این نیست که انسان همه خروجی‌ها را به صورت مستقیم بررسی و تایید کند. چنین کاری عملا غیرممکن است. برای مثال، نمی‌توان انتظار داشت هر پرسشی که از چت‌جی‌پی‌تی (ChatGPT) پرسیده می‌شود، پیش از پاسخ توسط انسان بررسی شود، زیرا این سیستم‌ها در هر ثانیه میلیون‌ها ریکوئست (Request) دریافت می‌کنند.

بنابراین، نظارت انسانی به معنای کنترل تک‌تک خروجی‌ها نیست، بلکه به معنای وجود سازوکاری است که در صورت بروز خطا، امکان مداخله انسانی فراهم باشد. برای نمونه، در همان مثال وام بانکی، اگر درخواست فردی توسط الگوریتم رد شود، باید فرآیندی وجود داشته باشد که در صورت اعتراض، تصمیم توسط انسان بازبینی شود.

این نظارت می‌تواند در سطوح مختلفی اعمال شود؛ از نظارت بر داده‌ها گرفته تا مانیتورینگ (Monitoring) عملکرد مدل و حتی بازآموزی یا ری‌ترینینگ (Retraining) آن. در نتیجه، استفاده از هوش مصنوعی بدون نظارت انسانی قابل قبول نیست، اما این نظارت به معنای کنترل کامل خروجی‌ها نیست، بلکه به معنای وجود هیومن این لوپ در ساختار کلی سیستم است.

انتهای پیام/

ارسال نظر