پیشنهاد سردبیر
۵ گام فوری برای جلوگیری از انفجار قیمت مرغ و گوشت و قحطی مصنوعی

از بن‌بست کنجاله تا جهنم دموراژ؛ هشدار نسبت به سقوط تولید پروتئین

ایران به دنبال ایجاد «قطب جاذبه تخصصی» برای نخبگان جهان

چگونه جابجایی مرز‌های مهاجرت با «دیپلماسی مجازی» 

چرا نقدینگی بخش خصوصی در بنادر رسوب کرد؟

وقتی کشتی‌های نهاده قربانی سیاست پولی می‌شوند

یک پژوهشگر حوزه هوش‌مصنوعی در گفت‌و‌گو با آناتک:

شفاف نبودن قوانین حفاظت داده و حریم خصوصی، پلتفرم‌ها را به جمع‌آوری بی‌حد داده سوق داده است

هوش مصنوعی هر روز دقیق‌تر می‌شود؛ تصمیم‌ها را سریع‌تر می‌گیرد، رفتار ما را بهتر پیش‌بینی می‌کند و خدمات را شخصی‌سازی‌شده‌ ارائه می‌دهد. اما این دقت فزاینده بهایی دارد که اغلب نادیده گرفته می‌شود. هر کلیک، جست‌و‌جو، موقعیت مکانی، سابقه خرید و حتی الگو‌های رفتاری، خوراک سیستم‌هایی می‌شوند که هرچه بیشتر بدانند، بهتر عمل می‌کنند. مسئله از جایی پیچیده می‌شود که مرز میان بهبود کیفیت و نقض حریم خصوصی کمرنگ می‌شود. همچنین، جای خالی قانون مشخص برای حفاظت داده در دنیا باعث شده پلتفرم‌ها به‌سمت جمع‌آوری گسترده و بی‌ضابطه داده‌های کاربران حرکت کنند. 
نویسنده : فهیمه سنجری

پس از اعمال محدودیت‌های اینترنتی در یک ماه گذشت، استفاده از جستجوگرها و اپلیکیشن‌های ایرانی به یکی از موضوعات اصلی خبرها تبدیل شد. در این میان، به گفته سازندگان ابزارهای جستجو و چت‌بات‌های هوش مصنوعی داخلی، افزایش چشمگیر استفاده کاربران ایرانی از این پلتفرم‌ها اگرچه با چالش‌ها و مشکلات متعددی همراه بود، اما هم‌زمان فرصتی فراهم کرد تا کاستی‌ها و ضعف‌های این ابزارها شناسایی شود و زمینه‌ای برای بهبود و ارتقای آن‌ها به وجود آید.
مجید فرزانه، پژوهشگر حوزه هوش مصنوعی و مدیرعامل یکی از شرکت‌های فعال در حوزه تکنولوژی در گفت‌وگو با خبرنگار آناتک، به بررسی تعارض میان دقت سیستم‌های هوش مصنوعی و حفظ حریم خصوصی پرداخته است. وی از وضعیت حفاظت داده در ایران و مفهوم شفافیت و قابلیت توضیح در تصمیم‌گیری‌های الگوریتمی و همچنین عقب‌ماندگی چارچوب‌های اخلاقی و مقرراتی در دنیا نسبت به سرعت پیشرفت هوش مصنوعی سخن می‌گوید.

در تعارض میان دقت بالاتر در هوش مصنوعی و حفظ حریم خصوصی کاربر، کدام باید در اولویت باشد؟

اگر در شرایط عادی باشیم، پاسخ این است که هیچ‌کدام اولویت مطلق ندارند و این موضوع تا حد زیادی بستگی به این دارد که هوش مصنوعی در چه زمینه‌ای مورد استفاده قرار می‌گیرد. 

در چند سال گذشته و به‌ویژه در یکی دو سال اخیر، شاهد آن بوده‌ایم که پلتفرم‌ها چه در ایران و چه در کشورهای دیگر به‌صورت پی‌درپی هک شده‌اند و داده کاربران منتشر شده است. بانک‌ها نیز هک شده‌اند و اطلاعات مالی مردم در اختیار هکر‌ها قرار گرفته است.

بحث حفاظت داده تا حدی یک بحث فنی است که می‌توان آن را کنار گذاشت، اما مسئله مهم‌تر این است که هیچ قواعد مشخصی وجود ندارد که تعیین کند کدام پلتفرم‌ها چه مجوز‌هایی برای جمع‌آوری چه نوع داده‌هایی دارند یا باید داشته باشند. برای مثال، مشخص نیست چرا یک پلتفرم باید از سن کاربران، جنسیت آنها، آدرس، شماره تلفن یا حتی سلیقه شخصی آنها مطلع باشد.

تمام این داده‌ها طبیعتا می‌توانند به افزایش دقت سیستم کمک کنند. اگر جمع‌آوری این داده‌ها باعث شود مدل هوش مصنوعی که یک پلتفرم بر اساس آن فعالیت می‌کند دقیق‌تر شود، در نبود سازوکار مشخص، تمایل پلتفرم‌ها برای جمع‌آوری داده بیشتر و افزایش کیفیت خدمات به‌طور مداوم افزایش پیدا می‌کند.

برخی پلتفرم‌ها با ارائه متن‌های طولانی مقررات، تنها اشاره‌ای کوچک به استفاده از داده‌ها برای آموزش می‌کنند، در حالی که بخش عمده کاربران این متون را مطالعه نمی‌کنند. چنین رویکردی را نمی‌توان رضایت آگاهانه تلقی کرد و از نظر اخلاقی قابل دفاع نیست اطلاع‌رسانی باید شفاف، واضح و قابل درک باشد و کاربر باید به‌طور صریح رضایت خود را اعلام کند. حتی در بسیاری از سیستم‌ها این امکان وجود دارد که کاربر اعلام کند داده‌های او برای آموزش استفاده نشود

اگر پلتفرم‌هایی مانند یوتیوب (YouTube) و اینستاگرام (Instagram) را در نظر بگیریم، مشاهده می‌کنیم که این پلتفرم‌ها به‌صورت مستمر رفتار کاربران را ثبت می‌کنند، آن را تحلیل می‌کنند و از این داده‌ها برای ارائه شخصی‌سازی بهتر و افزایش دقت سیستم‌های خود استفاده می‌کنند.

وقتی هیچ سازوکار قانونی وجود نداشته باشد و پلتفرم‌ها بتوانند هر داده‌ای را که تمایل دارند از کاربران جمع‌آوری کنند. هر پلتفرم تا جایی که می‌تواند داده جمع‌آوری می‌کند و قانونی وجود ندارد که مشخص کند چه داده‌ای را نباید جمع‌آوری یا نگه‌داری کرد یا نباید در فرایند آموزش یا ترینینگ (Training) مدل استفاده شود.

در برخی موارد، دقت پایین تنها به معنای کیفیت کمتر نیست، بلکه می‌تواند منجر به کاهش ایمنی یا سیفتی (Safety) سیستم شود، به‌ویژه در کاربرد‌های پزشکی. در این موارد، حتی بسیاری از کاربران ممکن است مشکلی نداشته باشند که داده‌های بیشتری را در اختیار پزشک یا الگوریتم‌های پزشکی قرار دهند تا به روند درمان آنها کمک شود.

با این حال، واقعیت این است که داده‌های پزشکی نیز به‌راحتی دست‌به‌دست می‌شوند. برای مثال، دانشجویی برای انجام پروژه کارشناسی ارشد یا دکتری، نامه‌ای از دانشگاه ارائه می‌دهد و بیمارستان داده‌های بیماران را با نام و نام‌خانوادگی، شماره تماس و آدرس در اختیار او قرار می‌دهد. این موضوع را شخصا مشاهده کرده‌ام. گاهی همین داده‌ها به موسسه‌هایی واگذار می‌شود که پایان‌نامه و مقاله تهیه می‌کنند و به این ترتیب داده‌های سلامت و داده‌های شخصی بیماران در اختیار افرادی قرار می‌گیرد که صلاحیت لازم را ندارند. این وضعیت نشان می‌دهد که باید، چه در کسب‌وکار‌های سنتی مانند بیمارستان‌ها و چه در پلتفرم‌های دیجیتال سازوکار موثرتری برای حفظ داده تعریف کرد.

آیا کاربران حق دارند بدانند هوش مصنوعی چگونه درباره آنها تصمیم می‌گیرد؟

بله، تا سطحی حق دارند بدانند، اما این موضوع نیازمند توضیح است. این حق بیشتر مربوط به موقعیت‌هایی است که سیستم به‌جای انسان تصمیم‌گیری یا قضاوت انجام می‌دهد.

برای مثال، تصمیم‌گیری درباره اعطای وام، بررسی پرونده‌های حقوقی، تشخیص مجرم بودن یا نبودن یک فرد، یا تصمیم درباره استخدام یا عدم استخدام یک متقاضی بر اساس رزومه، همگی مواردی هستند که پیش‌تر توسط انسان انجام می‌شدند و اکنون به سیستم‌های هوش مصنوعی سپرده شده‌اند. در این شرایط، کاربر حق دارد بداند تصمیم چگونه گرفته شده است.

یکی از مواردی که باید به‌طور شفاف به کاربر اعلام شود، این است که آیا تصمیم کاملا خودکار بوده است یا دخالت انسانی نیز در آن وجود داشته است. اگر تصمیم به‌صورت کاملا خودکار گرفته شده، باید به‌روشنی اعلام شود که این تصمیم توسط هوش مصنوعی و بدون دخالت انسان اتخاذ شده است.

همچنین وجود سازوکار اعتراض و شکایت اهمیت زیادی دارد. زمانی که یک سیستم به‌صورت خودکار درباره آینده یا زندگی یک فرد تصمیم‌گیری می‌کند، آن فرد باید حق اعتراض و درخواست بازبینی داشته باشد.

عوامل موثر در تصمیم‌گیری نیز باید شفاف باشند. برای مثال، اگر به فردی وام داده نمی‌شود، باید دلایل آن به‌طور مشخص بیان شود؛ مانند وجود چک برگشتی، قسط معوقه یا ناکافی بودن درآمد نسبت به میزان بازپرداخت وام. این شفاف‌سازی به مفهوم قابلیت توضیح (Explainability) در هوش مصنوعی مربوط می‌شود.

در مقابل، جزئیات فنی مانند وزن پارامترها، سورس‌کد (Source Code) و سایر موارد مرتبط با مالکیت معنوی، دارایی شرکت یا پلتفرم توسعه‌دهنده محسوب می‌شوند و نباید در اختیار کاربران قرار گیرند. حتی در بسیاری موارد، خود توسعه‌دهندگان نیز با یک بلک‌باکس (Black Box) مواجه هستند که صرفا ورودی دریافت می‌کند و خروجی تولید می‌کند.

با این حال، زمانی که تصمیمی درباره کاربر گرفته می‌شود، عوامل موثر در آن تصمیم باید به کاربر اطلاع داده شود.

آیا استفاده از داده‌های کاربران بدون اطلاع شفاف آنها از نظر اخلاقی قابل توجیه است؟

خیر، هیچ توجیهی ندارد و کاملا غیراخلاقی است. در چارچوب‌های اخلاق هوش مصنوعی، استفاده از داده‌های کاربران بدون رضایت آنها مجاز نیست.

در بسیاری از مدل‌های هوش مصنوعی، زمانی که قرار است از داده‌های کاربران برای آموزش استفاده شود، این موضوع به‌صورت شفاف اطلاع‌رسانی می‌شود؛ حتی در قالب پنجره‌های پاپ‌آپ (Popup) یا پیام‌هایی که اطمینان حاصل شود کاربر آنها را مشاهده کرده است.

برخی پلتفرم‌ها با ارائه متن‌های طولانی مقررات، تنها اشاره‌ای کوچک به استفاده از داده‌ها برای آموزش می‌کنند، در حالی که بخش عمده کاربران این متون را مطالعه نمی‌کنند. چنین رویکردی را نمی‌توان رضایت آگاهانه تلقی کرد و از نظر اخلاقی قابل دفاع نیست.

اطلاع‌رسانی باید شفاف، واضح و قابل درک باشد و کاربر باید به‌طور صریح رضایت خود را اعلام کند. حتی در بسیاری از سیستم‌ها این امکان وجود دارد که کاربر اعلام کند داده‌های او برای آموزش استفاده نشود.

اگرچه استفاده از داده‌های بیشتر ممکن است دقت سیستم را افزایش دهد، اما آسیبی که به اعتماد کاربران وارد می‌شود، بسیار عمیق‌تر و پرهزینه‌تر است. از بین رفتن اعتماد کاربران می‌تواند در بلندمدت زیان‌های جدی‌تری برای حوزه فناوری و هوش مصنوعی ایجاد کند.

بر اساس تجربه شخصی، زمانی که کاربران به‌طور شفاف در جریان استفاده از داده‌هایشان قرار می‌گیرند، معمولا مخالفتی ندارند. با این حال، استفاده از داده‌ها باید با شروط مشخصی همراه باشد؛ از جمله حذف اطلاعات هویتی و پرهیز از استفاده از داده‌هایی که به حریم خصوصی افراد آسیب می‌زند.

اگر داده‌های رفتاری برای شخصی‌سازی خدمات یا ایجاد ارزش افزوده برای کاربر استفاده می‌شود، این موضوع نیز باید به‌طور شفاف به اطلاع کاربر برسد و در صورت عدم رضایت کاربر، استفاده از داده‌ها متوقف شود.

به نظر شما سرعت پیشرفت هوش مصنوعی از چارچوب‌های اخلاقی جلوتر رفته است؟

اخلاق یک متریک (Metric) عددی نیست، بلکه یک فرایند است. نمی‌توان با یک معیار عددی تصمیم گرفت که کدام مدل اخلاقی است و کدام نیست. اخلاق، هم در توسعه و هم در نظارت، نیازمند یک فرایند تدریجی است این فرایند باید از حفاظت داده و حریم خصوصی آغاز شود، زیرساخت‌های پاسخگویی یا اکانت‌بیلیتی (Accountability) ایجاد شود و سپس به‌تدریج سایر پایه‌های اخلاق هوش مصنوعی شکل بگیرد و در عمل پیاده‌سازی شود

بله، به نظر من سرعت پیشرفت هوش مصنوعی به‌مراتب بیشتر از سرعت تدوین و اجرای چارچوب‌های اخلاقی است. خوب است متولی مشخصی برای اجرای کد‌های اخلاقی هوش مصنوعی تعریف شود. سازمان ملی هوش مصنوعی که پیش‌تر وجود داشت منحل شد و اساسا ورود جدی به حوزه اخلاق نداشت. در سند ملی هوش مصنوعی نیز تنها یک پاراگراف به اخلاق اختصاص داده شده است که آن هم عمدتا برگرفته از اسناد اروپایی است و حتی همان متن کوتاه نیز دارای ابهام و تناقض است. در این سند مشخص نیست در صورت عدم رعایت اصول اخلاقی، چه سازوکار کنترلی یا تنبیهی وجود دارد. از این جهت مهم است که متولی مشخصی برای این موضوع تعریف شود.

در سطح جهانی نیز سرعت پیشرفت هوش مصنوعی از اخلاق جلوتر است، زیرا ماهیتی غیرمتمرکز یا دی‌سنترالایز (Decentralized) دارد و هر فرد یا مجموعه‌ای می‌تواند با دسترسی به داده و ابزار، مدل خود را توسعه دهد.

از سوی دیگر، اخلاق قابل اندازه‌گیری عددی نیست و نیازمند فرهنگ سلف‌رگولاتوری (Self Regulatory) است. توسعه‌دهندگان باید حتی در نبود نظارت رسمی، به رعایت اصول اخلاقی پایبند باشند. سیستم‌های ریسپانسیبل (Responsible) معمولا اعتماد بیشتری ایجاد می‌کنند و این اعتماد می‌تواند مزیت اقتصادی نیز داشته باشد.

با این حال، در کوتاه‌مدت، رعایت نکردن اخلاق ممکن است مزیت رقابتی ایجاد کند و از آن‌جا که زیان‌ها اغلب متوجه کاربران می‌شود و نه سازمان‌ها، بسیاری از بازیگران این حوزه اصول اخلاقی را نادیده می‌گیرند. به همین دلیل، می‌توان گفت توسعه هوش مصنوعی از چارچوب‌های اخلاقی پیشی گرفته و این موضوع نیازمند بحث و راه‌حل است.

آیا مقررات فعلی برای مدیریت اخلاق در هوش مصنوعی کافی است؟

خیر، کافی نیست. موضوعاتی مانند حفاظت از داده‌های شخصی و حریم خصوصی همچنان حل‌نشده باقی مانده‌اند. تا زمانی که این مسائل پایه‌ای سامان‌دهی نشوند، صحبت از مقررات اخلاق در هوش مصنوعی زودهنگام است.

اخلاق یک متریک (Metric) عددی نیست، بلکه یک فرایند است. نمی‌توان با یک معیار عددی تصمیم گرفت که کدام مدل اخلاقی است و کدام نیست. اخلاق، هم در توسعه و هم در نظارت، نیازمند یک فرایند تدریجی است.

این فرایند باید از حفاظت داده و حریم خصوصی آغاز شود، زیرساخت‌های پاسخگویی یا اکانت‌بیلیتی (Accountability) ایجاد شود و سپس به‌تدریج سایر پایه‌های اخلاق هوش مصنوعی شکل بگیرد و در عمل پیاده‌سازی شود.

انتهای پیام/

ارسال نظر