شفاف نبودن قوانین حفاظت داده و حریم خصوصی، پلتفرمها را به جمعآوری بیحد داده سوق داده است
پس از اعمال محدودیتهای اینترنتی در یک ماه گذشت، استفاده از جستجوگرها و اپلیکیشنهای ایرانی به یکی از موضوعات اصلی خبرها تبدیل شد. در این میان، به گفته سازندگان ابزارهای جستجو و چتباتهای هوش مصنوعی داخلی، افزایش چشمگیر استفاده کاربران ایرانی از این پلتفرمها اگرچه با چالشها و مشکلات متعددی همراه بود، اما همزمان فرصتی فراهم کرد تا کاستیها و ضعفهای این ابزارها شناسایی شود و زمینهای برای بهبود و ارتقای آنها به وجود آید.
مجید فرزانه، پژوهشگر حوزه هوش مصنوعی و مدیرعامل یکی از شرکتهای فعال در حوزه تکنولوژی در گفتوگو با خبرنگار آناتک، به بررسی تعارض میان دقت سیستمهای هوش مصنوعی و حفظ حریم خصوصی پرداخته است. وی از وضعیت حفاظت داده در ایران و مفهوم شفافیت و قابلیت توضیح در تصمیمگیریهای الگوریتمی و همچنین عقبماندگی چارچوبهای اخلاقی و مقرراتی در دنیا نسبت به سرعت پیشرفت هوش مصنوعی سخن میگوید.
در تعارض میان دقت بالاتر در هوش مصنوعی و حفظ حریم خصوصی کاربر، کدام باید در اولویت باشد؟
اگر در شرایط عادی باشیم، پاسخ این است که هیچکدام اولویت مطلق ندارند و این موضوع تا حد زیادی بستگی به این دارد که هوش مصنوعی در چه زمینهای مورد استفاده قرار میگیرد.
در چند سال گذشته و بهویژه در یکی دو سال اخیر، شاهد آن بودهایم که پلتفرمها چه در ایران و چه در کشورهای دیگر بهصورت پیدرپی هک شدهاند و داده کاربران منتشر شده است. بانکها نیز هک شدهاند و اطلاعات مالی مردم در اختیار هکرها قرار گرفته است.
بحث حفاظت داده تا حدی یک بحث فنی است که میتوان آن را کنار گذاشت، اما مسئله مهمتر این است که هیچ قواعد مشخصی وجود ندارد که تعیین کند کدام پلتفرمها چه مجوزهایی برای جمعآوری چه نوع دادههایی دارند یا باید داشته باشند. برای مثال، مشخص نیست چرا یک پلتفرم باید از سن کاربران، جنسیت آنها، آدرس، شماره تلفن یا حتی سلیقه شخصی آنها مطلع باشد.
تمام این دادهها طبیعتا میتوانند به افزایش دقت سیستم کمک کنند. اگر جمعآوری این دادهها باعث شود مدل هوش مصنوعی که یک پلتفرم بر اساس آن فعالیت میکند دقیقتر شود، در نبود سازوکار مشخص، تمایل پلتفرمها برای جمعآوری داده بیشتر و افزایش کیفیت خدمات بهطور مداوم افزایش پیدا میکند.
برخی پلتفرمها با ارائه متنهای طولانی مقررات، تنها اشارهای کوچک به استفاده از دادهها برای آموزش میکنند، در حالی که بخش عمده کاربران این متون را مطالعه نمیکنند. چنین رویکردی را نمیتوان رضایت آگاهانه تلقی کرد و از نظر اخلاقی قابل دفاع نیست اطلاعرسانی باید شفاف، واضح و قابل درک باشد و کاربر باید بهطور صریح رضایت خود را اعلام کند. حتی در بسیاری از سیستمها این امکان وجود دارد که کاربر اعلام کند دادههای او برای آموزش استفاده نشود
اگر پلتفرمهایی مانند یوتیوب (YouTube) و اینستاگرام (Instagram) را در نظر بگیریم، مشاهده میکنیم که این پلتفرمها بهصورت مستمر رفتار کاربران را ثبت میکنند، آن را تحلیل میکنند و از این دادهها برای ارائه شخصیسازی بهتر و افزایش دقت سیستمهای خود استفاده میکنند.
وقتی هیچ سازوکار قانونی وجود نداشته باشد و پلتفرمها بتوانند هر دادهای را که تمایل دارند از کاربران جمعآوری کنند. هر پلتفرم تا جایی که میتواند داده جمعآوری میکند و قانونی وجود ندارد که مشخص کند چه دادهای را نباید جمعآوری یا نگهداری کرد یا نباید در فرایند آموزش یا ترینینگ (Training) مدل استفاده شود.
در برخی موارد، دقت پایین تنها به معنای کیفیت کمتر نیست، بلکه میتواند منجر به کاهش ایمنی یا سیفتی (Safety) سیستم شود، بهویژه در کاربردهای پزشکی. در این موارد، حتی بسیاری از کاربران ممکن است مشکلی نداشته باشند که دادههای بیشتری را در اختیار پزشک یا الگوریتمهای پزشکی قرار دهند تا به روند درمان آنها کمک شود.
با این حال، واقعیت این است که دادههای پزشکی نیز بهراحتی دستبهدست میشوند. برای مثال، دانشجویی برای انجام پروژه کارشناسی ارشد یا دکتری، نامهای از دانشگاه ارائه میدهد و بیمارستان دادههای بیماران را با نام و نامخانوادگی، شماره تماس و آدرس در اختیار او قرار میدهد. این موضوع را شخصا مشاهده کردهام. گاهی همین دادهها به موسسههایی واگذار میشود که پایاننامه و مقاله تهیه میکنند و به این ترتیب دادههای سلامت و دادههای شخصی بیماران در اختیار افرادی قرار میگیرد که صلاحیت لازم را ندارند. این وضعیت نشان میدهد که باید، چه در کسبوکارهای سنتی مانند بیمارستانها و چه در پلتفرمهای دیجیتال سازوکار موثرتری برای حفظ داده تعریف کرد.
آیا کاربران حق دارند بدانند هوش مصنوعی چگونه درباره آنها تصمیم میگیرد؟
بله، تا سطحی حق دارند بدانند، اما این موضوع نیازمند توضیح است. این حق بیشتر مربوط به موقعیتهایی است که سیستم بهجای انسان تصمیمگیری یا قضاوت انجام میدهد.
برای مثال، تصمیمگیری درباره اعطای وام، بررسی پروندههای حقوقی، تشخیص مجرم بودن یا نبودن یک فرد، یا تصمیم درباره استخدام یا عدم استخدام یک متقاضی بر اساس رزومه، همگی مواردی هستند که پیشتر توسط انسان انجام میشدند و اکنون به سیستمهای هوش مصنوعی سپرده شدهاند. در این شرایط، کاربر حق دارد بداند تصمیم چگونه گرفته شده است.
یکی از مواردی که باید بهطور شفاف به کاربر اعلام شود، این است که آیا تصمیم کاملا خودکار بوده است یا دخالت انسانی نیز در آن وجود داشته است. اگر تصمیم بهصورت کاملا خودکار گرفته شده، باید بهروشنی اعلام شود که این تصمیم توسط هوش مصنوعی و بدون دخالت انسان اتخاذ شده است.
همچنین وجود سازوکار اعتراض و شکایت اهمیت زیادی دارد. زمانی که یک سیستم بهصورت خودکار درباره آینده یا زندگی یک فرد تصمیمگیری میکند، آن فرد باید حق اعتراض و درخواست بازبینی داشته باشد.
عوامل موثر در تصمیمگیری نیز باید شفاف باشند. برای مثال، اگر به فردی وام داده نمیشود، باید دلایل آن بهطور مشخص بیان شود؛ مانند وجود چک برگشتی، قسط معوقه یا ناکافی بودن درآمد نسبت به میزان بازپرداخت وام. این شفافسازی به مفهوم قابلیت توضیح (Explainability) در هوش مصنوعی مربوط میشود.
در مقابل، جزئیات فنی مانند وزن پارامترها، سورسکد (Source Code) و سایر موارد مرتبط با مالکیت معنوی، دارایی شرکت یا پلتفرم توسعهدهنده محسوب میشوند و نباید در اختیار کاربران قرار گیرند. حتی در بسیاری موارد، خود توسعهدهندگان نیز با یک بلکباکس (Black Box) مواجه هستند که صرفا ورودی دریافت میکند و خروجی تولید میکند.
با این حال، زمانی که تصمیمی درباره کاربر گرفته میشود، عوامل موثر در آن تصمیم باید به کاربر اطلاع داده شود.
آیا استفاده از دادههای کاربران بدون اطلاع شفاف آنها از نظر اخلاقی قابل توجیه است؟
خیر، هیچ توجیهی ندارد و کاملا غیراخلاقی است. در چارچوبهای اخلاق هوش مصنوعی، استفاده از دادههای کاربران بدون رضایت آنها مجاز نیست.
در بسیاری از مدلهای هوش مصنوعی، زمانی که قرار است از دادههای کاربران برای آموزش استفاده شود، این موضوع بهصورت شفاف اطلاعرسانی میشود؛ حتی در قالب پنجرههای پاپآپ (Popup) یا پیامهایی که اطمینان حاصل شود کاربر آنها را مشاهده کرده است.
برخی پلتفرمها با ارائه متنهای طولانی مقررات، تنها اشارهای کوچک به استفاده از دادهها برای آموزش میکنند، در حالی که بخش عمده کاربران این متون را مطالعه نمیکنند. چنین رویکردی را نمیتوان رضایت آگاهانه تلقی کرد و از نظر اخلاقی قابل دفاع نیست.
اطلاعرسانی باید شفاف، واضح و قابل درک باشد و کاربر باید بهطور صریح رضایت خود را اعلام کند. حتی در بسیاری از سیستمها این امکان وجود دارد که کاربر اعلام کند دادههای او برای آموزش استفاده نشود.
اگرچه استفاده از دادههای بیشتر ممکن است دقت سیستم را افزایش دهد، اما آسیبی که به اعتماد کاربران وارد میشود، بسیار عمیقتر و پرهزینهتر است. از بین رفتن اعتماد کاربران میتواند در بلندمدت زیانهای جدیتری برای حوزه فناوری و هوش مصنوعی ایجاد کند.
بر اساس تجربه شخصی، زمانی که کاربران بهطور شفاف در جریان استفاده از دادههایشان قرار میگیرند، معمولا مخالفتی ندارند. با این حال، استفاده از دادهها باید با شروط مشخصی همراه باشد؛ از جمله حذف اطلاعات هویتی و پرهیز از استفاده از دادههایی که به حریم خصوصی افراد آسیب میزند.
اگر دادههای رفتاری برای شخصیسازی خدمات یا ایجاد ارزش افزوده برای کاربر استفاده میشود، این موضوع نیز باید بهطور شفاف به اطلاع کاربر برسد و در صورت عدم رضایت کاربر، استفاده از دادهها متوقف شود.
به نظر شما سرعت پیشرفت هوش مصنوعی از چارچوبهای اخلاقی جلوتر رفته است؟
اخلاق یک متریک (Metric) عددی نیست، بلکه یک فرایند است. نمیتوان با یک معیار عددی تصمیم گرفت که کدام مدل اخلاقی است و کدام نیست. اخلاق، هم در توسعه و هم در نظارت، نیازمند یک فرایند تدریجی است این فرایند باید از حفاظت داده و حریم خصوصی آغاز شود، زیرساختهای پاسخگویی یا اکانتبیلیتی (Accountability) ایجاد شود و سپس بهتدریج سایر پایههای اخلاق هوش مصنوعی شکل بگیرد و در عمل پیادهسازی شود
بله، به نظر من سرعت پیشرفت هوش مصنوعی بهمراتب بیشتر از سرعت تدوین و اجرای چارچوبهای اخلاقی است. خوب است متولی مشخصی برای اجرای کدهای اخلاقی هوش مصنوعی تعریف شود. سازمان ملی هوش مصنوعی که پیشتر وجود داشت منحل شد و اساسا ورود جدی به حوزه اخلاق نداشت. در سند ملی هوش مصنوعی نیز تنها یک پاراگراف به اخلاق اختصاص داده شده است که آن هم عمدتا برگرفته از اسناد اروپایی است و حتی همان متن کوتاه نیز دارای ابهام و تناقض است. در این سند مشخص نیست در صورت عدم رعایت اصول اخلاقی، چه سازوکار کنترلی یا تنبیهی وجود دارد. از این جهت مهم است که متولی مشخصی برای این موضوع تعریف شود.
در سطح جهانی نیز سرعت پیشرفت هوش مصنوعی از اخلاق جلوتر است، زیرا ماهیتی غیرمتمرکز یا دیسنترالایز (Decentralized) دارد و هر فرد یا مجموعهای میتواند با دسترسی به داده و ابزار، مدل خود را توسعه دهد.
از سوی دیگر، اخلاق قابل اندازهگیری عددی نیست و نیازمند فرهنگ سلفرگولاتوری (Self Regulatory) است. توسعهدهندگان باید حتی در نبود نظارت رسمی، به رعایت اصول اخلاقی پایبند باشند. سیستمهای ریسپانسیبل (Responsible) معمولا اعتماد بیشتری ایجاد میکنند و این اعتماد میتواند مزیت اقتصادی نیز داشته باشد.
با این حال، در کوتاهمدت، رعایت نکردن اخلاق ممکن است مزیت رقابتی ایجاد کند و از آنجا که زیانها اغلب متوجه کاربران میشود و نه سازمانها، بسیاری از بازیگران این حوزه اصول اخلاقی را نادیده میگیرند. به همین دلیل، میتوان گفت توسعه هوش مصنوعی از چارچوبهای اخلاقی پیشی گرفته و این موضوع نیازمند بحث و راهحل است.
آیا مقررات فعلی برای مدیریت اخلاق در هوش مصنوعی کافی است؟
خیر، کافی نیست. موضوعاتی مانند حفاظت از دادههای شخصی و حریم خصوصی همچنان حلنشده باقی ماندهاند. تا زمانی که این مسائل پایهای ساماندهی نشوند، صحبت از مقررات اخلاق در هوش مصنوعی زودهنگام است.
اخلاق یک متریک (Metric) عددی نیست، بلکه یک فرایند است. نمیتوان با یک معیار عددی تصمیم گرفت که کدام مدل اخلاقی است و کدام نیست. اخلاق، هم در توسعه و هم در نظارت، نیازمند یک فرایند تدریجی است.
این فرایند باید از حفاظت داده و حریم خصوصی آغاز شود، زیرساختهای پاسخگویی یا اکانتبیلیتی (Accountability) ایجاد شود و سپس بهتدریج سایر پایههای اخلاق هوش مصنوعی شکل بگیرد و در عمل پیادهسازی شود.
انتهای پیام/