هوش مصنوعی دوست شما نیست، یک ابزار است
هرچه این ابزارها بیشتر در زندگی ما ادغام میشوند، مرز میان «اطلاعاتی که آگاهانه به اشتراک میگذاریم» و «دادههایی که ناخواسته منتقل میکنیم» کمرنگتر میشود. همین مرز مبهم است که مسئله حفاظت از دادهها را به یک ضرورت جدی تبدیل میکند.
در کنار این وابستگی روزافزون، باید توجه داشت که هر تعامل دیجیتال لایههای پنهانی از اطلاعات را نیز منتقل میکند؛ از متادیتای فایلها و الگوهای رفتاری گرفته تا نشانههای هویتی که از سبک نوشتار یا زمان و مکان اتصال قابل استنتاج است. کاربران معمولاً تصور میکنند تنها محتوای متنی یا تصویری که ارسال میکنند اهمیت دارد، در حالی که بخش بزرگی از ریسکها دقیقاً در همین دادههای جانبی و ناخواسته نهفته است. این شکاف دانشی میان آنچه کاربر فکر میکند افشا میشود و آنچه واقعا منتقل میشود، زمینهساز سوءاستفادههای گسترده است.
در نهایت، اهمیت این بحث به پیامدهای اجتماعی و امنیتی آن بازمیگردد. وقتی مدلهای هوش مصنوعی میتوانند دادهها را تحلیل، بازتولید یا در برخی شرایط افشا کنند، حفاظت از حریم خصوصی دیگر یک انتخاب فردی نیست؛ بلکه بخشی از امنیت جمعی و اعتماد عمومی به فناوری است. آگاهی از این مخاطرات و درک سازوکارهای پشت آن، به کاربران کمک میکند با احتیاط و مسئولیت بیشتری از این ابزارها استفاده کنند و در برابر تهدیدهایی که روزبهروز پیچیدهتر میشوند، آسیبپذیر نباشند.
فاطمه عربدوست، پژوهشگر هوش مصنوعی و فعال در حوزههای پردازش متن، تصویر و سیگنالهای زیستی، در گفتوگو با خبرنگار آناتک، به بررسی ابعاد کمتر دیدهشده تعامل کاربران با چتباتها و مدلهای هوش مصنوعی پرداخته است؛ از دادههایی که افراد ناخواسته هنگام استفاده از این ابزارها افشا میکنند تا خطرات بازتولید اطلاعات شخصی، نقش هوش مصنوعی در جعل محتوا و عادتهای سادهای که میتواند امنیت کاربران را افزایش دهد.
کاربران عادی هنگام استفاده از چتباتها یا اپلیکیشنهای هوش مصنوعی چه دادههایی را ناخواسته افشا میکنند؟
کاربران باید در قبال اطلاعاتی که به مدل میدهند حساس باشند. مدارک و اسناد مهم که حاوی اطلاعات هویتی، مالی یا اطلاعات سازمانی، کدهای حاوی پسورد و دیگر دیتاهای مهم هستند را مستقیما و بهصورت خام آپلود نکنند. اگر نیاز است محتوایی شامل چنین اطلاعاتی به مدل داده شود، قسمتهای حساس مثل نام، آدرس، امضا و... تغییر داده یا حذف شود. چتهای قدیمی را در صورت عدم نیاز پاک کنند. همچنین فعال کردن گزینههایی مانند (Training Off) یا (Chat History Off) یا گزینههای مشابه میتواند کمککننده باشد
با توجه به این که از مدلها و چتباتهای هوش مصنوعی برای کارهای مختلف از شخصی تا فنی و تخصصی و حتی همصحبتی و دردودل استفاده میشود، میتواند اطلاعاتی مانند آدرس (IP)، موقعیت مکانی و زمانی و در صورت آپلود اسناد و مدارک حاوی اطلاعات هویتی و شخصی، مالی و دادههای سازمانی را به مدل بدهد. متادیتای اسناد آپلودشده مثل عکسها و همچنین اطلاعات رفتاری مثل الگوی صحبت و دغدغه فرد نیز قابل استخراج است.
آیا مدلهای هوش مصنوعی میتوانند اطلاعات شخصی کاربران را بازتولید یا افشا کنند؟
این مسئله غیرممکن نیست و در شرایط خاص میتواند اتفاق بیفتد؛ البته بستگی به فاکتورهای زیادی دارد. باید به این موضوع توجه داشت که مدلهای هوش مصنوعی حافظه صریح ندارند و پاسخها مبتنی بر دادههایی که مدل با آنها آموزش دیده تولید میشود. حال اگر اطلاعات شخصی فرد در دادههای آموزشی مدل باشد (مثلا بهطور گسترده در اینترنت باشد و مدل از دادههای اینترنت برای آموزش استفاده کرده باشد) میتواند در پاسخ آنها را تولید کند. همچنین اگر مدل روی دادههای شخصی آن فرد (fine tune) شود نیز این امکان وجود دارد.
بدیهی است که اگر اطلاعات شخصی توسط خود فرد بهعنوان ورودی داده شود و به نحوی درخواست بازتولید مثل خلاصه کردن و... داده شود، مدل میتواند این کار را انجام دهد. باید توجه داشت با اینکه خود مدلها به خودی خود دسترسی به حافظه ندارند، ولی پلتفرم آن مدل میتواند این اطلاعات را ذخیره و در اختیار مدل قرار دهد که در این صورت نیز امکان بازتولید به مدل داده میشود. جدا از این موارد، در برخی مدلها میتوان با یکسری از حملات بخشی از اطلاعات حساس آموزشی را بازتولید کرد.
نقش هوش مصنوعی در تولید محتوای جعلی و جعل هویت چیست و چرا کاربران عادی بیشتر در معرض آن هستند؟
هوش مصنوعی ساخت محتوای جعلی را سادهتر میکند، هزینه آن را کاهش میدهد، زمان مورد نیاز برای تولید را کم میکند و محتوای تولیدی میتواند واقعیتر و باورپذیرتر شود. افراد عادی معمولا دانش امنیتی کمتر، عادات دیجیتال ناامن و ابزار محافظتی کمتری دارند. بهعنوان مثال تشخیص محتوای ساختهشده با هوش مصنوعی برای این افراد ساده نیست، اغلب معتبر بودن منبع را چک نمیکنند و تفاوت منبع معتبر و نامعتبر را هم نمیدانند، تحت تاثیر احساسات حساسیتشان به محتوا کم میشود.
بهخاطر همین دلایل افراد عادی هدف آسانی برای محتواهای جعلی هستند و مسلما بیشتر مورد هدف قرار میگیرند. از طرفی فضای مجازی و شبکههای اجتماعی مستعد انتشار محتواهای جعلی هستند و حضور بیشتر افراد عادی در این فضا آنها را بیشتر در معرض این محتواها قرار میدهد.
چه عادتهای سادهای میتواند کاربران را در برابر سوءاستفاده از هوش مصنوعی محافظت کند؟
کاربران باید در قبال اطلاعاتی که به مدل میدهند حساس باشند. مدارک و اسناد مهم که حاوی اطلاعات هویتی، مالی یا اطلاعات سازمانی، کدهای حاوی پسورد و دیگر دیتاهای مهم هستند را مستقیما و بهصورت خام آپلود نکنند. اگر نیاز است محتوایی شامل چنین اطلاعاتی به مدل داده شود، قسمتهای حساس مثل نام، آدرس، امضا و... تغییر داده یا حذف شود.
چتهای قدیمی را در صورت عدم نیاز پاک کنند. همچنین فعال کردن گزینههایی مانند (Training Off) یا (Chat History Off) یا گزینههای مشابه میتواند کمککننده باشد. در ذهن داشته باشند مدلهای هوش مصنوعی یک ابزار هستند، دوست نیستند! اگر با عمومی شدن اطلاعاتی مشکل دارند، آن را در اختیار مدل نیز قرار ندهند.
آیا استفاده از ابزارهای امنیتی سنتی مثل رمز قوی و احراز هویت چندمرحلهای همچنان موثر است؟
بله، بهصورت کلی برای بالا بردن امنیت، یک روش یا کار واحد موثر نیست و حملات را بیاثر نمیکند؛ بلکه ترکیب کارهای مختلف و ایجاد لایههای متعدد منجر به بالا رفتن هزینه حمله و در نتیجه پایین آمدن احتمال موفقیت آن میشود. رمز قوی و احراز هویت چندمرحلهای نیز یکی از این لایهها است.
انتهای پیام/