گوگل: مطالب محرمانه را وارد چتباتهای هوش مصنوعی نکنید
گوگل، یکی از بزرگ ترین حامیان هوش مصنوعی به کارکنان خود در مورد چتباتها هشدار داده است.
کد خبر : 852827
به گزارش خبرنگار خبرگزاری علم و فناوری آنا به نقل از رویترز، گوگل، یکی از بزرگترین حامیان هوش مصنوعی، به کارکنان خود در مورد چتباتها هشدار داده است. به گفته منابع بینالمللی، این شرکت به کارمندان خود توصیه کرده که مطالب محرمانه خود را وارد چتباتهای هوش مصنوعی نکنند. این شرکت با اشاره به سیاست طولانی مدت در زمینه حفاظت از اطلاعات، این موضوع را تایید کرده است.
این چتباتها که در میان آنها میتوان به «Bard» (بارد) و «ChatGPT» (چت جیپیتی) اشاره کرد، برنامههایی انساننما هستند که از هوش مصنوعی مولد برای مکالمه با کاربران و پاسخ به درخواستها استفاده میشود. محققان دریافتند که هوش مصنوعی میتواند دادههای جذب شده در طول آموزش را بازتولید کند و خطر نشر را به دنبال داشته باشد.
آلفابت همچنین به مهندسان خود هشدار داده که از استفاده مستقیم از کدهای کامپیوتری که چتباتها تولید کنند، خودداری کنند. این شرکت در این باره گفته است که «بارد میتواند پیشنهادهایی برای کد نامطلوب ارائه دهد، اما با این حال به برنامه نویسان کمک میکند. همچنین قصد دارد در مورد محدودیتهای فناوری خود شفاف باشد.»
این نگرانیها نشان میدهند که گوگل چگونه میخواهد از آسیبهای تجاری نرم افزارهایی که در رقابت با چت جیپیتی راه اندازی کرده، جلوگیری کند. در رقابت گوگل با حامیان چت جیپیتی و مایکروسافت، میلیاردها دلار سرمایه گذاری در خطر است. احتیاط گوگل همچنین نشان میدهد که چه چیزی در حال تبدیل شدن به یک استاندارد امنیتی برای شرکتها است.
تعداد زیادی از کسب و کارها در سراسر جهان استارتآپهایی را در زمینه چتباتهای هوش مصنوعی راه اندازی کردهاند که از میان آنها میتوان به سامسونگ، آمازون و اپل اشاره کرد.
براساس نظرسنجی که از ۱۲ هزار پاسخ دهنده از جمله از شرکتهای برتر مستقر در آمریکا انجام شده است، حدود ۴۳ درصد از متخصصان تا دیماه از چت جیپیتی یا دیگر ابزارهای هوش مصنوعی استفاده میکردند، اغلب بدون اینکه به روسای خود بگویند.
در حال حاضر گوگل، چتباتها را به بیش از ۱۸۰ کشور و به ۴۰ زبان به عنوان سکوی پرشی برای خلاقیت عرضه میکند، اما با این حال هشدارهایی درباره آن گسترش مییابد.
گوگل پس از انتشار گزارشی مبنی بر به تعویق افتادن عرضه «chromecast» (کروم کست) به منظور کسب اطلاعات بیشتر در مورد تاثیر آن بر حریم خصوصی گفته است که گفتگوهای مفصلی با کمیسیون حفاظت از دادههای ایرلند داشته و به سوالات قانون گذاران پاسخ داده است.
**نگرانی درباره اطلاعات محرمانه کاربران
چنین فناوریهایی میتوانند ایمیلها، اسناد و حتی خود نرم افزار را پیش نویس کنند و نوید سرعت بخشیدن به کارها را بدهند. با این حال، این محتوا میتواند اطلاعات نادرست و دادههای حساس را فاش کند.
در اطلاعیه حریم خصوصی گوگل که آمده است که «اطلاعات محرمانه یا حساس را در مکالمات خود وارد نکنید.»
برخی شرکتها نرم افزارهایی برای رفع چنین نگرانیهایی توسعه دادهاند. به عنوان مثال «Cloudflare» (کلودفلر) که از وب سایتها در برابر حملات سایبری دفاع میکند و خدمات ابری دیگری ارائه میدهد. کلودفلر قابلیتی را برای کسب و کارها به وجود میآورد تا برخی از دادهها را به صورت خارجی برچسب گذاری و محدود کنند.
گوگل و مایکروسافت همچنین ابزارهای محاورهای را به مشتریان تجاری ارائه میدهند که از جذب دادهها به مدلهای هوش مصنوعی عمومی خودداری میکنند. تنظیمات پیش فرض در بارد و چت جیپیتی نیز ذخیره تاریخچه مکالمه برای کاربران را ممکن میکند تا بتوانند آن را حذف کنند.
به گفته «یوسف مهدی»، مدیر ارشد بازاریابی مصرف کننده مایکروسافت «منطقی است که شرکتها نمیخواهند کارکنانشان از چتباتهای عمومی برای کار استفاده کنند.»
مهدی در توضیح چگونگی مقایسه چتبات بینگ رایگان مایکروسافت با نرم افزار سازمانی خود گفت «شرکتها موضع محافظه کارانهای اتخاذ میکنند.»
مایکروسافت از اظهار نظر در مورد ممنوعیت ورود کارکنان به اطلاعات محرمانه در برنامههای عمومی هوش مصنوعی، از جمله برنامههای خود، خودداری کرد، هر چند که یک مدیر اجرایی دیگر گفته است که او شخصا استفاده از چتباتها را محدود کرده است.
«متیو پرینس»، مدیرعامل کلودفلر معتقد است که «تایپ کردن مسائل محرمانه در چتباتها مانند این است که گروهی از دانشجویان دکتری در تمام سوابق خصوصیشان با هم مشترک شوند.»
انتهای پیام/