خطرات سایبری چتباتهای هوش مصنوعی برای کسبوکارها
مرکز ملی امنیت سایبری بریتانیا (NCSC) در دو پست وبلاگی اعلام کرد که کارشناسان هنوز به مشکلات امنیتی بالقوه مرتبط با الگوریتمهایی که میتوانند تعاملات انسانی را تولید کنند، دست نیافتهاند.
ابزارهای مبتنی بر هوش مصنوعی در حال استفاده اولیه بهعنوان چتبات هستند. برخی تصور میکنند نه تنها جستوجوهای اینترنتی، بلکه برای تماسهای کاری و فروش مشتریان نیز مفید هستند.
به گفته مرکز ملی امنیت سایبری بریتانیا این میتواند خطراتی را به همراه داشته باشد، بهویژه اگر چنین مدلهایی به فرایندهای تجاری سازمان متصل شوند. دانشگاهیان و محققان بارها راههایی برای منحرف کردن چتباتها از طریق دستور دادن یا دور زدن قانونهای داخلی خود پیدا کردهاند.
بهعنوان مثال، یک چتبات مبتنی بر هوش مصنوعی که توسط یک بانک به کار گرفته میشود، ممکن است فریب بخورد تا یک تراکنش غیرمجاز انجام دهد، اگر یک هکر درخواست خود را درست تنظیم کند.
مرکز ملی امنیت سایبری بریتانیا در یکی از پستهای وبلاگ خود با اشاره به انتشار نرمافزارهای آزمایشی گفت: «سازمانهایی که از مدلهای زبانی استفاده میکنند، باید مراقب باشند. این ابزارها ممکن است اجازه ندهند آن محصول در انجام معاملات از طرف مشتری دخالت داشته باشد. امیدواریم که به طور کامل به آن اعتماد نکنند. باید در برابر مدلهای زبانی محتاط بود.»
مقامات در سراسر جهان در حال دستوپنجه نرم کردن با ظهور مدلهای زبانی مانند «چت جیپیتی» (ChatGPT) هستند که کسبوکارها از آن برای طیف گستردهای از خدمات در فروش و مراقبت از مشتری بهره میگیرند.
پیامدهای امنیتی هوش مصنوعی هنوز در کانون توجه قرار دارد و مقامات ایالات متحده و کانادا میگویند شاهد استقبال هکرها از این فناوری بودهاند.
انتهای پیام/