از هوش مصنوعی برای هک و تولید اطلاعات نادرست استفاده میشود
به گزارش خبرنگار خبرگزاری علم و فناوری آنا، یک مقام ارشد امنیت سایبری کانادا به رویترز گفت: هکرها و مبلغان از هوش مصنوعی (AI) برای ایجاد نرمافزارهای مخرب، پیشنویس ایمیلهای فیشینگ قانعکننده و انتشار اطلاعات نادرست آنلاین استفاده میکنند.
سامی خوری، رئیس مرکز امنیت سایبری کانادا در مصاحبهای گفت که آژانس او دیده است که هوش مصنوعی در ایمیلهای فیشینگ، یا ساخت ایمیلها به شیوهای متمرکزتر، در کدهای مخرب (و) و اطلاعات نادرست استفاده میشود.
خوری جزییات یا شواهدی ارائه نکرد، اما ادعای او مبنی بر اینکه مجرمان سایبری قبلاً از هوش مصنوعی استفاده میکردند، نکته قابل توجهی را به نگرانی در مورد استفاده از این فناوری در حال ظهور توسط بازیگران سرکش اضافه میکند.
در ماههای اخیر، چندین گروه ناظر سایبری گزارشهایی را منتشر کردهاند که در مورد خطرات فرضی هوش مصنوعی هشدار میدهند - بهویژه برنامههای پردازش زبانی که بهسرعت پیشرفت میکنند که به عنوان مدلهای زبان بزرگ (LLM) شناخته میشوند و از حجم عظیمی از متن برای ایجاد گفتوگوها، اسناد و موارد دیگر با صدای متقاعدکننده استفاده میکنند.
در ماه مارس، سازمان پلیس اروپا یوروپل گزارشی منتشر کرد که در آن میگفت مدلهایی مانند چت جیپیتی این امکان جعل هویت یک سازمان یا فرد به شیوهای بسیار واقعبینانه حتی با درک اولیه زبان انگلیسی فراهم کرده است.
در همان ماه، مرکز امنیت ملی سایبری بریتانیا در پستی در وبلاگ گفت که این خطر وجود دارد که مجرمان «ممکن است از مدلهای زبانی بزرگ (LLM) برای کمک به حملات سایبری فراتر از تواناییهای فعلیشان استفاده کنند».
محققان امنیت سایبری انواع موارد استفاده بالقوه مخرب را نشان دادهاند و اکنون برخی میگویند که شروع به مشاهده محتوای مشکوک تولید شده توسط هوش مصنوعی در طبیعت کردهاند. هفته گذشته، یک هکر سابق گفت که یک مدل زبانی LLM آموزش دیده بر روی مواد مخرب را کشف کرده است و از آن خواسته تا تلاش قانعکنندهای برای فریب شخصی برای انتقال پول نقد ارائه کند.
این مدل زبانی بزرگ با یک ایمیل سه پاراگراف پاسخ داد که از هدف خود برای یک فاکتور فوری کمک میخواهد.
مدل گفت: «میدانم که ممکن است کوتاه باشد، اما این پرداخت فوقالعاده مهم است و باید در ۲۴ ساعت آینده انجام شود.»
خوری گفت که در حالی که استفاده از هوش مصنوعی برای پیشنویس کدهای مخرب هنوز در مراحل اولیه است - «هنوز راه وجود دارد، زیرا نوشتن یک اکسپلویت خوب به زمان زیادی نیاز دارد» - نگرانی این بود که مدلهای هوش مصنوعی آنقدر سریع در حال تکامل بودند که کنترل پتانسیل مخرب آنها قبل از انتشار در طبیعت دشوار بود.
او گفت: چه کسی میداند در گوشه و کنار چه چیزی در راه است.
انتهای پیام/