صفحه نخست

آموزش و دانشگاه

علم‌وفناوری

ارتباطات و فناوری اطلاعات

ورزش

سلامت

پژوهش

سیاست

اقتصاد

فرهنگ‌ و‌ جامعه

علم +

عکس

فیلم

استانها

بازار

اردبیل

آذربایجان شرقی

آذربایجان غربی

اصفهان

البرز

ایلام

بوشهر

تهران

چهارمحال و بختیاری

خراسان جنوبی

خراسان رضوی

خراسان شمالی

خوزستان

زنجان

سمنان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویراحمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

هومیانا

پخش زنده

دیده بان پیشرفت علم، فناوری و نوآوری
یک مقام ارشد سایبری کانادا:

از هوش مصنوعی برای هک و تولید اطلاعات نادرست استفاده می‌شود

یک مقام ارشد امنیت سایبری کانادا گفت: هکر‌ها از هوش مصنوعی (AI) برای ایجاد نرم‌افزار‌های مخرب، پیش‌نویس ایمیل‌های فیشینگ قانع‌کننده و انتشار اطلاعات نادرست آنلاین استفاده می‌کنند.
کد خبر : 859232

به گزارش خبرنگار خبرگزاری علم و فناوری آنا، یک مقام ارشد امنیت سایبری کانادا به رویترز گفت: هکر‌ها و مبلغان از هوش مصنوعی (AI) برای ایجاد نرم‌افزار‌های مخرب، پیش‌نویس ایمیل‌های فیشینگ قانع‌کننده و انتشار اطلاعات نادرست آنلاین استفاده می‌کنند.

سامی خوری، رئیس مرکز امنیت سایبری کانادا در مصاحبه‌ای گفت که آژانس او ​​دیده است که هوش مصنوعی در ایمیل‌های فیشینگ، یا ساخت ایمیل‌ها به شیوه‌ای متمرکزتر، در کد‌های مخرب (و) و اطلاعات نادرست استفاده می‌شود.

خوری جزییات یا شواهدی ارائه نکرد، اما ادعای او مبنی بر اینکه مجرمان سایبری قبلاً از هوش مصنوعی استفاده می‌کردند، نکته قابل توجهی را به نگرانی در مورد استفاده از این فناوری در حال ظهور توسط بازیگران سرکش اضافه می‌کند.

در ماه‌های اخیر، چندین گروه ناظر سایبری گزارش‌هایی را منتشر کرده‌اند که در مورد خطرات فرضی هوش مصنوعی هشدار می‌دهند - به‌ویژه برنامه‌های پردازش زبانی که به‌سرعت پیشرفت می‌کنند که به عنوان مدل‌های زبان بزرگ (LLM) شناخته می‌شوند و از حجم عظیمی از متن برای ایجاد گفت‌وگوها، اسناد و موارد دیگر با صدای متقاعدکننده استفاده می‌کنند.

در ماه مارس، سازمان پلیس اروپا یوروپل گزارشی منتشر کرد که در آن می‌گفت مدل‌هایی مانند چت جی‌پی‌تی این امکان جعل هویت یک سازمان یا فرد به شیوه‌ای بسیار واقع‌بینانه حتی با درک اولیه زبان انگلیسی فراهم کرده است. 

در همان ماه، مرکز امنیت ملی سایبری بریتانیا در پستی در وبلاگ گفت که این خطر وجود دارد که مجرمان «ممکن است از مدل‌های زبانی بزرگ (LLM) برای کمک به حملات سایبری فراتر از توانایی‌های فعلی‌شان استفاده کنند».

محققان امنیت سایبری انواع موارد استفاده بالقوه مخرب را نشان داده‌اند و اکنون برخی می‌گویند که شروع به مشاهده محتوای مشکوک تولید شده توسط هوش مصنوعی در طبیعت کرده‌اند. هفته گذشته، یک هکر سابق گفت که یک مدل زبانی LLM آموزش دیده بر روی مواد مخرب را کشف کرده است و از آن خواسته تا تلاش قانع‌کننده‌ای برای فریب شخصی برای انتقال پول نقد ارائه کند.

این مدل زبانی بزرگ با یک ایمیل سه پاراگراف پاسخ داد که از هدف خود برای یک فاکتور فوری کمک می‌خواهد.

مدل گفت: «می‌دانم که ممکن است کوتاه باشد، اما این پرداخت فوق‌العاده مهم است و باید در ۲۴ ساعت آینده انجام شود.»
خوری گفت که در حالی که استفاده از هوش مصنوعی برای پیش‌نویس کد‌های مخرب هنوز در مراحل اولیه است - «هنوز راه وجود دارد، زیرا نوشتن یک اکسپلویت خوب به زمان زیادی نیاز دارد» - نگرانی این بود که مدل‌های هوش مصنوعی آنقدر سریع در حال تکامل بودند که کنترل پتانسیل مخرب آن‌ها قبل از انتشار در طبیعت دشوار بود.

 او گفت: چه کسی می‌داند در گوشه و کنار چه چیزی در راه است.

انتهای پیام/

ارسال نظر