دیده بان پیشرفت علم، فناوری و نوآوری
آیا بشر ظرفیت استفاده از هوش مصنوعی را دارد؟!

مجرمان سایبری با کمک ChatGPT انجام حملات خود را آسان‌تر کرده‌اند

مجرمان سایبری با کمک ChatGPT انجام حملات خود را آسان‌تر کرده‌اند
کارشناسان امنیت سایبری می‌گویند شواهد استفاده از ChatGPT توسط مجرمان حالا به‌وضوح قابل مشاهده است. این افراد از این ابزار هوش مصنوعی برای طراحی حملات فیشینگ و بدافزارها استفاده می‌کنند. ولی همین مسئله می‌تواند شرکت‌های تولیدکننده هوش مصنوعی را در معرض خطر قرار دهد، چون آن‌ها احتمالاً مصونیت قضایی نخواهند داشت.
کد خبر : 834374

به گزارش گروه دانش و فناوری خبرگزاری آنا به نقل از اینسایدر، چت‌بات ChatGPT کار‌های گوناگونی از نوشتن مقاله گرفته تا تحلیل محتوا را انجام می‌دهد و می‌تواند سرعت عمل افراد را بالا ببرد. اما این مسئله درخصوص مجرمان سایبری هم صدق می‌کند. «سرگی شایکِویچ»، محقق شرکت امنیت سایبری Checkpoint، می‌گوید شواهد استفاده از هوش مصنوعی برای تولید کد در حملات باج‌افزاری مشهود است.

شایکویچ و تیمش در انتهای سال ۲۰۲۱ شروع به مطالعه درباره پتانسیل‌های هوش مصنوعی در کمک به جرایم سایبری کردند و دریافتند که مجرمان با کمک این ابزار‌ها می‌توانند ایمیل فیشینگ و کد‌های مخرب تولید کنند. شایکویچ می‌گوید تیم او می‌خواست ببیند مجرمان واقعاً از هوش مصنوعی در حملات دنیای واقعی استفاده می‌کنند یا صرفاً به‌شکل تئوری آن‌ها را امتحان کرده‌اند.

ChatGPT واقعاً به مجرمان سایبری کمک می‌کند

از آن‌جایی که به‌راحتی نمی‌توان فهمید یک ایمیل فیشینگ با ChatGPT نوشته شده است یا خیر، محققان برای بررسی‌های بیشتر به دارک وب مراجعه کردند. آن‌ها در تاریخ ۲۱ دسامبر ۲۰۲۲ متوجه شدند که مجرمان از این چت‌بات برای ساخت یک اسکریپت پایتون استفاده کرده‌اند که در حملات سایبری استفاده می‌شود. شایکویچ می‌گوید کد این اسکریپت اشتباهاتی هم داشت، اما بخش عمده آن درست بود.

حالا سوءاستفاده از ChatGPT کارشناسان امنیت را نگران کرده است، چون این ابزار‌ها می‌توانند به مجرمانی که دانش فنی کمی دارند، کمک کنند تا حملات خود را پیاده‌سازی نمایند. پیش‌تر شرکت Blackberry مدعی شده بود که طبق نظرسنجی آن‌ها،  ۷۴ درصد از متخصصان امنیت نگران استفاده از این مدل هوش مصنوعی در جرایم سایبری هستند.

اما از سوی دیگر، کمک ابزار‌های هوش مصنوعی به مجرمان سایبری می‌تواند برای شرکت‌های تولیدکننده آن‌ها مشکل‌ساز باشد. اکثر شرکت‌های فناوری تحت حمایت ماده ۲۳۰ قانون شایستگی ارتباطات از مسئولیت‌پذیری در قبال نشر محتوا در پلتفرم‌های خود مصون هستند. اما درباره چت‌بات‌ها، چون این پیشنهاد‌ها از جانب خود هوش مصنوعی ارائه می‌شود، شرکت‌هایی مثل OpenAI احتمالاً مسئول کمک به مجرمان خواهند بود.

انتهای پیام/

ارسال نظر
گوشتیران
قالیشویی ادیب