کلاهبرداریهای نوظهور هوش مصنوعی/ از جعل عمیق تا ایمیلهای فیشینگ «چت جیپیتی»
گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا، فناوریهای مدرن از هوش مصنوعی گرفته تا ارتباطات بیسیم فوق سریع، در سالهای اخیر کار و زندگی مردم را متحول کردهاند. ضمن لذت بردن از راحتی این فناوریها باید به این نکته نیز توجه داشت که اگر اینها به دست افراد نادرستی بیفتند، دردسرهای زیادی پیش خواهد آمد.
استیو وزنیاک، یکی از بنیانگذاران اپل، چندی پیش هشدار داد فناوری هوش مصنوعی ممکن است شناسایی کلاهبرداریها و اطلاعات غلط را سختتر کند.
مقامات در حال مبارزه با کلاهبرداران آنلاین و گروههای تبهکار پشت سر آنها هستند، با این حال کلاهبرداریها همچنان به قوت خود ادامه دارد. در ادامه به برخی از رایجترین تلههای آنلاین میپردازیم که با کمک فناوریهایی مانند هوش مصنوعی، حتی کاربران آگاه به فناوری نیز در معرض خطر قربانی شدن قرار دارند.
جعل عمیق با استفاده از هوش مصنوعی
دیپ فیک یا جعل عمیق فناوری نوظهور هوش مصنوعی است که به اندازه ترسناک بودن شگفتانگیز نیز هست و ضربالمثل قدیمی «شنیدن کی بود مانند دیدن» را نادیده میگیرد.
دیپ فیک یا جعل عمیق، ترکیبی از کلمههای یادگیری عمیق و جعلی، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد و از یک تکنیک یادگیری ماشین به نام شبکههای زایای دشمنگونه استفاده میکند.
این فناوری قادر است به صورت یکپارچه ظاهر یک شخص را در یک ویدئو برای فرد دیگر کپی کند و صدا و حرکات متقاعدکنندهای برای مطابقت با آن داشته باشد. سازنده میتواند ویدئوهایی تولید کند که به نظر میرسد کسی چیزی را با زبان طبیعی بدن میگوید، اما در واقع فرد چیزی از این دست نگفته است.
یک اپلیکیشن موبایل به نام «زاو» (ZAO) در سال ۲۰۱۹، ویژگی جدیدی را ارائه کرد که به کاربران اجازه میداد تنها با آپلود عکسهای خود، چهره خود را با افراد مشهور در طیف گستردهای از ویدئوها عوض کنند و فناوری جعل عمیق را در سراسر جهان روی موضوعات مختلف پیاده کنند. این برنامه در حالی پربیننده شد که مردم از عملکردهای تغییر چهره لذت میبردند، اما خیلی زود باعث نگرانی در مورد تجاوز به حریم خصوصی شد.
استفاده از این فناوری بهسرعت و اغلب برای اهداف شرورانه در حال رشد است. یک شرکت مستقر در آمستردام که بر رسانههای مصنوعی توسعهیافته توسط هوش مصنوعی نظارت میکند، مشاهده کرد که از این فناوری بیشتر برای ایجاد ویدئوهای جنسی استفاده میشود و ۹۶ درصد کل آن را تشکیل میدهد. کلاهبرداران مالی نیز از فناوری جعل عمیق برای دستیابی به مقاصد خود سودجویی میکنند.
بسیاری از گزارشها نشان دادهاند که چگونه عکسهای روزمره مردم که در پلتفرمهای اجتماعی منتشر میشوند، دزدیده شده و برای ویدئوهای جعلی استفاده میشوند. وانگ جی، قائم مقام مؤسسه حاکمیت قانون در آکادمی علوم اجتماعی پکن، به این موضوع اشاره کرد که چهره و صدای مردم باید در عصر هوش مصنوعی محافظت شود.
تماسهای تلفنی شبیهسازی صدا با هوش مصنوعی
برنامههای شبیهسازی صدا، یک صدا را بر اساس تعداد زیادی نمونه صدا تکرار میکنند که گاهی اوقات میتواند بهراحتی به صورت آنلاین به دست آید و به کلاهبرداران فرصت میدهد تا با استفاده از فناوری برای جعل هویت اعضای خانواده یا دوستان خود از قربانیان کلاهبرداری کنند. برخی از کلاهبرداران حتی داستان آدمربایی را ساخته و با استفاده از صدای جعلی بهعنوان مدرک، درخواست باج کردهاند.
به لطف پیشرفت هوش مصنوعی، اپلیکیشنهای شبیهسازی صدا به طور قابل توجهی بهبود یافته و پیشرفت کردهاند، در دسترستر شده و بهراحتی تولید میشوند.
براساس گزارش سیانان در ماه آوریل، یک خانواده در آریزونای آمریکا یک تماس باجخواهی دریافت کردند که در آن صدای جیغ دخترشان را شنیدند و به دنبال آن صدای مردی که درخواست یک میلیون دلار باج کرده بود. اگرچه نیروهای پلیس به کمک متخصصان و با استفاده با همان فناوری هوش مصنوعی به جعلی بودن آن پی بردند، اما ترسی که این خانواده تجربه کردند واقعی بود!
ایمیلهای فیشینگ «چت جیپیتی»
فیشینگ ایمیلی دهههاست که وجود دارد. فیشینگ نوعی حمله مهندسی اجتماعی است که عموماً از طریق ایمیل و با هدف سرقت اطلاعات ورود به سیستم و سایر اطلاعات حساس مانند اطلاعات کارت اعتباری برای سرقت هویت افراد انجام میشود. یکی از ویژگیهای قابل توجه فیشینگ، عنصر سورپرایز است! این ایمیلها زمانی دریافت میشوند که قربانی انتظارش را ندارد.
کلاهبرداریهای ایمیلی قدیمی پر از نقاط ضعف داستانی و تایپهای بسیار ابتدایی بودند، اما به نظر میرسد تکنولوژیهای جدید مانند چت جیپیتی و یادگیری ماشینی در حال برطرف کردن ایرادات این نوع کلاهبرداری هستند.
مجرمان سایبری، دیگر نیازی به ساخت ایمیل و پاسخ ندارند! آنها میتوانند تمام مشکلات خود را به هوش مصنوعی بسپارند و الگوریتمها میتوانند به کلاهبرداران کمک کنند تا تحلیل کنند که قربانیان ایدهآل آنها چه کسانی هستند. ایمیلهای پیچیده کلاهبرداری فیشینگ میتوانند باعث شوند قربانیان مجبور شوند روی لینکی کلیک کنند که ممکن است روی دستگاه آنها بدافزار کار بگذارد.
به گفته شرکت «دارکتریس» (Darktrace) که برجستهترین شرکت امنیت سایبری انگلیس است، تعداد زیادی ایمیل فیشینگ توسط چتباتها نوشته میشوند که متن متقاعدکنندهای ایجاد میکنند. ایمیلها را میتوان بهراحتی از یک کارفرما دریافت کرد تا کارمندان را برای باز کردن آنها فریب دهد. ایمیلهای فیشینگ را همچنین میتوان با تغذیه اطلاعات شخصی کاربران هوش مصنوعی از رسانههای اجتماعی طراحی کرد.
هک دستگاههای اینترنت اشیا
زمانی ما از توانایی خود که با پیشرفت فناوری قدرت گرفته بود، برای کنترل وسایل مختلف شخصی، از اتومبیل و یخچال گرفته تا چراغها و پردهها از تلفنهای همراه کوچک و همه فن حریف خود شگفتزده شدیم، اما در واقع این دستگاهها میتوانند نقاط ورود کلیدی برای حملات سایبری باشند.
براساس گزارش وبسایت خبری سیانبیسی، حدود ۱۷ میلیارد ابزار، از چاپگر گرفته تا بازکننده در گاراژ، در سراسر جهان میتوانند بهراحتی هک شوند. براساس این گزارش، در حالی که امنیت سختافزار و نرمافزار فناوری اطلاعات در سالهای اخیر تقویت شده است، امنیت اینترنت اشیا (IoT) از این روند جا مانده است. اکثر کاربران از لزوم بهروزرسانی بموقع وصلههای نرمافزاری آگاه نیستند و این ضعفی است که میتواند هکرها را مسلح کند.
انتهای پیام/