«چت جیپیتی» را میتوان برای تولید کدهای مخرب گول زد!
به گزارش خبرگزاری علم و فناوری آنا به نقل از گاردین، تیمی از محققان معتقد هستند که برنامههای هوش مصنوعی مانند «چت جیپیتی» (ChatGPT) میتوانند برای تولید دستورات مضر و حمله به سیستمهای کامپیوتری در دنیای واقعی مورد سوءاستفاده قرار گیرند.
«زوتان پنگ»، دانشجوی دکتری و یکی از رهبران این گروه گفت: در واقعیت، بسیاری از شرکتها از این نوع تهدیدات آگاه نیستند و به دلیل پیچیدگی رباتهای گفتوگو، حتی در داخل جامعه نکاتی وجود دارد که بهطور کامل درک نشدهاند. چت جیپیتی توجه زیادی را به خود جلب کرده است، اما آنچه دریافتیم این است که میتوان آن را فریب داد تا کد مخربی تولید کند که میتواند به سایر سرویسها آسیب جدی وارد کند.
این تیم تستهای آسیبپذیری را روی سیستمهای «تکست تو آسکیوال» (Text-to-SQL) انجام دادند که معمولاً برای ایجاد رابطهای زبان طبیعی برای پایگاههای داده استفاده میشوند. تکست تو آسکیوال تکنیکی است که بهطور خودکار یک سؤال در زبان انسانی را به یک عبارت ترجمه میکند.
بر اساس بیانیه مطبوعاتی دانشگاه، این تیم دریافت که برنامههای کاربردی هوش مصنوعی را میتوان برای تولید کدهای مخرب فریب داد که میتواند برای انجام حملات سایبری مورداستفاده قرار گیرد.
این تیم قادر به سرقت اطلاعات شخصی حساس، دستکاری در پایگاه دادهها و از بین بردن سرویسها از طریق حملات سایبری بود. پنگ توضیح داد که اگرچه بسیاری از مردم از چت جیپیتی بهعنوان یک ابزار مکالمه استفاده میکنند، اکثریت قریب به اتفاق کاربران از آن بهعنوان یک ابزار بهرهوری استفاده میکنند. بهعنوانمثال، یک پرستار میتواند از چت جیپیتی بخواهد که یک دستور بنویسد تا بتواند با یک پایگاه داده تعامل داشته باشد، مانند پایگاهی که سوابق بالینی را ذخیره میکند.
محققان همچنین دریافتند که میتوانند بهطور مخفیانه یک کد مضر را در مدلهای تکست تو آسکیوال در حین آموزش قرار دهند. این کد در ابتدا قابلمشاهده نخواهد بود، اما میتواند برای آسیب رساندن به افرادی که از آن استفاده میکنند، کاربرد داشته باشد.
«مارک استیونسون»، مدرس ارشد دانشگاه، گفت: کاربران سیستمهای تکست تو آسکیوال باید از خطرات بالقوه در این کار آگاه باشند. مدلهای زبان بزرگ، مانند مدلهایی که در سیستمهای تکست تو آسکیوال استفاده میشوند، بسیار قدرتمند هستند، اما رفتار آنها پیچیده است و پیشبینی آن دشوار است. در دانشگاه شفیلد در حال حاضر برای درک بهتر این مدلها کار میکنیم و اجازه میدهیم پتانسیل کامل آنها به کار گرفته شود.
این تیم کار خود را با بایدو و «اوپنایآی» (OpenAI) به اشتراک گذاشت تا به آنها در مورد نقص برنامههای هوش مصنوعی هشدار دهد. به گفته محققان، هر دو شرکت این مشکل را برطرف کردهاند.
انتهای پیام/