جعل هویت مقام‌های آمریکایی با هوش مصنوعی، جرم انگاری می‌شود

جعل هویت مقام‌های آمریکایی با هوش مصنوعی، جرم انگاری می‌شود
روز سه‌شنبه ۲ نماینده کنگره آمریکا طرحی دوحزبی ارائه کردند که هدف آن مقابله با افزایش استفاده کلاهبرداران از هوش مصنوعی است. این طرح به دنبال گسترش مجازات‌ها برای کلاهبرداری‌های مبتنی بر هوش مصنوعی و جرم‌انگاری جعل هویت مقامات فدرال با استفاده از فناوری دیپ‌فیک است.  

به گزارش خبرگزاری آنا؛ «قانون بازدارندگی تقلب هوش مصنوعی» توسط تد لیو، نماینده دموکرات ایالت کالیفرنیا، و نیل دان، نماینده جمهوری‌خواه ایالت فلوریدا پیشنهاد شده است. این قانون تعاریف و مجازات‌های جرایم مرتبط با تقلب را به‌روزرسانی می‌کند تا با رشد سریع هوش مصنوعی هماهنگ شود. 

دان در بیانیه‌ای هنگام معرفی این طرح گفت: «با پیشرفت سریع فناوری هوش مصنوعی، قوانین ما باید همگام شوند. این قانون مجازات جرایم مرتبط با تقلب با کمک هوش مصنوعی را تقویت می‌کند. افتخار می‌کنم که در تدوین این قانون مشارکت دارم تا از هویت مردم محافظت کنیم و مانع سوءاستفاده از این فناوری نوآورانه شویم.» لیو نیز تأکید کرد: «اکثریت مردم آمریکا خواهان چارچوب‌های منطقی برای هوش مصنوعی هستند و هرج‌ومرج کامل را مفید نمی‌دانند.» 

افزایش مجازات‌ها و تعریف‌های تازه 

قانون پیشنهادی حداکثر جریمه برای کلاهبرداری از مؤسسات مالی را در صورت استفاده آگاهانه از هوش مصنوعی، از یک میلیون دلار به دو میلیون دلار افزایش می‌دهد. 

این طرح همچنین فریبکاری‌های مبتنی بر هوش مصنوعی را به‌طور صریح در تعریف‌های «کلاهبرداری پستی» و «کلاهبرداری ارتباطی» وارد می‌کند. کلاهبرداری ارتباطی معمولاً شامل تقلب از طریق رادیو یا تلویزیون در تجارت بین ایالتی یا خارجی است. این تغییر امکان پیگرد قانونی افرادی را فراهم می‌کند که با استفاده از هوش مصنوعی هر یک از این نوع تقلب‌ها را انجام دهند. 

بر اساس این قانون، کلاهبرداری پستی می‌تواند تا یک میلیون دلار جریمه و ۲۰ سال زندان به همراه داشته باشد و کلاهبرداری ارتباطی تا یک میلیون دلار جریمه و ۳۰ سال زندان. پیش‌نویس همچنین جعل هویت مقامات فدرال با دیپ‌فیک‌های هوش مصنوعی را جرم‌انگاری می‌کند و به تلاش‌های اخیر برای تقلید از رئیس دفتر کاخ سفید «سوزی وایلس» و وزیر امور خارجه آمریکا، «مارکو روبیو» اشاره دارد.

تهدید‌های نوین در عصر هوش مصنوعی 

تقلب پدیده‌ای باستانی است، اما کارشناسان هشدار می‌دهند که هوش مصنوعی می‌تواند آن را تشدید کند؛ زیرا دسترسی به ابزار‌های تقلب را آسان‌تر و کیفیت خروجی‌های جعلی را بالاتر می‌برد. 

افرادی که پیش از ظهور هوش مصنوعی انرژی لازم برای ارتکاب تقلب را صرف نمی‌کردند، اکنون می‌توانند تنها با وارد کردن چند عبارت در نرم‌افزار‌های تولید تصویر یا ویدئو، اسناد یا تصاویر جعلی بسازند. کلاهبرداران با استفاده از هوش مصنوعی قادرند رسانه‌ها یا اسناد جعلی با کیفیت بسیار بالاتر تولید کنند؛ در حالی که تلاش‌های دستی گذشته اغلب ناشیانه و قابل تشخیص بودند.

هشدار‌های امنیتی و نمونه‌های واقعی 

اداره تحقیقات فدرال (FBI) در دسامبر هشدار داد که «هوش مصنوعی مولد زمان و تلاش لازم برای فریب قربانیان را کاهش می‌دهد» و افزود که این فناوری می‌تواند خطا‌های انسانی را اصلاح کند؛ خطا‌هایی که پیش‌تر نشانه‌ای برای شناسایی تقلب بودند. 

شرکت‌های مدیریت هزینه و بازپرداخت مانند Expensify، AppZen و Concur متعلق به SAP، امسال ابزار‌هایی برای شناسایی رسید‌های جعلی تولیدشده با هوش مصنوعی پیاده‌سازی کردند. 

شرکت AppZen اعلام کرد که حدود ۱۴ درصد از اسناد جعلی ارائه‌شده در سپتامبر توسط هوش مصنوعی تولید شده‌اند؛ رقمی که نسبت به صفر مورد مشابه در سال گذشته جهشی چشمگیر محسوب می‌شود.

سرعت و مقیاس متفاوت تقلب‌های جدید 

مورا آر. گراسمن، استاد پژوهشی علوم کامپیوتر در دانشگاه واترلو کانادا و وکیل، به ان.بی.سی نیوز گفته است: «هوش مصنوعی مقیاس، دامنه و سرعتی برای تقلب ایجاد می‌کند که بسیار متفاوت از گذشته است.» 

بسیاری از ناظران نگران‌اند که نهاد‌های موجود، مانند دادگاه‌ها، نتوانند با سرعت توسعه هوش مصنوعی همگام شوند. هانی فرید، استاد علوم کامپیوتر در دانشگاه کالیفرنیا برکلی و هم‌بنیان‌گذار شرکت امنیتی GetReal، گفت: «سال‌های هوش مصنوعی مانند سال‌های سگ هستند»؛ اشاره به سرعت بالای پیشرفت این فناوری. 

تصاویر تولیدشده با هوش مصنوعی که پیش‌تر به دلیل وجود دست یا پای اضافی قابل شناسایی بودند، اکنون با مدل‌های پیشرفته‌تر بسیار دقیق‌تر شده‌اند. 

ضرورت برچسب‌گذاری محتوای تولیدشده با هوش مصنوعی 

هشدار FBI در دسامبر از افراد خواست تا برای شناسایی رسانه‌های تولیدشده با هوش مصنوعی به دنبال نقص‌های ظریف در تصاویر و ویدئو‌ها باشند، مانند دست‌ها یا پا‌های تحریف‌شده اما به گفته فرید، این توصیه که فقط ۱۱ ماه از انتشار آن گذشته، دیگر درست نیست و حتی می‌تواند مضر باشد. او گفت: «روش تشخیص دست‌های اضافی دیگر کار نمی‌کند. نمی‌توان به دست یا پا نگاه کرد. هیچ‌کدام از این نشانه‌ها جواب نمی‌دهند.» 

شبکه ان.بی.سی نیوز آمریکا در بخش دیگری از گزارش خود می‌نویسد؛ با تأکید بر اهمیت برچسب‌گذاری محتوای تولیدشده با هوش مصنوعی، لایحه پیشنهادی لیو و دان روشن می‌کند که برای رسانه‌های تولیدشده با هوش مصنوعی زمان و مکان مشخصی وجود دارد. پیش‌نویس روز سه‌شنبه استثنایی برای محتوای طنز یا سایر فعالیت‌های تحت حمایت متمم اول قانون اساسی در نظر گرفته است، «به شرط آنکه چنین محتوایی به‌طور واضح اعلام کند که واقعی نیست.»

انتهای پیام/

ارسال نظر
گوشتیران
قالیشویی ادیب
رسپینا