دیده بان پیشرفت علم، فناوری و نوآوری

دیپ فیک

دادستان شهر سانفرانسیسکو با ابراز نگرانی از سوءاستفاده‌های فزاینده از تصاویر زنان و کودکان از ۱۶ پایگاه اینترنتی مشهور که محتوا‌های غیراخلاقی با مضمون «برهنگی» منتشر می‌کنند شکایت کرد.
کد خبر: ۹۲۸۰۹۷   تاریخ انتشار : ۱۴۰۳/۰۵/۲۷

دانشمندان با استفاده از روش‌های نجومی و انعکاس نور چشم افراد، تصاویر واقعی را از تصاویر ایجاد شده توسط هوش مصنوعی تفکیک کردند.
کد خبر: ۹۲۲۶۷۹   تاریخ انتشار : ۱۴۰۳/۰۴/۲۹

گزارش‌های مربوط به استفاده بدون اجازه از تصاویر و ویدیو‌های خصوصی در فضای آنلاین در حال افزایش است و دیپ‌فیک‌ها (ویدیو‌ها و تصاویر جعلی) بُعد وحشتناک و تازه‌ای به این مشکل داده‌اند.
کد خبر: ۹۲۱۴۹۳   تاریخ انتشار : ۱۴۰۳/۰۴/۲۵

ویدیوی جعلی ایلان ماسک که با فناوری دیپ فیک ساخته شده بود به سرقت ارز‌های دیجیتال هزار کاربر در شبکه یوتیوب منجر شد.
کد خبر: ۹۱۹۰۴۰   تاریخ انتشار : ۱۴۰۳/۰۴/۰۶

استقبال انتخابات هند از هوش مصنوعی که با سرگرمی، جنگ چهره‌های سیاسی، احیای سیاستمداران و متقاعد کردن از طریق تماس‌های تلفنی شخصی با رأی‌دهندگان آغاز شد، مسیری را برای نقش هوش مصنوعی در دموکراسی مشارکتی باز کرده است.
کد خبر: ۹۱۶۴۶۶   تاریخ انتشار : ۱۴۰۳/۰۳/۲۳

تلاش سرسختانه کارشناسان حوزه فناوری برای یافتن و تشخیص محتوا‌های جعلی و ساخته‌شده با هوش مصنوعی به مرحله‌ای رسیده است که گویا ادامه آن در آینده ناممکن خواهد بود.
کد خبر: ۹۰۵۰۰۱   تاریخ انتشار : ۱۴۰۳/۰۱/۲۳

جعلی بودن فناوری هوش مصنوعی به سرعت در حال تبدیل به یکی از بزرگ‌ترین مشکلاتی است که ما در فضای آنلاین با آن روبه‌رو هستیم، از این‌رو محققان راه‌حل‌هایی برای تشخیص این موضوع در اختیار افراد گذاشته‌اند.
کد خبر: ۹۰۲۸۵۲   تاریخ انتشار : ۱۴۰۳/۰۱/۱۲

کارشناسان هوش مصنوعی و مدیران صنایع با امضای نامه‌ای سرگشاده خواستار مقررات بیشتر در مورد جعل عمیق ( دیپ فیک ) شدند.
کد خبر: ۸۹۷۹۵۶   تاریخ انتشار : ۱۴۰۲/۱۲/۰۲

جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی به‌ویژه برای افراد سرشناس به دردسری جدی تبدیل شده است.
کد خبر: ۸۹۶۴۴۶   تاریخ انتشار : ۱۴۰۲/۱۱/۳۰

گوگل قصد دارد برای محتواهای دیجیتال نشان اعتبارنامه محتوا طراحی کند.
کد خبر: ۸۹۶۲۳۳   تاریخ انتشار : ۱۴۰۲/۱۱/۲۸

کمیسیون ارتباطات فدرال آمریکا قصد دارد استفاده از هوش مصنوعی مولد را در تماس‌های رباتیک ممنوع کند.
کد خبر: ۸۹۴۶۳۶   تاریخ انتشار : ۱۴۰۲/۱۱/۱۴

محققان دریافته‌اند که چهره‌های ایجادشده توسط هوش مصنوعی به ویژه چهره‌های افراد سفیدپوست، اغلب واقعی‌تر از عکس‌های واقعی تصور می‌شوند. این امر می‌تواند خطرات جدی برای انتشار اطلاعات نادرست ایجاد کند.
کد خبر: ۸۹۴۱۴۱   تاریخ انتشار : ۱۴۰۲/۱۱/۱۱

تحقیقات جدید نشان می‌دهد، افراد با ذهنیت توطئه‌باور،‌ ویدئو‌های جعل عمیق را زودتر تشخیص می‌دهند.
کد خبر: ۸۹۲۲۹۴   تاریخ انتشار : ۱۴۰۲/۱۱/۰۳

شرکت «مک‌آفی» در نمایشگاه «سی‌ای‌اس ۲۰۲۴» از یک فناوری پیشرفته مبتنی بر هوش مصنوعی رونمایی کرد که مصرف‌کنندگان را در برابر کلاهبرداری‌های جعل عمیق ایمن می‌کند.
کد خبر: ۸۹۰۱۵۲   تاریخ انتشار : ۱۴۰۲/۱۰/۲۰

نخست‌وزیر سابق پاکستان با توسل به هوش مصنوعی، صدای شبیه‌سازی‌شده خود را از زندان به گوش طرفدارانش رساند.
کد خبر: ۸۸۵۶۳۰   تاریخ انتشار : ۱۴۰۲/۰۹/۲۷

پارلمان اتحادیه اروپا و کشور‌های عضو درباره پیش‌نویس قانون جدید هوش مصنوعی به توافق رسیده‌اند که گامی مهم به سوی مقررات جامع برای هوش مصنوعی است.  
کد خبر: ۸۸۴۰۹۳   تاریخ انتشار : ۱۴۰۲/۰۹/۱۹

تولید ابزاری هوش مصنوعی برای تشخیص صدای جعلی
آینده جهان با هوش مصنوعی (۹۸)؛

تولید ابزاری هوش مصنوعی برای تشخیص صدای جعلی

یکی از کارکردهای عجیب سیستم‌های هوش مصنوعی دیپ فیک است که توانایی تکرار صدای شخص را دارد با این حال یک ابزار نرم‌افزاری جدید به نام «آنتی فیک» می‌تواند به جلوگیری از این اتفاق کمک کند.
کد خبر: ۸۸۲۰۰۴   تاریخ انتشار : ۱۴۰۲/۰۹/۱۳

هند به شرکت‌های رسانه‌های اجتماعی از جمله فیس بوک و یوتیوب برای جلوگیری از انتشار « دیپ فیک »‌ها هشدار داد.
کد خبر: ۸۸۰۹۹۴   تاریخ انتشار : ۱۴۰۲/۰۹/۰۴

وزیر فناوری اطلاعات هند در حال تدوین قوانینی برای تنظیم دیپ فیک است.
کد خبر: ۸۸۰۸۷۶   تاریخ انتشار : ۱۴۰۲/۰۹/۰۳

معرفی نرم‌افزاری که با شبیه‌سازی چهره و صدای اشخاص واقعی، آواتار می‌سازد، شرکت مایکروسافت را در مظان اتهام ترویج دیپ‌فیک قرار داده است.
کد خبر: ۸۷۹۷۵۹   تاریخ انتشار : ۱۴۰۲/۰۸/۲۷