دیپ فیک
دادستان شهر سانفرانسیسکو با ابراز نگرانی از سوءاستفادههای فزاینده از تصاویر زنان و کودکان از ۱۶ پایگاه اینترنتی مشهور که محتواهای غیراخلاقی با مضمون «برهنگی» منتشر میکنند شکایت کرد.
کد خبر: ۹۲۸۰۹۷ تاریخ انتشار : ۱۴۰۳/۰۵/۲۷
دانشمندان با استفاده از روشهای نجومی و انعکاس نور چشم افراد، تصاویر واقعی را از تصاویر ایجاد شده توسط هوش مصنوعی تفکیک کردند.
کد خبر: ۹۲۲۶۷۹ تاریخ انتشار : ۱۴۰۳/۰۴/۲۹
گزارشهای مربوط به استفاده بدون اجازه از تصاویر و ویدیوهای خصوصی در فضای آنلاین در حال افزایش است و دیپفیکها (ویدیوها و تصاویر جعلی) بُعد وحشتناک و تازهای به این مشکل دادهاند.
کد خبر: ۹۲۱۴۹۳ تاریخ انتشار : ۱۴۰۳/۰۴/۲۵
ویدیوی جعلی ایلان ماسک که با فناوری دیپ فیک ساخته شده بود به سرقت ارزهای دیجیتال هزار کاربر در شبکه یوتیوب منجر شد.
کد خبر: ۹۱۹۰۴۰ تاریخ انتشار : ۱۴۰۳/۰۴/۰۶
استقبال انتخابات هند از هوش مصنوعی که با سرگرمی، جنگ چهرههای سیاسی، احیای سیاستمداران و متقاعد کردن از طریق تماسهای تلفنی شخصی با رأیدهندگان آغاز شد، مسیری را برای نقش هوش مصنوعی در دموکراسی مشارکتی باز کرده است.
کد خبر: ۹۱۶۴۶۶ تاریخ انتشار : ۱۴۰۳/۰۳/۲۳
تلاش سرسختانه کارشناسان حوزه فناوری برای یافتن و تشخیص محتواهای جعلی و ساختهشده با هوش مصنوعی به مرحلهای رسیده است که گویا ادامه آن در آینده ناممکن خواهد بود.
کد خبر: ۹۰۵۰۰۱ تاریخ انتشار : ۱۴۰۳/۰۱/۲۳
جعلی بودن فناوری هوش مصنوعی به سرعت در حال تبدیل به یکی از بزرگترین مشکلاتی است که ما در فضای آنلاین با آن روبهرو هستیم، از اینرو محققان راهحلهایی برای تشخیص این موضوع در اختیار افراد گذاشتهاند.
کد خبر: ۹۰۲۸۵۲ تاریخ انتشار : ۱۴۰۳/۰۱/۱۲
کارشناسان هوش مصنوعی و مدیران صنایع با امضای نامهای سرگشاده خواستار مقررات بیشتر در مورد جعل عمیق ( دیپ فیک ) شدند.
کد خبر: ۸۹۷۹۵۶ تاریخ انتشار : ۱۴۰۲/۱۲/۰۲
جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی بهویژه برای افراد سرشناس به دردسری جدی تبدیل شده است.
کد خبر: ۸۹۶۴۴۶ تاریخ انتشار : ۱۴۰۲/۱۱/۳۰
گوگل قصد دارد برای محتواهای دیجیتال نشان اعتبارنامه محتوا طراحی کند.
کد خبر: ۸۹۶۲۳۳ تاریخ انتشار : ۱۴۰۲/۱۱/۲۸
کمیسیون ارتباطات فدرال آمریکا قصد دارد استفاده از هوش مصنوعی مولد را در تماسهای رباتیک ممنوع کند.
کد خبر: ۸۹۴۶۳۶ تاریخ انتشار : ۱۴۰۲/۱۱/۱۴
محققان دریافتهاند که چهرههای ایجادشده توسط هوش مصنوعی به ویژه چهرههای افراد سفیدپوست، اغلب واقعیتر از عکسهای واقعی تصور میشوند. این امر میتواند خطرات جدی برای انتشار اطلاعات نادرست ایجاد کند.
کد خبر: ۸۹۴۱۴۱ تاریخ انتشار : ۱۴۰۲/۱۱/۱۱
تحقیقات جدید نشان میدهد، افراد با ذهنیت توطئهباور، ویدئوهای جعل عمیق را زودتر تشخیص میدهند.
کد خبر: ۸۹۲۲۹۴ تاریخ انتشار : ۱۴۰۲/۱۱/۰۳
شرکت «مکآفی» در نمایشگاه «سیایاس ۲۰۲۴» از یک فناوری پیشرفته مبتنی بر هوش مصنوعی رونمایی کرد که مصرفکنندگان را در برابر کلاهبرداریهای جعل عمیق ایمن میکند.
کد خبر: ۸۹۰۱۵۲ تاریخ انتشار : ۱۴۰۲/۱۰/۲۰
نخستوزیر سابق پاکستان با توسل به هوش مصنوعی، صدای شبیهسازیشده خود را از زندان به گوش طرفدارانش رساند.
کد خبر: ۸۸۵۶۳۰ تاریخ انتشار : ۱۴۰۲/۰۹/۲۷
پارلمان اتحادیه اروپا و کشورهای عضو درباره پیشنویس قانون جدید هوش مصنوعی به توافق رسیدهاند که گامی مهم به سوی مقررات جامع برای هوش مصنوعی است.
کد خبر: ۸۸۴۰۹۳ تاریخ انتشار : ۱۴۰۲/۰۹/۱۹
یکی از کارکردهای عجیب سیستمهای هوش مصنوعی دیپ فیک است که توانایی تکرار صدای شخص را دارد با این حال یک ابزار نرمافزاری جدید به نام «آنتی فیک» میتواند به جلوگیری از این اتفاق کمک کند.
کد خبر: ۸۸۲۰۰۴ تاریخ انتشار : ۱۴۰۲/۰۹/۱۳
هند به شرکتهای رسانههای اجتماعی از جمله فیس بوک و یوتیوب برای جلوگیری از انتشار « دیپ فیک »ها هشدار داد.
کد خبر: ۸۸۰۹۹۴ تاریخ انتشار : ۱۴۰۲/۰۹/۰۴
وزیر فناوری اطلاعات هند در حال تدوین قوانینی برای تنظیم دیپ فیک است.
کد خبر: ۸۸۰۸۷۶ تاریخ انتشار : ۱۴۰۲/۰۹/۰۳
معرفی نرمافزاری که با شبیهسازی چهره و صدای اشخاص واقعی، آواتار میسازد، شرکت مایکروسافت را در مظان اتهام ترویج دیپفیک قرار داده است.
کد خبر: ۸۷۹۷۵۹ تاریخ انتشار : ۱۴۰۲/۰۸/۲۷
با استفاده مجدد از زبالههای زیستی: