هوش مصنوعی علیه هوش مصنوعی!/ پیروز میدان کیست؟
خبرگزاری علم و فناوری آنا؛ افزایش چشمگیر تصاویر تولید شده توسط هوش مصنوعی خطوط میان دنیای واقعی و جعلی را محو میکند به طوری که نیاز به وجود ابزارهای بیشتر برای تمایز این دو را روز به روز پررنگتر میکند.
در مطالعهای اخیر، محققان ایتالیایی مجموعهای از مدلهای هوش مصنوعی را که برای شناسایی تصاویر جعلی طراحی شده بودند، تجزیه و تحلیل و روشهای نسبتاً مؤثری را شناسایی کردند.
لویزا وردولیوا استاد دانشگاه ناپل فدریکو دوم در ایتالیا که در این مطالعه شرکت دارد خاطرنشان میکند که اگرچه تصاویر تولید شده توسط هوش مصنوعی ممکن است از نظر سرگرمی عالی باشند، اما زمانی که در موضوعات جدیتر استفاده شوند، میتوانند مضر باشند.
وردولیوا توضیح میدهد: «برای مثال، میتوان یک تصویر خجالتآور از یک شخصیت سیاسی تولید کرد و از آن برای بیاعتبار کردن او در مبارزات انتخاباتی استفاده کرد. در مواردی مانند این، تشخیص اینکه آیا تصویر توسط دوربین به دست آمده یا توسط کامپیوتر تولید شده است، ضروری است.
سرنخهای تشخیص تصاویر جعلی
دو نوع سرنخ وجود دارد که نشان میدهد تصویر توسط هوش مصنوعی تولید شده است یا خیر. اولین موارد مصنوعات «سطح بالا» یا عیوب در تصاویری هستند که برای چشم انسان آشکار است، مانند سایههای عجیب و غریب یا عدم تقارن در صورت. اما همانطور که وردولیوا اشاره میکند، این خطاهای آشکار با توسعه و بهبود تولیدکنندگان تصویر در طول زمان کمتر آشکار میشوند.
در عمق لایههای یک تصویر، مصنوعاتی وجود دارد که برای چشم انسان آشکار نیست، بلکه تنها از طریق تجزیه و تحلیل آماری دادههای تصویر مشخص میشود. هر یک از این مصنوعات «سطح پایین» منحصر به تولید کنندهای است که تصویر را ایجاد کرده است.
این مفهوم شبیه به پزشکی قانونی سلاح گرم است، که در آن گلوله شلیک شده خراشهای منحصر به فردی را بر اساس لوله تفنگی که از آن شلیک شده است، نشان میدهد. به این ترتیب میتوان گلولهها را به کمک تفنگی که آن را شلیک کرده است ردیابی کرد.
به طور مشابه، هر تصویر جعلی دارای یک الگوی داده متمایز بر اساس هوش مصنوعی است که آن را ایجاد کرده است. از قضا، بهترین راه برای دریافت این امضاها، ایجاد مدلهای هوش مصنوعی جدید است که برای شناسایی آنها و پیوند دادن آنها به یک تولیدکننده تصویر خاص آموزش دیده است.
هوش مصنوعی علیه هوش مصنوعی!
وردولیوا و همکارانش در مطالعه خود، ۱۳ مدل هوش مصنوعی را که قادر به تشخیص تصاویر جعلی و یا شناسایی سازنده آنها بودند، در برابر هزاران تصویری که واقعی یا جعلی هستند، آزمایش کردند. جای تعجب نیست که این مدلها به طور کلی در شناسایی عیوب تصویر و تولیدکنندگانی که برای یافتن آنها آموزش دیده بودند بسیار موثر بودند. به عنوان مثال، یک مدل آموزش داده شده بر روی مجموعه دادهای از تصاویر واقعی و مصنوعی توانست تصاویر ایجاد شده توسط هوش مصنوعی «دال_ای» (DALL-E) را با دقت ۸۷ درصد و تصاویر تولید شده توسط «میدجرنی» (Midjourney) را با دقت ۹۱ درصد شناسایی کند.
شگفتآورتر اینکه، مدلهای تشخیص همچنان میتوانند برخی از تصاویر تولید شده توسط هوش مصنوعی را که برای یافتن آنها به طور خاص آموزش ندیدهاند، پرچمگذاری کنند. این به این دلیل است که اکثر مولدهای فعلی هوش مصنوعی از رویکردهای بسیار مشابهی برای ایجاد تصویر استفاده میکنند که منجر به نقصهای مشابهی در تصاویر تولید شده آنها میشود.
وردولیوا خاطرنشان میکند که چالش، شناسایی نقصهای نادیده قبلی از تولیدکنندکان جدید و نوظهور هوش مصنوعی است، مانند اثرانگشتهای جدید پزشکی قانونی که قبلاً در رادارهای ما وجود نداشت.
ردولیوا میگوید: آشکارسازها بهتر و بهتر میشوند، اما تولیدکنندگان نیز بهتر میشوند و هر دو از شکستهای خود درس میگیرند.
برای مقابله با این مشکل در حرکتی رو به جلو، وردولیوا بر نیاز به استفاده از مدلهای مختلف برای تشخیص تصاویر جعلی تاکید میکند. این کار باعث افزایش احتمال تشخیص عیوب غیر معمول از تولیدکنندگان جدید میشود.
اما بیش از هر چیز دیگری، او تأکید میکند که اختیار انسان کلیدی است. این مهم است که مردم یاد بگیرند به چند رسانهای که از منابع نامعتبر میآید اعتماد نکنند، بلکه به دنبال کسب اطلاعات از منابع معتبر باشند.
او میگوید: «این نخستین و مهمترین دفاع است. در این میان، جامعه علمی به ارائه ابزار و روشهایی برای رقابت در این مسابقه تسلیحاتی ادامه خواهد داد.»
انتهای پیام/