Реалистичные изображения, созданные искусственным интеллектом (ИИ), включая те, которые генерируются из текстового описания и используются в видео, представляют реальную угрозу личной безопасности. От кражи личных данных до неправомерного использования личного изображения, становится все сложнее отличить реальное от поддельного.
В результате научного сотрудничества с Центром исследований искусственного интеллекта и науки о данных (PAIDS) Университета Портсмута было разработано инновационное решение , позволяющее точно различать поддельные и подлинные изображения, а также определять источник искусственного изображения.
Решение, известное как DeepGuard, объединяет три передовых метода ИИ: бинарную классификацию, ансамблевое обучение и многоклассовую классификацию.
Эти методы позволяют ИИ обучаться на маркированных данных, делая более умные и надежные прогнозы.
Это инструмент, который может использоваться для расследования и судебного преследования преступной деятельности, такой как мошенничество, или средствами массовой информации для обеспечения подлинности изображений, используемых в их материалах, с целью предотвращения дезинформации или непреднамеренной предвзятости.
DeepGuard был разработан исследовательской группой под руководством доктора Гельтума Бендиаба и Ясмин Намани с кафедры электроники Университета братьев Ментури в Алжире, а также при участии доктора Ставроса Шиаэлеса из Исследовательского центра PAIDS и Школы вычислительной техники университета.
Доктор Шиалес сказал: «С постоянно развивающимися технологическими возможностями распознавание поддельных изображений человеческим глазом будет постоянной проблемой.
Манипулированные изображения представляют серьезную угрозу нашей конфиденциальности и безопасности, поскольку они могут использоваться для подделки документов с целью шантажа, подрыва выборов, фальсификации электронных доказательств и нанесения ущерба репутации, а также могут использоваться взрослыми для подстрекательства к причинению вреда детям».
«Люди также нечестно наживаются на таких платформах социальных сетей, как TikTok, где изображения моделей превращаются в персонажей и анимируются в различных сценариях в играх или для развлечения.
«DeepGuard и будущие версии должны оказаться ценной мерой безопасности для проверки изображений, в том числе в видео, в широком диапазоне контекстов».
Исследование , опубликованное в журнале Electronics, также будет способствовать дальнейшим академическим исследованиям в этой области, предоставив ученым дополнительные наборы данных .
В ходе разработки команда рассмотрела и проанализировала методы как манипулирования изображениями, так и их обнаружения, уделив особое внимание поддельным изображениям, включающим изменения лица и тела.
Они рассмотрели 255 исследовательских статей, опубликованных в период с 2016 по 2023 год, в которых рассматривались различные методы обнаружения манипулированных изображений, такие как изменения выражения лица, позы, голоса или других черт лица или тела.
Рубрика: Сеть и Игры. Читать весь текст на android-robot.com.