Новый инструмент обнаружения может точно выявлять фейковые видеоролики, в которых присутствуют любые манипуляции ИИ: от замены лиц до полностью синтетического контента, созданного ИИ.
Поддельное видео премьер-министра Австралии Энтони Албанезе на смартфоне Австралийское Associated Press/Alamy
Универсальный детектор дипфейков достиг наивысшей на сегодняшний день точности в обнаружении различных типов видео, смонтированных или полностью сгенерированных искусственным интеллектом. Эта технология может помочь выявлять порнографию, созданную искусственным интеллектом без его согласия, мошеннические дипфейки и дезинформационные видеоролики, связанные с выборами.
Широкая доступность недорогих инструментов для создания дипфейков на базе искусственного интеллекта способствовала бесконтрольному распространению в интернете синтетических видео. Многие из них изображают женщин, включая знаменитостей и даже школьниц, в неконсенсуальной порнографии. Дипфейки также использовались для влияния на результаты политических выборов, а также для финансовых мошенничеств, направленных как на обычных потребителей, так и на руководителей компаний.
Но большинство моделей ИИ, обученных распознавать синтетическое видео, фокусируются на лицах, а значит, они наиболее эффективны при выявлении одного конкретного типа дипфейка, когда лицо настоящего человека подменяется в существующем видео. «Нам нужна одна модель, которая сможет распознавать видео с обработкой лиц, а также видео с обработкой фона или видео, полностью сгенерированные ИИ», — говорит Рохит Кунду из Калифорнийского университета в Риверсайде. «Наша модель решает именно эту проблему: мы предполагаем, что всё видео может быть сгенерировано искусственно».
Кунду и его коллеги обучили свой универсальный детектор на базе искусственного интеллекта отслеживать различные элементы фона на видео, а также лица людей. Он способен обнаруживать едва заметные признаки пространственных и временных несоответствий в дипфейках. В результате он может обнаруживать неравномерное освещение людей, искусственно вставленных в видео с заменой лиц, несоответствия в деталях фона в видео, полностью сгенерированных искусственным интеллектом, и даже признаки манипуляции ИИ в синтетических видео, не содержащих человеческих лиц. Детектор также отмечает реалистичные сцены из видеоигр, таких как Grand Theft Auto V, которые не обязательно сгенерированы искусственным интеллектом.
«Большинство существующих методов обрабатывают видео с лицами, созданные ИИ, например, с заменой лиц, синхронизацией губ или реконструкцией лица, которая анимирует лицо по одному изображению», — говорит Сивэй Лю из Университета Буффало в Нью-Йорке. «Этот метод имеет более широкую область применения».

Универсальный детектор достиг точности от 95% до 99% при идентификации четырёх наборов тестовых видео, содержащих дипфейки с манипуляцией лицами. Это лучше, чем у всех других опубликованных методов обнаружения этого типа дипфейков. При мониторинге полностью синтетических видео он также показал более точные результаты, чем любой другой детектор, протестированный на сегодняшний день. Исследователи представили свою работу на конференции IEEE/Conference on Computer Vision and Pattern Recognition 2025 в Нэшвилле, штат Теннесси, 15 июня.
В разработке нового детектора также приняли участие несколько исследователей Google. Компания не ответила на вопросы о том, сможет ли этот метод обнаружения помочь обнаружить дипфейки на своих платформах, таких как YouTube. Однако компания входит в число тех, кто поддерживает инструмент для создания водяных знаков, упрощающий идентификацию контента, создаваемого её системами искусственного интеллекта.
Универсальный детектор также может быть усовершенствован в будущем. Например, было бы полезно, если бы он мог обнаруживать дипфейки, создаваемые во время видеоконференций в режиме реального времени, — трюк, который уже начали использовать некоторые мошенники.
«Как узнать, что человек на другой стороне настоящий, или это видео сгенерировано методом дипфейка, и можно ли это определить, даже если видео передается по сети и на него влияют характеристики сети, такие как доступная пропускная способность?» — говорит Амит Рой-Чоудхури из Калифорнийского университета в Риверсайде. «Это ещё одно направление, которое мы изучаем в нашей лаборатории».
arXiv DOI: 10.48550/arXiv.2412.12278
Источник: www.newscientist.com



























