Исследователи разработали новую технологию, позволяющую разоблачить дипфейки
Группа исследователей в области компьютерных наук из Корнеллского университета в США представила новую разработку, позволяющую разоблачить дипфейки, поддельные видео, созданные с помощью ИИ.
Как пишет Walla, технология, называемая шумокодированным освещением (Noise‑Coded Illumination), работает по простому, но гениальному принципу: с помощью водяных знаков в освещении.
Лампочки, экраны или фонари, освещающие место съемки видео, «мерцают» на очень низких частотах — таких, которые человеческий глаз даже не воспринимает. Но камеры их воспринимают.
Каждому источнику света присваивается уникальный «код», и при съёмке видео этот код, по сути, запечатлевается на нём, и никто этого не замечает.
Если кто-то попытается отредактировать видео — заменить лицо, добавить несказанное предложение или изменить контекст — коды освещения выявят эти изменения.
Именно в этом и заключается идея нового метода, разработанного исследователями: вместо того, чтобы пытаться обнаружить дипфейки после их распространения, они предлагают во время съёмки встраивать токен аутентификации, который невозможно скопировать, — через свет, освещающий место съемки.
Позже, если кто-то попытается смонтировать видео или создать его поддельную версию, например, дипфейк, который выглядит так, будто снят в той же комнате, — код, встроенный в освещение, просто не будет соответствовать тому, что видно на видео.
Исследователи подчеркивают, что эта технология подходит не для всех ситуаций. Например, она неэффективна в случае съёмки на улице при ярком солнечном свете или при очень быстром движении в кадре.
Но для видео, снятых в таких местах, как залы для пресс-конференций, телевизионные студии или лекционные залы — она может проявить себя с самой лучшей стороны.
Преимущество этой технологии в том, что она не борется с уже созданными фейками, а позволяет обеспечить защиту от подделок уже в момент съемки.
«Детали», Е.А. Фото создано с помощью ChatGPT
Будьте всегда в курсе главных событий:
