Дипфейк и верификация видео: как не стать жертвой обмана

Развитие искусственного интеллекта сделало создание видеоконтента доступным практически каждому. Сегодня пользователи могут легко генерировать качественные видео, конкурируя даже с крупными медиаплатформами. Однако вместе с этим возникает серьезная проблема — рост количества поддельных роликов, в том числе дипфейк-видео, которые могут вводить зрителей в заблуждение. Как обезопасить себя, рассказывает руководитель Первого российского агентства видеоновостей RUPTLY Индира Жарова.
Редакция «Правил жизни»
Редакция «Правил жизни»
Дипфейк и верификация видео: как не стать жертвой обмана
«Правила жизни»
«Правила жизни»
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Уже сейчас 60% россиян сталкиваются с фейковыми новостями как минимум раз в неделю, а 66% признаются, что хотя бы раз верили дезинформации, пишет «Российская газета». Исследование, описанное в ТАСС, показало, что уже в I квартале 2025 года было выявлено 60 новых дипфейков и 2,3 тыс. их копий. В сравнении с 2024 годом количество поддельных фото и видео в медиапространстве увеличилось на 67%.

Многие эксперты считают, что в 2025 году каждый второй россиянин столкнется с дипфейком, а в 2026-м значительно увеличатся случаи мошенничества с использованием передовых технологий: ожидается рост подделок голосовых звонков от имени близких и знакомых людей. Этими данными с «Известиями» поделилась команда MTS AI. Киберпреступность с использованием дипфейков — это новый виток мошеннических схем.

Так, например, в 2024 году одним из самых крупных дел о кибермошенничестве стала кража имущества и накоплений Ларисы Долиной. Певицу обманывали разными способами, но самым главным оружием стал дипфейк, созданный с помощью ИИ, после которого она окончательно поверила киберпреступникам. В результате этого Долина потеряла имущество, общей стоимостью свыше 200 млн рублей. Виновных, конечно, нашли, и они получили «по заслугам». Но как обезопасить себя от подобных ситуаций? Даже если у вас нет денежных накоплений в размере 68 млн, как у Ларисы Александровны, в 2025 году важно знать, как проверить подлинность видео.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как отличить дипфейк

На фоне роста количества недостоверного контента критически важно уметь определять его подлинность. Проверку можно условно разделить на два этапа: анализ фактуры видео и внимательное изучение человеческого изображения.

Авторство. Проверка оригинальности видео начинается с изучения его создателя. Если оно публикуется в соцсетях, важно ознакомиться с профилем автора, его предыдущими материалами и историей активности: есть ли в профиле другие видео, на какие аккаунты подписан автор, давно ли создана страница. Если видео вызывает сомнения, можно запросить у автора подтверждение, например селфи с тем же окружением, что и в ролике.

Дата съемки. Для установления даты создания видео стоит сравнить его с другими публикациями в соцсетях и новостями в СМИ. К примеру, если заявлено, что ролик снят вчера, но похожие кадры появились в интернете несколько месяцев назад, велика вероятность подделки. Также важно сравнить детали ролика с известными фотографиями.

Местоположение. Чтобы подтвердить подлинность локации, можно запросить у автора координаты в реальном времени или проверить местность с помощью картографических сервисов. Внимательное изучение окружающих объектов, вывесок, дорожных знаков и погодных условий также поможет выявить фальсификацию.

«Правила жизни»
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Даже если общее содержание видео кажется убедительным, важно внимательно изучить человека в кадре. Современные дипфейк-алгоритмы научились имитировать мимику и голос, но по-прежнему допускают ошибки, которые можно заметить при внимательном просмотре.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Синхронизация речи и движение губ. Один из самых распространенных признаков подделки — рассинхрон в движении губ и звука на фоне. Иногда артикуляция выглядит неестественно: губы двигаются с задержкой или вовсе не соответствуют произносимому тексту. Это особенно заметно в моменты, когда человек произносит сложные звуки или резко меняет выражение лица.

Движение глаз. Глаза остаются одним из самых сложных элементов для искусственного интеллекта. В некоторых дипфейк-роликах человек моргает слишком редко или, наоборот, слишком часто, а движения век могут выглядеть механическими. В отдельных случаях зрачки остаются неподвижными или двигаются странным образом, что выдает работу алгоритмов.

Текстуры и мелкие детали. ИИ все еще испытывает сложности с прорисовкой мелких деталей, таких как волосы, борода, усы, родинки и морщины. В поддельных видео растительность на лице может казаться размытой или неестественно ровной, а отдельные пряди волос — сливаться с кожей. Очки также могут выглядеть странно: в реальной жизни стекла отражают свет, но в дипфейках блики часто отсутствуют или отображаются неправильно.

Анатомические искажения лица. Еще один признак фальсификации — нарушения естественных пропорций лица. Иногда алгоритм не может корректно обработать выражение эмоций, из-за чего лоб кажется слишком высоким, подбородок непропорционально узким, а один глаз может слегка «съезжать» в сторону. Эти дефекты особенно заметны при движении головы или смене ракурса.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Инструменты для верификации видеоконтента

Если вы хотите провести более глубокий и точный анализ, можно использовать специализированные сервисы, позволяющие проверить происхождение видео и выявить возможные изменения.

InVID — один из самых эффективных инструментов для анализа видеоконтента. Он позволяет разделить видео на части и сопоставить его с архивными материалами. Это помогает определить, было видео взято из старых источников или является подделкой.

InVID

RevEye — инструмент работает с разными поисковыми системами и помогает находить оригинальные изображения, которые могли быть использованы для создания поддельного видео.

Deepware AI — платформа, специализирующаяся на выявлении именно видео дипфейков. Сервис имеет высокую репутацию среди IT-специалистов. Благодаря мощным алгоритмам машинного обучения и постоянному обновлению данных он обеспечивает точное и оперативное выявление видеоманипуляций.

Forensically — это бесплатный онлайн-инструмент для детального анализа фотографий. Он не требует установки и работает прямо в браузере. Сервис предоставляет профессиональные средства для выявления цифровых манипуляций, такие как анализ шумов, детекция клонирования, просмотр метаданных.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Forensically

AI Voice Detector — сервис для быстрого анализа аудио. Инструмент поможет определить, использовался ИИ в голосовых сообщениях.