Фейковые видео и фото: как распознать подделку в сети?

Фото: Freepik
Число дипфейков в мире ежегодно растёт. Технологии генерации совершенствуются настолько, что отличить вымысел от реальности становится всё сложнее.
В Казахстане дипфейки чаще всего используются в мошеннических схемах. Поддельные видео способны оклеветать должностное или публичное лицо, нанести репутационный и финансовый ущерб, а в некоторых случаях — даже спровоцировать международные конфликты.
Эксперты отмечают, что необходима разработка отечественных платформ, которые смогут своевременно выявлять и опровергать фейковые материалы.
Кто борется с дипфейками
По словам эксперта в области информационной безопасности Каната Ахатов, темой дипфейков занимаются сразу несколько государственных структур.
«Основную работу ведут Министерство культуры и информации и Центр анализа и информации, который мониторит интернет-пространство и социальные сети. При обнаружении подозрительного контента госорганы связываются с площадками вроде YouTube или Facebook и просят удалить материалы. Для быстрого реагирования на дипфейки действует алгоритм взаимодействия между ведомствами», — рассказал Ахатов.
В Казахстане за публикацию дипфейков предусмотрена административная и уголовная ответственность по статье 274 УК РК — «распространение заведомо ложной информации». Санкции варьируются от штрафов и исправительных работ до лишения свободы на срок до трёх лет.
«Пока отдельного закона именно по дипфейкам нет, но обсуждение усиления ответственности идёт, особенно с ростом числа подобных инцидентов. С начала года в Казахстане возбуждено более тридцати уголовных дел за распространение заведомо ложной информации. Часть из них связана с использованием поддельных видео и фото», — отметил Канат Ахатов.
Какие дипфейки встречаются в Казнете
Официального реестра дипфейков в стране нет, однако случаи становятся всё более частыми.
«В основном это поддельные ролики с публичными персонами или искажённые видеоматериалы. Но не всегда такие материалы можно технически назвать дипфейками — иногда это обычный видеомонтаж», — пояснил Ахатов.
В казахстанском сегменте соцсетей чаще встречаются относительно простые подделки — видео или фото, где слегка изменён контекст или добавлены фразы.
«Технологически сложных дипфейков, созданных полностью нейросетями, немного. За рубежом такие технологии уже дошли до уровня, когда видео невозможно отличить от реальности, а у нас это пока элемент информационных манипуляций, а не технологическое чудо», — добавил эксперт.
По его мнению, на данный момент только нейросеть способна победить нейросеть.
«Классические методы анализа становятся всё менее эффективными. Поэтому, создавая генератор чего-либо, нужно всегда закладывать технологические решения по распознаванию данных технологий», — считает Канат Ахатов.
Вместе с тем, в стране уже ведутся разработки систем распознавания дипфейков. К примеру, банки внедряют систему защиты при биометрической идентификации клиентов, определяющую поддельные фото и видео. В Институте информационных и вычислительных технологий создаются алгоритмы анализа достоверности мультимедиа-контента.
Определить дипфейк можно с помощью международных онлайн-платформ. Из наиболее популярных: ресурс Reality Defender (RD) — совместная разработка Microsoft и DARPA, анализирует видео, аудио, изображения и тексты, Sensity AI (ex Deeptrace) — профессиональный инструмент для анализа дипфейков и фейковой рекламы.
По словам депутата Мажилиса Екатерины Смышляевой, функции детекции уже тестируются в государственной системе «МЕРГЕН», где обучают LLM-модель для автоматического выявления фейков.
«Развитие искусственного интеллекта делает создание дипфейков проще, дешевле и доступнее для обывателя с минимальными цифровыми навыками. Сегодня достаточно нескольких минут видео, чтобы сгенерировать убедительный подлог. Но, с другой стороны, ИИ помогает и в обратном — в разработке систем распознавания и маркировки дипфейков. То есть растёт не только угроза, но и возможности защиты. Главное, чтобы добро всегда побеждало», — отметил эксперт.
Даже без специальных инструментов можно заметить визуальные признаки дипфейка: неестественные движения глаз, рта и мимики, размытые или «плывущие» участки лица, неправильные тени и отражения, искажения при моргании или повороте головы, несоответствие голоса и артикуляции.
Проверить подлинность изображения можно с помощью обратного поиска через Google Images, Yandex. Картинки или TinEye, чтобы узнать, где оно использовалось ранее.
В случае обнаружения поддельного видео или фото, стоит направить жалобу в соцсеть, где опубликован материал, а при нарушении закона — в Киберполицию через портал Egov.kz (приложения «102» и KZ Police).


