NoFake

ИИ против доверия: как Казахстан отвечает на волну политических дипфейков

весы закона

Фото: Depositphotos

С 16 января в Казахстане начал действовать закон об искусственном интеллекте, который требует обязательной маркировки контента, созданного нейросетями.

В казахстанском сегменте соцсетей с заметной периодичностью появляются видеоролики с громкими «заявлениями» чиновников, в создании которых они не принимали участие. С вступлением в силу Закона такие дипфейки впервые получили чёткую правовую оценку. Но, теперь, напрашивается вполне резонный вопрос: готова ли страна не только наказывать, но и эффективно выявлять подобные манипуляции?

Создать дипфейк сегодня может даже человек без специальных навыков. Специалист по кибербезопасности Медет Турин отмечает, что популярными инструментами остаются DeepFaceLab и FaceSwap, однако на торрент-трекерах и GitHub доступны десятки решений, которые можно доработать под конкретные задачи. Ещё проще — мобильные приложения, позволяющие собрать видео с «политическими заявлениями» за считанные минуты. Для поддельных аудиозаписей используются технологии клонирования голоса. Аудиофейки распространяются особенно быстро: «компромат» активно пересылают в мессенджерах.

Если мошеннические дипфейки бьют по карману отдельных людей, то политические — по доверию целых сообществ. Они работают не с кошельком, а с убеждениями. Человек видит знакомое лицо, слышит уверенный голос и верит, потому что привык считать видео доказательством. Именно поэтому даже один фейковый ролик может иметь эффект, несоразмерный своему формату.

Особенность казахстанских политических дипфейков — их целенаправленный характер. Они появляются синхронно через сеть связанных аккаунтов, часто накануне значимых событий.

Отследить автора такого дипфейка — задача почти детективная. Медет Турин подчёркивает, что вбросы часто запускаются ночью, в выходные или праздничные дни — в периоды минимальной модерации.

«Чем чаще одна и та же группа работает с информационными фейками, тем легче связать её с предыдущими кейсами. Рано или поздно такие схемы “сгорают”: за ними всегда стоят люди, а люди совершают ошибки», — отмечает эксперт.

Практика подтверждает эту логику. OSINT-аналитик Антон Мосунский разобрал два кейса из TikTok, где ключевую роль сыграл временной фактор. В первом случае — видео из аккаунта с серией дипфейков — ролик выглядел визуально убедительно, однако внутри MP4-контейнера сохранился внутренний TikTok asset ID. По нему платформа может восстановить время публикации. Видео было создано в дневное время по UTC в конце декабря 2025 года — это выбивается из типичного «ночного окна» анонимных вбросов и подтверждает наблюдения Турина о тайминге.

Во втором кейсе — 10-секундном ролике, опубликованном аккаунтом, ранее неоднократно распространявшим дипфейки с участием «лжедепутатов», — картина была противоположной: публикация ранним утром по UTC соответствует классическому сценарию информационных вбросов.

«Для расследований такие временные “конвертики” зачастую не менее важны, чем визуальный анализ: они позволяют связать ролик с конкретными окнами активности и предыдущими кейсами», — подчёркивает Мосунский.

При этом анализ самого изображения даёт мало: метаданные при загрузке в соцсети стираются, а профессионалы удаляют их заранее. Гораздо перспективнее так называемый «платформенный след» — данные, которые сохраняются в инфраструктуре сервиса.

Скриншот из аккаунта с ложными видео

В обоих кейсах скачанные файлы оказались производными копиями, загруженными через сторонний сервис. Это установлено по структуре MP4-контейнера и меткам перекодирования (FFmpeg/Lavf). При этом внутри файлов сохранились внутренние TikTok asset ID и контрольные хэши — уникальные идентификаторы, по которым платформа способна восстановить оригинал, аккаунт загрузчика, время публикации и IP-адреса входа.

Анализ аудиодорожки выявил сильное сжатие (HE-AAC v2, около 32 kbps), характерное для синтетического контента или намеренно деградированного сигнала. Такое сжатие часто маскирует артефакты голосового клонирования. При этом автоматическая маркировка TikTok не пометила ролики как созданные ИИ, однако отсутствие такой метки не означает подлинность контента.

Вывод однозначен: попытки «доказать дипфейк по пикселям» на пережатых копиях бесперспективны. Настоящее разоблачение начинается с анализа инфраструктуры платформы — идентификаторов, тайминга публикаций, цепочек распространения и логов.

Именно такой подход позволил установить, что эти ролики — не разовые эксперименты, а элементы серийного производства. Контент создаётся под вирусные алгоритмы TikTok и рассчитан на тестирование реакции аудитории, вероятный подрыв доверия к публичным фигурам и, возможно, подготовку информационного фона перед конкретными событиями.

Повторяемость формата, намеренно сниженное качество копий, характерный тайминг публикаций и отсутствие авторской идентификации указывают на осознанную модель информационного воздействия. Здесь цель не в убеждении, а в создании сомнений и эмоционального шума.

Отдельные ролики могут долго оставаться в сети и не вызывать немедленной реакции, однако их совокупность со временем формирует устойчивый эффект недоверия — именно это делает подобные вбросы стратегически значимыми.

По словам специалистов, в подобных расследованиях используются открытые и полупубличные источники: анализ структуры TikTok video ID и внутренних asset ID, медиаконтейнерный анализ (MP4, H.264, AAC), OSINT-методология, изучение сетей аккаунтов и тайминга распространения, а также официальная документация платформ и практика правоохранительных запросов.

Интерпретация этих данных требует осторожности: отсутствие ИИ-маркировки не доказывает подлинность, а визуальные артефакты не всегда свидетельствуют о дипфейке. Однако совокупность технических следов позволяет понять, где хранится истина и кто способен её установить. Ключевые индикаторы — первоисточник, синхронность публикаций, повторяемость нарративов и временные маркеры, которые нередко информативнее визуального анализа.

С вступлением в силу закона об искусственном интеллекте Казахстан получил правовой инструмент для борьбы с дипфейками. Однако, как отмечает Медет Турин, важна не только нормативная база, но и её правоприменение.

Национальный координационный центр информационной безопасности активно противодействует киберугрозам. По данным «Кибердайджеста» ГТС КНБ за 2025 год, центр зарегистрировал более 63 тысяч событий информационной безопасности. Министерство культуры и информации также делает шаги в этом направлении: вице-министр Евгений Кочетов сообщил о разработке системы автоматического выявления дипфейков на базе платформы «MERGEN», уже используемой для борьбы с онлайн-наркоторговлей. Казахстанские организации, включая Esbol Qory, участвуют в проектах по распознаванию ИИ-манипуляций совместно с Meta.

Рядовому пользователю не нужно становиться OSINT-аналитиком. Однако если контент затрагивает важные темы или вызывает сильную эмоциональную реакцию, перепроверка не будет лишней. При просмотре подобных видео стоит обратить внимание на неестественные движения, несовпадение губ со звуком, артефакты на границах лица, несоответствие света и теней. Главное — проверить источник и контекст: если видео впервые публикует анонимный аккаунт или канал, известный информационными вбросами, вероятность фейка высока.

Новый закон ставит и другой принципиальный вопрос: где проходит граница между противодействием манипуляциям и защитой свободы выражения. Дипфейк-технологии используются не только во вредоносных целях — к ним прибегают сатира, пародия и художественные проекты. Опасность заключается не в самой технологии, а в намерении её применения: когда синтетическое видео используется для дискредитации политика, это становится угрозой; когда же те же инструменты служат образованию или творчеству, они работают на общественное благо.

Читайте также