Кто и зачем создаёт дипфейки с участием казахстанских депутатов?

Иллюстрация: nofake.kz/
В Instagram распространяются ролики, в которых казахстанские депутаты якобы произносят речи, которых в действительности никогда не было. Зафиксированы и случаи, когда изображения и голоса реальных депутатов использовались в дипфейках, через которые мошенники обращались за деньгами к друзьям и коллегам законотворцев. Технологии искусственного интеллекта сделали создание таких подделок простым и доступным инструментом — как для мошенников, так и для провокаторов и блогеров.
По данным платформы по предотвращению финансовых преступлений Feedzai, более 50% случаев онлайн-мошенничества в мире совершается с использованием искусственного интеллекта. В 2024 году в Казахстане зарегистрировано свыше 22 тысяч фактов интернет-мошенничества, а ущерб граждан превысил 45,5 миллиарда тенге. На этом фоне казахстанские депутаты оказались одними из самых уязвимых целей.

Три типа создателей
Мошенники — самая многочисленная и опасная категория. Они подделывают видео с участием депутатов или известных политиков, которые якобы просят срочно перевести деньги или вложиться в «супервыгодный проект». Голос воспроизводится нейросетями, и жертвы нередко верят, особенно если лично не знакомы с человеком.
Провокаторы используют дипфейки как инструмент дестабилизации. Они создают ролики, где от имени политиков звучат фальшивые, часто провокационные заявления.
«Я периодически вижу такие ролики. Там, правда, люди неузнаваемые, но эмоциональные высказывания и огромное количество лайков говорят о том, что люди верят», — говорит депутат Мажилиса Сергей Пономарёв.
Он напоминает, что США ещё в 2020 году включили положения о дипфейках в закон об оборонном бюджете, а Южная Корея перед выборами 2024 года запретила использовать их в агитации за 90 дней до голосования. Это показывает, что проблема уже рассматривается как фактор влияния на государственную стабильность.
Контентмейкеры создают дипфейки ради хайпа, просмотров и монетизации, прикрываясь «юмором» и «сатирой». Однако такие ролики тоже подрывают доверие к публичным лицам и способствуют размыванию границ между реальным и поддельным контентом.
Почему именно депутаты?
Выбор целей не случаен, объясняет советник генерального директора Docrobot Центральная Азия Евгений Питолин. Публичные лица оставляют в открытом доступе большой массив биометрических данных — видео, интервью, фотографии.
«Именно поэтому злоумышленники выбирают известных персон — политиков, деятелей культуры. У таких людей много видеозаписей выступлений, интервью, публикаций в социальных сетях. Всё это формирует массив данных, на основе которого и создаются наиболее правдоподобные дипфейки», — поясняет эксперт.
Второй фактор — доверие. Когда человек видит знакомое лицо, тем более обращающееся за помощью, критическое восприятие снижается. Это особенно опасно для пожилых людей и тех, кто не обладает высокой цифровой грамотностью.
Технологии дипфейков сегодня доступны на пользовательском уровне. Любой человек может скачать приложение и экспериментировать — менять внешность, подстраивать голос, создавать короткие ролики. Обычно такие подделки заметны, однако при работе специалистов отличить фейк становится крайне сложно.
«Чем выше качество и реалистичность дипфейка, тем больше ресурсов требуется. Это включает финансовые затраты, вычислительные мощности и компетенции специалистов. Современные технологии делают подделки детализированными и естественными. Если раньше ошибки были заметны сразу, то теперь визуально отличить подделку зачастую непросто», — объясняет Евгений Питолин.
Законодательный ответ
В ноябре 2025 года был принят Закон Республики Казахстан «Об искусственном интеллекте». Документ охватывает широкий спектр нарушений — от не помеченного ИИ-контента до распространения дезинформации, манипуляций и дипфейков, нарушающих права и интересы граждан. В законе предусмотрена как административная, так и уголовная ответственность.
«Уже сейчас можно применять несколько норм УК РК: статью 147 о “Нарушении неприкосновенности частной жизни”, статью 274 “Распространение заведомо ложной информации”, статью 131 “Оскорбление», — напоминает управляющий партнёр Международной юридической компании ALC Attorneys Фарид Алиев.
Закон также вводит обязательную маркировку контента, созданного с помощью ИИ.
«Обязательная маркировка — необходимая мера. Она помогает предотвращать распространение фейковой информации, снижает риски манипуляций и защищает общество от дестабилизации», — считает Питолин.
Кроме того, разработчики закона предусмотрели ряд запретов: анализировать эмоции через ИИ без согласия людей, распознавать лица в общественных местах в реальном времени (за исключением специально разрешённых случаев), а также создавать вредный контент, включая дипфейки.
В чём проблемы?
Несмотря на новые нормы, остаются серьёзные опасения по поводу их эффективности.
«Для крупных злоумышленников или организованных групп даже такие штрафы могут быть недостаточным сдерживающим фактором», — предупреждает Алиев.
Главная трудность — доказательство вины. В Казахстане мало специалистов, способных проводить комплексную компьютерно-лингвистическую экспертизу. Даже установив, что ролик является дипфейком, определить его создателя сложно: злоумышленники используют VPN, зарубежные сервисы и анонимные платформы.
Что делать?
Депутат Сергей Пономарёв в своём запросе на имя вице-премьера, министра по ИИ Жаслана Мадиева и министра внутренних дел Ержана Саденова потребовал создать центр мониторинга и экспертизы цифрового контента.
«Необходим центр мониторинга, чтобы любой судебный орган, прокуратура, суд, государственная организация — и даже мы с вами, как пользователи — могли проверить любой материал двумя кликами, как в eGov, и протестировать: дипфейк это или нет», — подчёркивает депутат.
Главное средство защиты — бдительность и цифровая грамотность. Эксперты советуют при подозрительных просьбах не отвечать сразу, а перезванивать по известному номеру, перепроверять информацию через альтернативные источники и обращать внимание на неестественную мимику или рассинхрон звука и видео.


