Кто и зачем создаёт фейковые видео с символами Астаны?

Кадр из ложного видео
В сети периодически появляются ролики, на которых якобы падает, взрывается или горит монумент «Байтерек», рушатся торговый центр «Хан Шатыр» и Дворец мира и согласия. Также встречаются и видео с кадрами, на которых известные персонажи из фильмов «покоряют» высоты символов столицы Казахстана. Что на самом деле стоит за волной таких видео и зачем их создают — выяснял корреспондент nofake.kz/.
Детали обмана
Большинство таких роликов опубликованы в TikTok и сопровождаются однотипными сенсационными заголовками вроде «Прямо сейчас в Астане горит Байтерек!». Почти все видео объединяет водяной знак и совпадающее время размещения.
При внимательном просмотре становится ясно, что видео сгенерировано искусственным интеллектом. Например, в видеоролике с обрушением конструкции «Хан Шатыра» в глаза бросаются нелепые и загадочные символы там, где в реальности размещается название торгово-развлекательного комплекса. Да и само основание здания вместе с центральным входом – вымышленные.

А во всех видео с «Байтереком» подделку выдают нереалистичный постамент и задний план с несуществующими зданиями.
Между тем, видео с «катастрофами» быстро набирали просмотры – часть пользователей поверила, другие делились «на всякий случай». Анализ комментариев под роликами показал, что даже некоторые молодые люди не смогли определить подделку.
Массовое и почти одновременное появление подобных видео указывает на системный процесс, а не на единичные эксперименты — и это вызывает закономерные вопросы: кто их создаёт и с какой целью?
Sora 2 и эффект доверия
На этот раз одновременность размещения провокационных видео связана с тем, что с 28 сентября этого года стал доступен широкой публике новый продукт от Open AI — Sora 2.
В обновлённой версии нейросети реализм движений, света и физики объектов достиг уровня, при котором даже специалисты не всегда способны отличить сгенерированный ролик без анализа метаданных.
Если раньше для таких эффектов требовалась команда специалистов по 3D-графике и визуализации, то теперь достаточно одного человека и короткой текстовой команды вроде: «Взрыв монумента Байтерек в Астане, кинематографическая съёмка». Через несколько минут система выдаёт готовый видеоролик, почти на первый взгляд неотличимый от реальности.
Пользователи по всему миру начали массово тестировать новую модель искусственного интеллекта и экспериментировать. К примеру, недавно автор видео о «разрушении Хан-Шатыра» решил поэкспериментировать и сгенерировал сцену «прихода Иисуса» в одно из отделений банка второго уровня. На этом коротком видео фон банка размыт и не имеет четких очертаний, фигура человека двигается неправдоподобно. Несмотря на то, что Sora 2 совершила качественный скачок, технические проблемы еще сохраняются. Те же аватары продолжают выглядеть неестественно в сложных эмоциональных сценах.
Однако это не мешает авторам активно экспериментировать с возможностями технологии. Для одних такие видео — способ проверить границы реализма, для других — возможность быстро набрать просмотры.
От баловства к манипуляции и инфопровокации
По мнению экспертов, в большинстве случаев за распространенными роликами стоят люди, которые тренируются и экспериментируют с новыми инструментами искусственного интеллекта. Им интересно увидеть результат и для этого авторы видеокадров придумывают сценарии, запускают генерацию и продвигают ролики в социальных сетях ради просмотров и хайпа. Это, по сути, цифровая игра и тестирование возможностей.
Вместе с тем, специалисты предупредили, что подобные реалистичные фейки могут в нужный авторам момент вызывать подрыв доверия к институтам, панику и дестабилизацию в обществе.
Обновленную нейросеть при желании можно применять для генерации ложных «новостей» — о мнимых катастрофах, протестах, военных конфликтах или политических инцидентах, а также для создания убедительных подделок высказываний и событий.
Медиаэксперт и политолог Газиз Абишев отмечает, что рост количества таких фейков может вызвать две противоречивые реакции: с одной стороны — временную тревогу, с другой — постепенное вырабатывание «иммунитета» у общества и улучшение навыков у профессиональных фактчекеров. Однако эксперт не исключает и риск скрытого сценария.
«На данном этапе мы видим людей, которые просто балуются с искусственным интеллектом. Поэтому пока я не вижу в этом проблемы. Но, вероятно, существуют какие-то инструменты, которые разные акторы — корпорации, преступные группировки, экстремисты и государства — сознательно не выпускают в массовое обращение, чтобы не выработался общественный иммунитет и в нужное время мог бы «выстрелить». Думаю, над этим работа ведется и к этому нужно быть готовыми», — отметил политолог.
Как отличить фейк?
Специалисты прогнозируют, что в ближайшем будущем платформы начнут маркировать контент, созданный ИИ, а регуляторы — требовать прозрачности при публикации подобных материалов. Пока же главная защита — это способность человека сомневаться и критически мыслить.
«Прежде всего стоит проверить источник публикации. Именно на малоизвестных страницах с небольшим числом подписчиков чаще всего впервые появляются подобные видео. Важно также сверять информацию с официальными источниками: если бы с «Байтереком» или с любым другим объектом инфраструктуры действительно что-то произошло, об этом оперативно сообщили бы экстренные службы, государственные органы и ведущие СМИ», — отметил пресс-секретарь Государственной технической службы Темирлан Бейсенхан.
Кроме того, специалист также посоветовал обращать внимание на метаданные, отражения и поведение людей в кадре — искусственный интеллект нередко допускает ошибки в деталях. Для проверки можно использовать доступные онлайн-инструменты вроде YouTube Data Viewer.


