NoFake

Что помогает странам бороться с фейками и при этом сохранять свободу слова

technology at home: close up view of woman reading fake news on the computer

Пока одни страны пытаются закручивать гайки и запрещать, другие нашли способы бороться с фейками, не задушив свободу слова. Мир уже наэкспериментировался. Где-то «работают по кошельку» манипуляторов, где-то делают ставку на быстрые опровержения, а где-то — на школьные уроки медиаграмотности. Разбираемся, кто и как противостоит дезинформации в 2025 году и что из этого действительно работает.

Четыре кита антифейковой политики
За последние годы сложилось четыре основных подхода. Первая колонна — прозрачность платформ: когда Facebook, TikTok или Twitter обязаны показывать, кто и за что платит в рекламе, как работают их алгоритмы. Вторая — центры быстрого реагирования, отслеживающие волны дезинформации в реальном времени. Третья — усиленный режим во время выборов, когда счёт идёт на часы. И четвёртая — образование и медиаграмотность, потому что лучшая защита от фейка — человек, который умеет его распознать. Все вместе они образуют экосистему доверия — систему, в которой технологии, институты и граждане работают сообща, чтобы ложь не превращалась в оружие.

Европа: от добровольности к обязательствам
Европейский союз долго шёл путём добровольных кодексов с IT-гигантами. Результаты были так себе. Поэтому появился Закон о цифровых услугах (DSA) — уже не просьба, а требование.
Теперь крупные платформы обязаны оценивать риски дезинформации, делать прозрачной рекламу, проходить независимые аудиты и открывать данные исследователям. В 2025 году Еврокомиссия конкретизировала процедуры доступа учёных к этим данным.
Параллельно работает усиленный Кодекс практик по дезинформации (2022 г.): как лишать сайты с фейками рекламных денег, строить библиотеки политической рекламы, какие инструменты давать фактчекерам. Раньше это было добровольно, теперь встроено в DSA, то есть «не выполняешь кодекс — получаешь по шапке от регулятора».
На передовой — сеть EDMO. Это 15 национальных хабов, объединяющих исследователей, журналистов и фактчекеров. Они мониторят кампании дезинформации и обмениваются данными. Летом 2025 года ЕС запустил хаб для Украины и Молдовы.
Закон об ИИ (AI Act) обязывает предупреждать пользователей о синтетическом контенте — голосе, лице или тексте. Для публикуемого материала нужны метки происхождения.
East StratCom Task Force при Европейской службе внешних действий ведёт базу EUvsDisinfo, разбирает нарративы и работает внешнеполитическим «глазом» ЕС.
У Еврокомиссии уже есть первые жёсткие кейсы применения DSA. Платформе X предъявили претензии за непрозрачность рекламы и отказ открывать данные исследователям.

Великобритания: широкая ответственность
Британцы выбрали свой путь. Online Safety Act — закон, простой как молоток. Он возлагает на платформы обязанность управлять рисками и, что важно, соблюдать собственные правила. Звучит логично: если ты написал в своих terms of service, что борешься с дезинформацией — изволь это делать, а не имитировать.
Надзирает Ofcom — регулятор, который поэтапно внедряет новые нормы. В апреле 2025 года заработал Консультативный комитет по дезинформации, который советует Ofcom, как настроить системы противодействия, не влезая в разбор конкретных постов.
После кризисов с дезинформацией в 2024 году часть экспертов призывает дать Ofcom временные полномочия для экстренного вмешательства, но идёт спор о балансе защиты и свободы слова.

Германия: 24 часа на удаление
Немецкий NetzDG стал одним из первых жёстких законов. Схема проста: у платформ есть 24 часа на удаление «очевидно незаконного» контента и 7 дней на всё остальное незаконное. Плюс прозрачная отчётность и понятные процедуры жалоб.
Поправки 2021 года усилили требования к апелляциям. NetzDG повлиял на дизайн регуляций в других странах, хотя критики указывают на риски «перемодерации».

Франция: режим повышенной готовности
Закон 2018 года о борьбе с манипуляцией информацией обязал платформы сотрудничать с регулятором ARCOM и быть особенно бдительными в предвыборный период.
ARCOM регулярно публикует отчёты о мерах платформ перед выборами, формируя стандарты «режима повышенной готовности».

США: распределённая модель
В Америке нет одного «закона против фейков». Действует мозаика ведомств.
CISA (Агентство по кибербезопасности) выпускает рекомендации для штатов и операторов критической инфраструктуры, анализирует угрозы от генеративного ИИ. ODNI и CISA предупреждают о тактиках иностранных игроков и роли дипфейков.
Главный игрок в технологических стандартах — NIST (Национальный институт стандартов и технологий) через Институт безопасности ИИ. Они выдали руководства по водяным знакам, проверке происхождения контента, методикам детекции. Документы серии NIST 100-4 стали отраслевым ориентиром.
С координацией против иностранных операций вышла заминка. Global Engagement Center Госдепа закончил мандат в конце 2024 года, а в апреле 2025-го новое руководство закрыло преемственную структуру.

Индия: когда суд говорит «стоп»
Индийское правительство расширило IT-правила 2021 года, создав правительственный Fact-Check Unit. Идея: если юнит решит, что информация о правительстве ложная — платформы обязаны действовать.
Верховный суд Индии в марте 2024 года приостановил действие уведомления, увидев конституционные риски. Дело в суде — хороший пример того, как попытка «монополии на истину» встречает сопротивление.

Сингапур: не удалять, а исправлять
Сингапурский POFMA работает по интересному принципу. Вместо сноса постов госорганы быстро выдают «correction directions» — прикрепляют к посту уведомление с опровержением и ссылкой на разъяснение.
Пост остаётся, но рядом появляется официальная позиция. В тяжёлых случаях применяются блокирующие предписания, но по умолчанию схема мягче.

Украина: вопрос нацбезопасности
Центр противодействия дезинформации при СНБО — пример интеграции борьбы с фейками в систему национальной безопасности. Центр мониторит информационные кампании, публикует разъяснения, работает с международными партнёрами. В условиях войны дезинформация — это оружие.

Тайвань: граждане против фейков
Тайваньский рецепт изящен. Государство создаёт условия для гражданских инициатив.
Платформа Cofacts и экосистема g0v работают прямо внутри мессенджеров. Получил сомнительное сообщение? Перешли боту. Он даст справку из базы или запустит проверку.
Этот подход доказал устойчивость во время выборов 2024 года, когда волны дезинформации разбивались о десятки тысяч вовлечённых граждан.

Финляндия: вырастить устойчивое поколение
Финны выбрали долгую игру. Вместо «комиссий по правде» они системно вшивают медиаграмотность в школьные программы.
Детей учат критически читать статистику, распознавать манипуляции в заголовках, понимать этику в медиа. Результат? Финны — одна из самых устойчивых к дезинформации наций.

НАТО: лаборатория против информационных войн
Центр стратегических коммуникаций НАТО в Риге — ключевой игрок в исследованиях сетевых манипуляций, ботов и «сим-банков». В 2025 году центр запустил лабораторию ИИ для разработки прототипов борьбы с когнитивными атаками.

Что реально работает в 2025 году?
Подводя итоги мирового опыта, можно выделить эффективные инструменты.
Прозрачность и аудит платформ с доступом исследователей к данным. У ЕС наибольший прогресс: требования DSA подкреплены реальными процедурами и первыми кейсами правоприменения.
Демонетизация дезинформации и библиотеки политической рекламы. Это бьёт по экономике манипуляторов: если за фейки не платят — интерес резко падает. Библиотеки позволяют отследить, кто, сколько и за что платит в кампаниях.
Выборные центры координации как «единое окно». Бразильский CIEDDE и французский режим ARCOM дают предсказуемость и скорость реакции.
Технологические стандарты для синтетики. Линия NIST по водяным знакам, проверке происхождения контента стала де-факто дорожной картой. На стороне ЕС — обязанность маркировать дипфейки в AI Act. Важна интероперабельность меток и их внедрение в рекламу и медиа.
Гражданские инструменты в мессенджерах и системная медиаграмотность. Тайвань и Финляндия показывают: вовлечение сообществ и обучение дают долгосрочную устойчивость. Даже продвинутые ИИ-вбросы разбиваются о критическое мышление.

Тонкие места
Ставка только на добровольные кодексы. Без «зубов» закона индустриальные обещания остаются волатильными.
«Монополия на истину». Индийская попытка закрепить государственный фактчек как последнюю инстанцию получила судебную паузу из-за риска для свободы слова.
Закрытые платформы и мессенджеры. Без специальных инструментов прозрачности они остаются «чёрными ящиками», где бото-сети чувствуют себя вольготно.
ИИ-контент. У регуляторов есть базовые нормы про маркировку, но без совместимых стандартов и широкого внедрения проверки происхождения эффект будет точечным.

Куда движется мир
Для успешной борьбы с дезинформацией необходимо объединение инструментов: обязательная прозрачность и аудит платформ с доступом исследователей; технологические стандарты происхождения контента и метки дипфейков; распределённые хабы и гражданские инструменты внутри мессенджеров.
ЕС лидирует по нормативной сборке, США тянут стандарты синтетики, Тайвань и Финляндия обеспечивают общественную устойчивость. Ошибкой будет либо опора только на добровольные кодексы, либо попытка «монополии на истину».
Побеждают те, кто выстроил цикл: упреждение рисков, превентивные метки и объяснения, быстрый координированный ответ, демонетизация токсичных экосистем, независимый аудит данных, постоянное обучение граждан. Не отдельные меры, а система, где каждый элемент усиливает другой.
Мир учится бороться с дезинформацией методом проб и ошибок. Главный урок: технологии, законы и образование должны работать вместе. Иначе фейки будут опережать нас на два шага.

Читайте также:

Финансовые дипфейки: новая угроза или цена цифрового прогресса?
Фейковые видео и фото: как распознать подделку в сети?

Читайте также