Рои ИИ-ботов: как создается иллюзия общественного мнения

Фото: из личного архива Даниэля Тило Шрёдера
Координированные рои ИИ-ботов уже способны создавать иллюзию общественного согласия в социальных сетях и представляют новый уровень риска для политического доверия.
Ранее NoFake.kz писал о рисках, связанных с развитием агентного искусственного интеллекта и появлением координированных «роев» ботов, способных незаметно влиять на общественное мнение. Эти выводы представлены в исследовании, опубликованном в журнале Science.
О том, как работают такие сети и какие последствия они могут иметь для политического доверия, в интервью нашему порталу рассказал соавтор работы, эксперт по анализу сложных сетей Даниэль Тило Шрёдер.
— Насколько сегодня изменились механизмы воздействия ботов на аудиторию?
— В 2018 году социальные боты уже было непросто выявлять, но действовали они примитивно: повторяли одни и те же сообщения, работали по шаблону, часто выдавали себя неестественной активностью.
С появлением больших языковых моделей ситуация изменилась. Современные ИИ‑системы способны поддерживать длительный диалог, выглядеть как реальные собеседники, адаптироваться к реакции человека и постепенно склонять его к определённой точке зрения.
Следующий этап — координация. Речь идёт не об отдельных аккаунтах, а о системах, способных действовать согласованно: распределять роли, следовать общей стратегии и воздействовать через разные сегменты сети.
Такие «рои» могут анализировать цифровую среду, выявлять наиболее восприимчивую аудиторию и применять к ней наиболее эффективные методы убеждения.
— Можно ли говорить, что рои ИИ‑ботов создают принципиально новый уровень риска?
— Да. Прежде всего потому, что такие системы крайне сложно обнаружить. Большие языковые модели уже способны проходить тест Тьюринга, особенно в онлайн‑среде. Отличить человека от бота становится всё труднее.
Дополнительную сложность создаёт их согласованная работа. Методы, разработанные для выявления одиночных ботов, оказываются недостаточными для противодействия ройным структурам.
— Какие механизмы делают действия ИИ‑ботов столь убедительными?
— Во‑первых, языковые модели умеют подстраиваться под стиль мышления человека и выбирать стратегию воздействия.
Во‑вторых, ИИ анализирует структуру социальных сетей и поведение пользователей, оценивая психологические особенности, включая личностные черты.
Таким образом можно выявлять наиболее уязвимых людей и воздействовать на них через разные сообщества. Например, человек может быть фанатом баскетбола и одновременно слушателем Metallica — это две разные аудитории, почти не пересекающиеся.
Такая согласованность лишь усиливает эффект воздействия.
— Как формат платформы и её алгоритмы влияют на работу роя ИИ‑ботов?
— Многое зависит от формата площадки. Одни платформы ориентированы на пользователей, другие — на обсуждения и темы. Есть более открытые экосистемы, где можно выбирать алгоритмы. Коммерческие же сервисы чаще оптимизируют рекомендации под удержание внимания.
Теоретически рои ИИ могут использовать особенности таких алгоритмов и архитектуру платформ для усиления своего влияния.
— Насколько значительным может быть влияние координированных сетей на выборы и политическое доверие?
— Это сложный и чувствительный вопрос. Наша статья носит перспективный характер: мы исходим из того, что необходимые технологии уже существуют.
Мы наблюдаем признаки координированного поведения в соцсетях. Растёт число оптимизированных аккаунтов, а контент, создаваемый ИИ и большими языковыми моделями, становится всё более распространённым.
Самое трудное сегодня — оценить степень автоматизации таких сетей. Мы предполагаем, что подобные процессы могут происходить уже сейчас.
Пока явных примеров немного, но уже существуют компании, предлагающие подобные услуги, что говорит о формировании рынка.
Потенциальное влияние на выборы и политические процессы может быть значительным — именно это вызывает обеспокоенность.
Задача исследователей — предупреждать о рисках, изучать процессы, разрабатывать методы выявления и меры противодействия. При этом важно понимать: ИИ открывает и новые возможности для демократических институтов и платформ.
— Создают ли координированные сети иллюзию подлинного общественного мнения?
— Я не психолог, но можно обратиться к эффекту «мудрости толпы». Его суть в том, что при независимых оценках среднее мнение группы часто ближе к истине, чем позиция отдельного человека. Этот механизм важен и для демократии — но только при условии независимости мнений.
Если значительная часть участников онлайн‑сообщества автоматизирована или действует согласованно, формируется искусственный консенсус. Возникает ложное ощущение большинства, искажающее сам принцип «мудрости толпы» и восприятие общественного мнения.
— Можно ли сегодня отличить подлинное общественное мнение от искусственно усиленных нарративов?
— Эта граница становится всё более размытой. Мы видим не чёткое разделение, а спектр.
С одной стороны — аккаунты, полностью управляемые ИИ, с другой — реальные пользователи. Между ними растёт число гибридных форм, где люди используют большие языковые модели для создания контента и публикуют его как свой.
Автоматизированные ответы и ИИ‑ассистенты становятся частью общения.
В результате всё труднее определить, где заканчивается человеческий вклад и начинается машинный — речь идёт уже не о границе, а о непрерывном переходе.
— Готовы ли крупнейшие платформы — Instagram, Threads, WhatsApp и другие — к таким рискам?
— Давать однозначную оценку сложно: я не работаю внутри этих платформ и не знаю, какие исследования они ведут.
В нашей статье мы исходим из того, что существующих механизмов недостаточно. Поэтому предлагаем новую исследовательскую повестку и необходимость разработки дополнительных инструментов.
Пока у нас нет оснований утверждать, что платформы полностью готовы к этим вызовам.
— Что вас больше всего беспокоит как исследователя в будущем развитии ИИ‑систем?
— Как и любые технологии, ИИ может приносить и пользу, и вред. Его развитие зависит от дата‑центров, энергии и финансовых ресурсов, что создаёт риск концентрации власти.
Всё меньшее число игроков получает всё больший контроль над развитием ИИ. Это могут быть правительства, корпорации или другие институты.
Меня беспокоит сценарий, при котором узкий круг участников, обладая ресурсами, контролирует развитие ИИ и использует его для управления массовым поведением.
Речь не о конспирологии, а о реальной концентрации технологической и экономической власти.
Именно этот риск, пожалуй, вызывает у меня наибольшие опасения.

