NoFake

Как ИИ-боты атакуют и завоевывают внимание людей: интервью Джошуа Такера

Автоматизированное создание и масштабное распространение контента привели к появлению нового цифрового феномена — «роя ИИ-ботов».

Искусственный интеллект быстро меняет не только экономику и технологии, но и политическую коммуникацию. Если раньше цифровое влияние ассоциировалось с тролль-фермами и сетями ботов, то сегодня им на смену приходят масштабируемые и почти автономные «рои ИИ-ботов».

Что это означает для общественного мнения? Могут ли такие системы менять политические установки или их сила прежде всего в управлении вниманием? И можно ли отличить реальную позицию общества от искусственно усиленного нарратива? Об этом мы поговорили с профессором политологии Нью-Йоркского университета, сооснователем Центра социальных медиа и политики Джошуа Такером.

— В последние месяцы стал чаще звучать термин «рои ИИ-ботов». Что это такое?

— Боты сами по себе не новое явление. В академическом смысле всё довольно просто: если пост пишет человек — это пользователь, если процесс публикации автоматизирован — это бот. Ранее мы даже использовали термин «киборг-аккаунты», когда автоматизация сочеталась с участием человека. Многие аккаунты фактически работают именно так.

Важно, что слово «бот» часто воспринимается исключительно негативно, хотя автоматизация широко применяется и легальна. Медиаорганизации, например, используют системы автоматической публикации материалов.

Но с появлением генеративного ИИ произошёл качественный сдвиг. Социальные сети когда-то почти обнулили стоимость распространения информации, а ИИ резко снизил стоимость её производства.

Теперь агентные системы могут самостоятельно создавать тексты, переводить их на разные языки и масштабировать распространение. Когда автоматическое производство контента сочетается с автоматическим распространением, мы получаем то, что и называют «роем ИИ-ботов».

— Это принципиально новый этап по сравнению с тролль-фермами?

— В первую очередь изменились масштаб и стоимость. Раньше контент создавали люди: они уставали, работали по графику, допускали ошибки. Например, тролль-фермы иногда выявляли по снижению активности ночью — ботам спать не нужно.

Но главный вопрос не в производстве, а в эффекте. Мы пока не можем уверенно сказать, меняет ли это политические взгляды людей.

Ранние исследования, например, по российским ботам 2014–2015 годов, показали любопытную вещь: они массово публиковали новостные заголовки без ссылок. Если бы целью было привлечь читателей, это выглядело бы странно. Зато это имеет смысл, если задача — повлиять на алгоритмы новостных агрегаторов и поисковых систем.

Сегодня появляется ещё более интересная перспектива: ИИ-боты могут наполнять интернет контентом, который затем используется для обучения будущих моделей. В таком случае воздействие направлено уже не на людей, а на машины.

— Насколько убедительно такое воздействие? Может ли оно менять политические взгляды?

— Изменить базовые политические предпочтения очень сложно, особенно в поляризованных обществах. Люди редко меняют партийную идентичность. Но по вопросам, по которым у них нет устойчивого мнения, влияние возможно.

Боты скорее работают как усилители сигнала: они не обязательно убеждают, но делают определённые сообщения более заметными для алгоритмов соцсетей.

Во время выборов президента США в 2016 году мы изучали это и не обнаружили статистически значимой связи между воздействием твитов троллей и изменением взглядов пользователей. В насыщенной медиасреде объём такого контента был слишком мал по сравнению с новостями и политической рекламой.

Поэтому основной эффект, вероятно, связан не с убеждением, а с повесткой — с тем, какие темы люди начинают обсуждать.

— То есть речь идёт о борьбе за внимание?

— Именно. Политика — это не только убеждение, но и управление вниманием. Иногда важнее не убедить человека, а заставить его говорить об одной теме вместо другой.

ИИ-боты могут быть особенно эффективны именно в смещении фокуса общественной дискуссии.

— Но возможно и более сильное влияние?

— Да — когда человек вступает в прямой диалог с системой. Исследования показывают, что специально настроенные чат-боты способны увеличивать или снижать склонность к конспирологическим убеждениям. Полноценная беседа — более мощный инструмент воздействия, чем просто поток постов в соцсетях.

— Распознают ли пользователи такие сети как искусственные?

— Здесь два разных риска. Первый — смогут ли люди отличать искусственный контент. Второй, более серьёзный: что произойдёт, если люди начнут сомневаться во всём.

Это связано с «дивидендом лжеца»: когда общество привыкает к фейкам, любую правдивую информацию можно объявить подделкой. В итоге подрывается доверие ко всей информационной среде. Возможно, в будущем важной станет способность доказать, что вы человек.

— Тогда можно ли вообще отличить реальное общественное мнение от искусственно усиленного?

— Методы существуют — например, очные опросы со случайной выборкой. Но они дорогие и используются всё реже. Онлайн-опросы дешевле, однако появляются ИИ-системы, способные проходить их, выдавая себя за людей.

Социальные сети тоже не отражают общественное мнение: небольшая группа пользователей создаёт непропорционально большой объём контента. Кроме того, в некоторых странах люди могут бояться говорить то, что действительно думают.

— К какому будущему это ведёт?

— Мы оказываемся между двумя рисками: принять искусственно усиленный сигнал за мнение большинства или начать не верить ничему.

ИИ делает производство политического контента беспрецедентно дешёвым и масштабируемым. Но главный вопрос не в технологии, а в её последствиях: меняет ли она убеждения или лишь перераспределяет внимание.

В новой цифровой реальности борьба идёт уже не только за голоса избирателей, но и за доверие. И, возможно, именно доверие станет главным политическим ресурсом эпохи искусственного интеллекта.

Читайте также