Мнимое общественное мнение: что делают рои ИИ-ботов (ВИДЕО)

Коллаж: NoFake.kz
Координированные рои ИИ-ботов уже способны формировать ощущение массового согласия в соцсетях и создавать риски для политического доверия. Об этом говорится в исследовании, опубликованном в журнале Science.
О том, как работают такие системы, корреспондент NoFake.kz побеседовала с соавтором исследования, экспертом по анализу сложных сетей Даниэлем Тило Шрёдером.
По его словам, раньше социальные боты действовали примитивно и часто выдавали себя повторяющимися сообщениями. С появлением больших языковых моделей они стали убедительнее. Современные системы способны вести диалог, адаптироваться к реакции человека и последовательно склонять его к определённой позиции.
Речь идет уже не об отдельных аккаунтах, а о сетях, которые действуют согласованно. Они распределяют роли, работают по общей стратегии и усиливают одни и те же нарративы в разных сообществах. В результате у пользователей может возникать ощущение, что определенная точка зрения поддерживается большинством.
«Языковые модели умеют подстраиваться под стиль мышления человека и выбирать стратегию воздействия. ИИ анализирует структуру социальных сетей и поведение пользователей, оценивая психологические особенности, включая личностные черты.
Таким образом можно выявлять наиболее уязвимых людей и воздействовать на них через разные сообщества», – говорит Даниэль Тило Шрёдер.
Эксперт отмечает, что такие структуры сложно обнаружить, а традиционные методы выявления, разработанные для одиночных ботов, в этом случае оказываются недостаточными.
По словам Шрёдера, если часть участников онлайн-дискуссии действует автоматически или согласованно, формируется искусственный консенсус. Это и создает иллюзию подлинного общественного мнения.
Подробнее в видеоматериале.


