NoFake

Мнимое общественное мнение: что делают рои ИИ-ботов (ВИДЕО)

Коллаж: NoFake.kz

Координированные рои ИИ-ботов уже способны формировать ощущение массового согласия в соцсетях и создавать риски для политического доверия. Об этом говорится в исследовании, опубликованном в журнале Science.

О том, как работают такие системы, корреспондент NoFake.kz побеседовала с соавтором исследования, экспертом по анализу сложных сетей Даниэлем Тило Шрёдером.

По его словам, раньше социальные боты действовали примитивно и часто выдавали себя повторяющимися сообщениями. С появлением больших языковых моделей они стали убедительнее. Современные системы способны вести диалог, адаптироваться к реакции человека и последовательно склонять его к определённой позиции.

Речь идет уже не об отдельных аккаунтах, а о сетях, которые действуют согласованно. Они распределяют роли, работают по общей стратегии и усиливают одни и те же нарративы в разных сообществах. В результате у пользователей может возникать ощущение, что определенная точка зрения поддерживается большинством.

«Языковые модели умеют подстраиваться под стиль мышления человека и выбирать стратегию воздействия. ИИ анализирует структуру социальных сетей и поведение пользователей, оценивая психологические особенности, включая личностные черты.
Таким образом можно выявлять наиболее уязвимых людей и воздействовать на них через разные сообщества», – говорит Даниэль Тило Шрёдер.

Эксперт отмечает, что такие структуры сложно обнаружить, а традиционные методы выявления, разработанные для одиночных ботов, в этом случае оказываются недостаточными.

По словам Шрёдера, если часть участников онлайн-дискуссии действует автоматически или согласованно, формируется искусственный консенсус. Это и создает иллюзию подлинного общественного мнения.

Подробнее в видеоматериале.

Читайте также