Угроза из соцсетей: эксперты предупреждают о «роях» ИИ-ботов
Фото: freepik.com
Развитие агентного ИИ создает условия для появления «роев» ботов, которые могут незаметно манипулировать общественным мнением, считают исследователи.
Эксперты в области искусственного интеллекта и противодействия дезинформации предупреждают о появлении новой масштабной угрозы для демократии — скоординированных «роев» ИИ-ботов, способных влиять на общественное мнение и подрывать доверие к выборам. Об этом сообщает The Guardian со ссылкой на исследование, опубликованное в журнале Science.
По мнению авторов, развитие ИИ-технологий позволяет создавать большие группы автономных агентов, которые имитируют поведение людей, взаимодействуют между собой и адаптируются к конкретным сообществам. Такие системы могут незаметно распространять дезинформацию, формируя ложный общественный консенсус.
«Назревает разрушительная угроза: рои сотрудничающих, злонамеренных агентов искусственного интеллекта. Эти системы способны автономно координировать свои действия, проникать в сообщества и эффективно формировать консенсус», — пишут авторы исследования, цитирует издание.
Эксперты предупреждают, что подобные технологии потенциально могут использоваться для вмешательства в избирательные процессы, включая попытки убедить общество принять отмену выборов или поставить под сомнение их результаты. По их оценке, к моменту президентских выборов в США в 2028 году такие инструменты могут быть развернуты в значительно больших масштабах.
В международный консорциум, подготовивший предупреждение, вошли специалисты из Гарварда, Оксфорда, Кембриджа, Йеля и Беркли, а также лауреат Нобелевской премии мира Мария Ресса. Ранние формы операций влияния с использованием ИИ уже фиксировались во время выборов 2024 года в Тайване, Индии и Индонезии.
Современные ИИ-агенты, отмечают исследователи, всё лучше имитируют человеческое поведение: используют сленг, меняют тональность сообщений, публикуют контент нерегулярно и выбирают разные каналы коммуникации — от соцсетей и мессенджеров до блогов и электронной почты. Это значительно усложняет их выявление.
«Просто пугает, насколько легко можно создать целые армии ботов, способных эффективно работать в социальных сетях, электронной почте и использовать эти инструменты», — сказал один из авторов исследования Даниэль Тило Шрёдер, слова которого приводит издание.
В то же время часть экспертов отмечает, что массовое внедрение таких технологий может сдерживаться политическими рисками и опасениями разоблачения. Однако большинство сходится во мнении, что с технологической точки зрения подобные сценарии уже реализуемы и будут становиться всё более доступными.
В связи с этим авторы исследования призывают к скоординированным международным мерам, включая разработку инструментов обнаружения ИИ-роев, маркировку контента, созданного с помощью искусственного интеллекта, и усиление регулирования цифровых платформ.


