Представьте ситуацию.
В социальной сети внезапно появляется новая тема. Тысячи пользователей обсуждают один и тот же политический лозунг, активно поддерживают определённую точку зрения и создают впечатление мощного общественного движения.Но есть один неожиданный факт.
Ни один из этих людей может не существовать.
Новое исследование, опубликованное University of Southern California, показало, что группы искусственного интеллекта способны самостоятельно координировать информационные кампании в социальных сетях.
Причём иногда - без прямого управления со стороны человека.

Массовые события и коллективные действия усиливают ощущение «общего мнения», даже если его формирование может быть частично искусственным. Фото: A. Grigoryev
Когда боты начинают работать как социальная группа
Раньше интернет-боты были довольно примитивными.
Они:
- публиковали заранее подготовленные сообщения
- автоматически делали репосты
- распространяли заданные хештеги.
Однако современные языковые модели действуют иначе.
В эксперименте учёные создали сеть из десятков AI-агентов, каждый из которых имитировал обычного пользователя социальной сети.
Им задали простую цель: продвигать вымышленного кандидата и определённый хештег.
Дальше система начала развиваться самостоятельно.
AI-агенты:
- писали собственные сообщения
- наблюдали за реакцией на посты
- копировали успешные стратегии друг друга
- усиливали популярные публикации.
Иллюзия общественного мнения
Самый тревожный вывод исследования связан не с технологиями, а с человеческой психологией.
Люди склонны доверять тому, что кажется мнением большинства.
Этот механизм называется социальное доказательство.
Когда мы видим:
- сотни комментариев
- тысячи лайков
- активные обсуждения
Даже если эта активность создана алгоритмами.

Информационные потоки в цифровой среде часто формируются по скрытым алгоритмическим принципам, оставаясь незаметными для пользователя. Фото: A. Grigoryev
Почему наш мозг легко поддаётся таким сигналам
С точки зрения эволюционной психологии это вполне объяснимо.
Для древнего человека ориентация на мнение группы означала безопасность.
Игнорирование группы могло стоить жизни.
Поэтому наш мозг до сих пор воспринимает согласие большинства как важный сигнал реальности.
Проблема в том, что в цифровой среде этот механизм можно искусственно воспроизвести.
Когда убеждения становятся вирусными
В реальной жизни такие кампании могут работать особенно эффективно там, где уже существуют идеологические разделения.
Исследования политической психологии показывают, что люди склонны интерпретировать информацию через призму своих убеждений.
Один и тот же факт может укреплять разные точки зрения.
Мы подробно обсуждали этот механизм в материале:
«Учёные обнаружили, чем отличаются предрассудки либералов и консерваторов»
Главный вывод этих исследований прост: люди чаще ищут подтверждение своих взглядов, чем объективную информацию.
Алгоритмы могут использовать эту особенность психики, усиливая уже существующие убеждения.
Почему повторение создаёт ощущение правды
Ещё один известный психологический эффект - эффект иллюзорной правды.
Если человек слышит одно и то же утверждение много раз, оно начинает казаться более правдоподобным.
Именно поэтому информационные кампании часто строятся на:
- повторении
- эмоциональных формулировках
- простых лозунгах.
«Человек может принять убеждение не потому, что оно доказано, а потому что оно кажется очевидным и разделяется окружающими».

В условиях высокой информационной активности усиливается роль структур контроля. Фото: A. Grigoryev
Комментарий психолога
С точки зрения психологии проблема не только в технологиях.
Главная сложность - в нашей когнитивной уязвимости.
Люди:
- склонны доверять повторяющейся информации
- ориентируются на мнение группы
- редко проверяют источники сообщений.
Как распознавать такие информационные кампании
Исследователи предлагают обращать внимание не только на содержание сообщений, но и на поведенческие паттерны.
Например:
- синхронные публикации
- резкий рост обсуждений одной темы
- одинаковые аргументы в разных аккаунтах
- быстрое распространение одинаковых формулировок.
Такие признаки могут указывать на координированную сеть аккаунтов.

Восприятие безопасности и порядка формируется через сигналы, которые человек считывает из окружающей среды. Фото: A. Grigoryev
Новая форма психологической гигиены
В эпоху искусственного интеллекта появляется новая задача — информационная гигиена.
Несколько простых принципов:
1. Скептически относитесь к массовости
Большое количество сообщений не гарантирует достоверность.
2. Проверяйте источник
Если новость распространяется только через социальные сети, это повод насторожиться.
3. Следите за эмоциональными реакциями
Манипуляции часто используют страх, возмущение и чувство угрозы.
Главное, что показало исследование
Технологии искусственного интеллекта начинают влиять не только на экономику или образование.
Они постепенно меняют механизмы формирования общественного мнения.
Если раньше для масштабной пропаганды требовались большие организации и ресурсы, сегодня достаточно:
- алгоритма
- сети цифровых агентов
- доступа к социальной платформе.




