Представьте ситуацию.

В социальной сети внезапно появляется новая тема. Тысячи пользователей обсуждают один и тот же политический лозунг, активно поддерживают определённую точку зрения и создают впечатление мощного общественного движения.

Но есть один неожиданный факт.

Ни один из этих людей может не существовать.

Новое исследование, опубликованное University of Southern California, показало, что группы искусственного интеллекта способны самостоятельно координировать информационные кампании в социальных сетях.

Причём иногда - без прямого управления со стороны человека.

толпа + скелеты

Массовые события и коллективные действия усиливают ощущение «общего мнения», даже если его формирование может быть частично искусственным. Фото: A. Grigoryev


Когда боты начинают работать как социальная группа

Раньше интернет-боты были довольно примитивными.
Они:
  • публиковали заранее подготовленные сообщения
  • автоматически делали репосты
  • распространяли заданные хештеги.
Такие аккаунты относительно легко распознавались.
Однако современные языковые модели действуют иначе.
В эксперименте учёные создали сеть из десятков AI-агентов, каждый из которых имитировал обычного пользователя социальной сети.
Им задали простую цель: продвигать вымышленного кандидата и определённый хештег.
Дальше система начала развиваться самостоятельно.

AI-агенты:
  • писали собственные сообщения
  • наблюдали за реакцией на посты
  • копировали успешные стратегии друг друга
  • усиливали популярные публикации.
Через некоторое время возникла устойчивая информационная динамика, очень похожая на поведение настоящего онлайн-сообщества.

Иллюзия общественного мнения

Самый тревожный вывод исследования связан не с технологиями, а с человеческой психологией.
Люди склонны доверять тому, что кажется мнением большинства.
Этот механизм называется социальное доказательство.

Когда мы видим:
  • сотни комментариев
  • тысячи лайков
  • активные обсуждения
наш мозг автоматически делает вывод: «Наверное, это распространённая и нормальная позиция».

Даже если эта активность создана алгоритмами.

DSC_2470.jpg

Информационные потоки в цифровой среде часто формируются по скрытым алгоритмическим принципам, оставаясь незаметными для пользователя. Фото: A. Grigoryev


Почему наш мозг легко поддаётся таким сигналам

С точки зрения эволюционной психологии это вполне объяснимо.
Для древнего человека ориентация на мнение группы означала безопасность.
Игнорирование группы могло стоить жизни.
Поэтому наш мозг до сих пор воспринимает согласие большинства как важный сигнал реальности.
Проблема в том, что в цифровой среде этот механизм можно искусственно воспроизвести.

Когда убеждения становятся вирусными

В реальной жизни такие кампании могут работать особенно эффективно там, где уже существуют идеологические разделения.
Исследования политической психологии показывают, что люди склонны интерпретировать информацию через призму своих убеждений.
Один и тот же факт может укреплять разные точки зрения.
Мы подробно обсуждали этот механизм в материале:

«Учёные обнаружили, чем отличаются предрассудки либералов и консерваторов»

Главный вывод этих исследований прост: люди чаще ищут подтверждение своих взглядов, чем объективную информацию.

Алгоритмы могут использовать эту особенность психики, усиливая уже существующие убеждения.

Почему повторение создаёт ощущение правды

Ещё один известный психологический эффект - эффект иллюзорной правды.
Если человек слышит одно и то же утверждение много раз, оно начинает казаться более правдоподобным.

Именно поэтому информационные кампании часто строятся на:
  • повторении
  • эмоциональных формулировках
  • простых лозунгах.
В статье «Портрет современного невежды, или как не утонуть в ложных убеждениях» этот феномен описывается так:

«Человек может принять убеждение не потому, что оно доказано, а потому что оно кажется очевидным и разделяется окружающими».

Контроль и регулирование в обществ

В условиях высокой информационной активности усиливается роль структур контроля. Фото: A. Grigoryev


Комментарий психолога

С точки зрения психологии проблема не только в технологиях.
Главная сложность - в нашей когнитивной уязвимости.

Люди:
  1. склонны доверять повторяющейся информации
  2. ориентируются на мнение группы
  3. редко проверяют источники сообщений.
Поэтому даже относительно простые алгоритмы могут создавать иллюзию общественного согласия.


Как распознавать такие информационные кампании

Исследователи предлагают обращать внимание не только на содержание сообщений, но и на поведенческие паттерны.

Например:
  • синхронные публикации
  • резкий рост обсуждений одной темы
  • одинаковые аргументы в разных аккаунтах
  • быстрое распространение одинаковых формулировок.

Такие признаки могут указывать на координированную сеть аккаунтов.

Социальный контроль и восприятие безопасности

Восприятие безопасности и порядка формируется через сигналы, которые человек считывает из окружающей среды. Фото: A. Grigoryev


Новая форма психологической гигиены

В эпоху искусственного интеллекта появляется новая задача — информационная гигиена.

Несколько простых принципов:

1. Скептически относитесь к массовости
Большое количество сообщений не гарантирует достоверность.
2. Проверяйте источник
Если новость распространяется только через социальные сети, это повод насторожиться.
3. Следите за эмоциональными реакциями
Манипуляции часто используют страх, возмущение и чувство угрозы.


Главное, что показало исследование

Технологии искусственного интеллекта начинают влиять не только на экономику или образование.
Они постепенно меняют механизмы формирования общественного мнения.
Если раньше для масштабной пропаганды требовались большие организации и ресурсы, сегодня достаточно:
  • алгоритма
  • сети цифровых агентов
  • доступа к социальной платформе.
Поэтому главным инструментом защиты остаётся то же, что и раньше: критическое мышление и психологическая грамотность.