Социальные сети скоро переживут массовые атаки ИИ‑агентов, предупреждают ученые

Социальные сети скоро переживут массовые атаки ИИ‑агентов, предупреждают ученые

21 software

Массовые атаки ИИ‑ботов: новая угроза для соцсетей

В ближайшем будущем в социальных сетях могут появиться крупномасштабные кампании, организованные ботами с искусственным интеллектом (ИИ). Эти боты будут моделировать поведение реальных людей и использовать психологическую предрасположенность к «мудрости большинства», чтобы манипулировать общественным мнением. В результате они смогут:

* Распространять ложные сведения
* Оказывать давление на отдельных пользователей
* Влиять на политические процессы

Таким образом, ИИ‑боты могут стать новым типом оружия в информационных войнах.


Как работают будущие боты

Норвежский профессор Йонас Кунст предупреждает, что боты с ИИ смогут:

1. Подражать людям – их активность будет выглядеть естественно, поэтому обнаружить их будет сложно.
2. Создавать иллюзию толпы – люди будут следовать за «мудростью», но на деле это будет управлять неизвестным оператором (индивидуумом, группой, политической партией, компанией или государственным деятелем).
3. Преследовать тех, кто отказывается присоединиться – боты могут подавлять контраргументы и усиливать собственный нарратив.

Пока точных сроков появления подобных «роботов» нет, но эксперты считают, что они уже развернуты в некоторых местах. Угроза усиливается тем, что цифровые экосистемы ослаблены из‑за потери рационального дискурса и общей неопределённости реальности среди граждан.


От простых к сложным ботам

* Примитивные боты уже составляют более половины веб‑трафика. Они выполняют лишь базовые задачи: публикуют однотипные сообщения, но их легко обнаружить, если есть операторы.
* ИИ‑боты на основе больших языковых моделей будут гораздо сложнее.
* Адаптируются к конкретным сообществам.
* Создают несколько «личностей» с памятью и идентичностью.
* Самоорганизуются, учатся и специализируются в эксплуатации человеческих слабостей.

Кунст сравнивает их с «самодостаточным организмом», способным координировать действия без постоянного вмешательства человека.


Уже видны первые признаки

В прошлом году администрация Reddit объявила о судебном иске против исследователей, которые использовали чат‑боты для манипуляций мнением 4 млн пользователей. Результаты показали, что ответы ИИ были в три–шесть раз убедительнее, чем публикации реальных людей.

* Масштаб атаки зависит от вычислительной мощности злоумышленника и способности платформы противостоять ему.
* Даже небольшое число агентов может оказать значительное влияние в локальных сообществах, поскольку новые участники будут восприниматься с подозрением.


Что могут сделать администрации соцсетей

1. Усилить аутентификацию – потребовать подтверждения того, что пользователь человек (не панацея, но усложнит задачу злоумышленникам).
2. Сканировать трафик в реальном времени – выявлять статистические аномалии и отклонения от нормального поведения.
3. Создать сообщества экспертов – объединить специалистов и учреждения для мониторинга атак, реагирования и повышения общественной осведомлённости.

Игнорирование этих мер может привести к серьёзным сбоям в выборах и других важных событиях.


Итог

Массовые атаки ИИ‑ботов уже не являются чисто теоретической проблемой. Они представляют реальную угрозу для честного обмена информацией, демократии и социальной стабильности. Чтобы защитить себя, платформы и пользователи должны активно внедрять новые технологии обнаружения, а также повышать уровень критического мышления в обществе.

Комментарии (0)

Оставьте отзыв — пожалуйста, будьте вежливы и по теме.

Пока нет комментариев. Оставьте комментарий — поделитесь своим мнением!

Чтобы оставить комментарий, войдите в аккаунт.

Войти, чтобы комментировать