Новый американский проект по использованию ИИ в пропагандистских целях не подразумевает ведения каких-то уникальных разработок. В документе, выпущенном Центром закупок, технологий и логистики Сил специальных операций, говорится о покупке систем ИИ-агентов и применения их для «технологического усиления и масштабирования информационной поддержки военных операций».
Авторы проекта делают ставку на использование больших лингвистических систем (LLM). Технология обучения ИИ-агентов специфике информационных войн уже опробована в ходе пилотных экспериментов, а анализ эффективности и особенностей подобных систем проведен аналитиками факультета военных исследований Королевского колледжа Лондона.
Два года назад специалист по кибербезопасности, скрывающийся под псевдонимом Nea Paw, что в переводе с румынского означает «Снежная Лапа», отчитался о завершении пилотного проекта «CounterCloud» («Счетчик облаков» – англ.) по подготовке ИИ-экосистемы, способной дезинформировать интернет-аудиторию противника в своих интересах.
В эксперименте были задействованы ChatGPT и платформа облачных вычислений компании Amazon. Обучение ИИ-агентов продолжалось в течение двух месяцев. Цена вопроса – 800 долларов. Nea Paw признался, что запустил этот проект, чтобы посмотреть, как будет работать в реальном мире дезинформация, созданная искусственным интеллектом. Результаты оказались впечатляющими.
На выходе ИИ-система умела вести себя как обычный пользователь социальных сетей, создавая иллюзию реального общения.
Она лайкала и репостила сообщения, соответствующие ее нарративам, троллила оппонентов и создавала тексты, разоблачающие их почку зрения, генерировала фейковые истории и исторические события.
За счет целевого накопления тематической информации система научилась реагировать только на наиболее релевантный контент и усиливать достоверность своих сообщений с помощью, прочитанных ИИ аудиозаписей новостей, фотографий и профилей фейковых журналистов, а также использовать при написании постов юмор и разные стили изложения материала.
Проведенное аналитиками Королевского колледжа Лондона исследование «Фабрики ИИ-пропаганды с языковыми моделями» («AI Propaganda factories with language models») подтвердило работоспособность пропагандистских ИИ-систем. Более того, утверждается, что такие проекты не требуют больших ресурсных затрат. Их основой могут быть малые языковые модели (SLM) с открытыми весами (доступом пользователя к архитектуре, обучающему коду, наборам данных), работающие на оборудовании потребительского сегмента.
Контент, генерируемый такими системами, определяется дизайном и настройкой ИИ-агентов. В ходе эксперимента не было зафиксировано ни одного отказа от выполнения более 11 тысяч задач, и во всех ответах выдерживался заданный стиль, тон и политическая позиция. Контроль за качеством создаваемого контента не требует участия человека – с этим вполне справляется ИИ-редактор на базе лингвистической модели Qwen3, разработанной компанией Alibaba.