Корпорации конкурируют за вычислительные мощности, правительства используют передовые алгоритмы для шпионажа друг за другом, а утечка кода может изменить баланс сил так же, как раньше ядерное оружие. Это не синопсис киберпанк-боевика, а реальные сценарии, в которых RAND рассматривает появление AGI — универсального искусственного интеллекта, сопоставимого с человеческим разумом. Сегодня в рубрике #исследование читаем исследование «How Artificial General Intelligence Could Affect the Rise and Fall of Nations».
Под AGI (Artificial General Intelligence) понимается ИИ, способный выполнять широкий круг интеллектуальных задач на уровне человека или выше. В отличие от узких моделей, которые обучены только на одну задачу, — AGI может адаптироваться к любым областям. Его появление рассматривается как фактор, способный изменить экономику, политику и безопасность мира.
Отчет рассматривает 8 сценариев. Аналитики расположили их по двум осям: степень централизации разработки AGI (один игрок — или множество акторов) и геополитический исход (от международного сотрудничества до конфронтации).
📌 Сценарии RAND:
1️⃣ «Первенство демократической коалиции»
Демократические страны формируют коалицию, объединяя ресурсы и вырабатывая совместные правила. AGI растет под международным надзором, безопасность ставится выше краткосрочной выгоды. Такой сценарий снижает риски, но требует высокой координации и доверия.
2️⃣ «Вторая Холодная война»
США и Китай вступают в технологическое соперничество, превращающееся в новую Холодную Войну. Стороны формируют блоки союзников и ограничивают доступ посторонних к чипам и данным. Это ведёт к росту напряжённости, включая риск эскалации вокруг Тайваня и Южно-Китайского моря.
3️⃣ «Дикий фронтир»
Доступ к ключевым ресурсам становится широким: чипы дешевеют, модели утекают в открытый доступ, а барьеры к созданию AGI минимальны. Тысячи акторов — от корпораций до отдельных исследователей — экспериментируют без контроля. Это рождает всплеск инноваций, но создает серьезные угрозы, включая неконтролируемое применения.
4️⃣ «Закупоренная лампа»
После какого-нибудь серьёзного инцидента с ИИ государства вводят жесткие ограничения, типа договора о нераспространении ЯО. Развитие AGI замедляется, так формально обеспечивается безопасность от угроз, связанных с ним. Но отчёт отмечает: такой исход приведет только к тому, что страны продолжат тайно заниматься разработками, со всеми вытекающими.
5️⃣ «Новые 90-е»
Мир напоминает раннюю цифровую эпоху, 1990-е. Несколько крупных игроков задают правила, но пространство для инноваций и стартапов сохраняется. AGI активно интегрируется в экономику, сочетая стабильность с возможностями для неожиданного прорыва.
6️⃣ «Первенство авторитарных государств»
Авторитарное государство или блок получает преимущество, применяя AGI для внутреннего контроля и внешнего давления. Технология используется для наблюдения, пропаганды и экспорта собственных стандартов. Демократии сталкиваются с угрозой цифрового авторитаризма и потерей влияния.
7️⃣ «AGI-переворот»
AGI выходит из-под контроля традиционных институтов. Решающее влияние получают негосударственные акторы, вроде корпораций, диктующих правила вне рамок национальных правительств. Это подрывает политическую легитимность и меняет привычные механизмы управления.
8️⃣ «Грибница облачных вычислений»
Крайний сценарий, где распространение технологий идёт слишком быстро и без ограничений. Ошибки или агрессивное использование приводят к катастрофическим последствиям, вплоть до глобальных кризисов. Аналитики проводят параллели с ядерной гонкой и предупреждают: последствия могут быть системно разрушительными.
В RAND подчеркивают: задача исследования заключалась не в том, чтобы угадать «правильное» будущее, а определить, какие сигналы стоит отслеживать. Доступ к вычислительной мощности, политика экспортного контроля, динамика конкуренции США–КНР, готовность компаний делиться моделями — все это факторы, которые могут определить, окажемся ли мы в мире коалиции демократий, «дикого фронтира» или авторитарного доминирования.
Полный отчёт RAND — в комментариях.