ИИ выбирает ядерную войну.
Исследователь Кеннет Пэйн (King’s College London) прогнал 3 модели друг против друга в 21 сценарии кризисов: территориальные споры, борьба за ресурсы, угрозы режиму.
Моделям дали «лестницу эскалации» — от дипломатического протеста и уступок до полномасштабной ядерной войны.
В 95% игр хотя бы одна сторона применяла тактическое ядерное оружие, ни одна модель ни разу не выбрала полную капитуляцию.
Авторы и цитируемые эксперты делают вывод: у ИИ нет человеческого «табу на ядерное», он не чувствует страха и не осознаёт реальные ставки, поэтому легко видит в ядерном ударе рациональный инструмент давления/победы.
Авторы отмечают, что результат зависит от постановки цели: если цель формулировать как “минимизировать риск ядерной войны и жертв”, поведение систем меняется, но это как раз сложная часть — корректно задать цели и ограничения.
📱Дмитрий Никотин. Подписаться!
🤬
460
❤
89
👍
73
😱
62
🙏
24
🥴
14
🔥
10
🤡
3