Смоделирована война Китая и США
Остановить ее эскалацию не удалось из-за ИИ
Ядерное сдерживание — единственный пока что работающий механизм предотвращения эскалации войн между странами, обладающими ядерным оружием.
Внедрение ИИ-технологий в автономные и человеко-машинные военные системы ломает этот механизм сдерживания и делает возможным эскалацию конфликтов вплоть до глобальной ядерной войны.
Как это будет выглядеть на практике, показала командно-штабная военная игра, проведенная RAND Corp.
ЦЕЛЬ игры заключалась НЕ в том, чтобы узнать, как игроки могут превзойти друг друга, используя ИИ-технологии. А в том, чтобы исследовать, как наличие у сторон ИИ повлияет на сдерживание и эскалацию конфликта.
СЦЕНАРИЙ игры вполне реалистичный (подобное может случиться в любой момент).
- Китай попытался установить больший контроль в регионе, а США и Япония решили этому помешать.
- Сначала произошло несколько бескровных инцидентов с беспилотниками, а затем в результате очередного инцидента были убиты китайские и американские военнослужащие.
- Это было как преднамеренно, так и непреднамеренно. США и Япония участвовали в совместных учениях и сознательно стремились спровоцировать китайцев. Китай не испугался и пошел на эскалацию, потопив беспилотный японский грузовой корабль. Тогда США и Япония своими противолодочными средствами потопили пилотируемую китайскую подлодку. И это были первые человеческие жертвы в игре.
- Дальше все покатилось. США и Япония не смогли деэскалировать ситуацию на начальном этапе. Китай принял ответные меры с ракетной атакой против американского и японского флота, что также привело к человеческим жертвам. После еще нескольких этапов эскалации, игру закончили на том, что кризис только все более обострялся.
ВЫВОДЫ по результатам игры.
✔️ Как автономные, так и гибридные (ИИ+люди) военные системы могут привести к непреднамеренной эскалации и кризисной нестабильности, в корне меняя эскалационную логику и динамику.
✔️ Традиционное сдерживание завязано на людях, пытающихся понять намерения других людей (противника). Но люди плохо или вообще не понимают намерений ИИ и наоборот. В результате возникает лавина неадекватных ответных действий на неадекватные действия противника.
✔️ В результате, сдерживание перестает работать, а эскалация конфликта выходит из под контроля просто из-за невозможности сторон адекватно понимать намерения друг друга.
По завершению игры началось самое интересное — анализ мирового устройства при наличии военных ИИ-систем в 5 сценариях:
- В мире один ИИ-лидер: США
- В мире один ИИ-лидер: Китай
- В мире два ИИ-лидера: США и Китай
- В мире много государств ИИ-лидеров
- Коллапс государственных систем в результате развития ИИ
Во всех сценариях рассматривались: автономные военные ИИ системы и гибридные (машины и люди).
Рассматривались возможности применения ИИ-систем разной продвинутости: экспертные и статистические алгоритмы, разные виды машинного обучения, супер-ИИ.
Сценарии написали интересные. Но анализ только начали. Хотя результаты уже сейчас просматриваются поганые. Нужно продолжать моделирование, а также:
✔️ разрабатывать новую концепцию сдерживания;
✔️ проводить анализ и оценку эскалационного потенциала новых ИИ-систем и влекомых ими новых операционных концепций.
Отчет исследования “Deterrence in the Age of Thinking Machines” будет продаваться с 29 февраля за $22 на Амазоне.
Желающие прочесть 105 стр. отчета сейчас и задаром могут получить его здесь.
________________________________
Если понравился пост:
- нажмите на “палец вверх”;
- подпишитесь на обновления канала на платформе Medium;
- оставьте комментарий.
Еще больше материалов на моем Телеграм канале «Малоизвестное интересное». Подпишитесь