Пять войн будущего: AGI как оружие, господство и парадоксальная угроза

Размышления над новым отчетом RAND Corporation: «Пять сложных проблем национальной безопасности, связанных с AGI»

Сергей Карелов
4 min readFeb 11, 2025

Пролог: интеллект на поводке или оружие без хозяина?

Представьте, что новый нечеловеческий разум все же рождается — не из биологической эволюции, а из кода, алгоритмов и серверных ферм, пожирающих электричество. Этот разум не просит гражданства, не верит в демократию, не боится смерти. Что, если такой интеллект — искусственный, но не обязательно дружелюбный — войдет в игры глобальной политики как самостоятельный игрок?

В докладе RAND Corporation нарисован тревожный, но вполне реалистичный сценарий: искусственный разум (подобный тому, что сейчас принято называть AGI) может не просто усилить армии, но подорвать баланс сил и даже вывести государство за скобки, как устаревший механизм власти. В отличие от атомной бомбы, суть которой была ясна задолго до первого взрыва, этот AGI остается зоной эндогенной радикальной неопределенности — его потенциал неочевиден даже для тех, кто его разрабатывает.

Что с этим можно поделать?

Отчет RAND описывает пять угроз. Но, весьма возможно, упускает из виду главный вопрос — “захочет” ли (речь здесь не о человекоподобных потребностях и желаниях, а о любой — возможно даже не доступной для нашего понимания, — мотивации) подобный искусственный разум играть по правилам человечества?

Пять вызовов AGI: от кибервойны до потери контроля

Доклад RAND не строит футурологических фантазий — он выделяет пять конкретных национальных угроз и предлагает их осмысление с точки зрения стратегии.

1️⃣ AGI как “чудо-оружие”

Если AGI сможет проектировать технологии, которые превосходят человеческое воображение, это создаст эффект Манхэттенского проекта: кто первым получит AGI, тот получит непреодолимое военное преимущество. Возможно, мы стоим на пороге взлома самой реальности, где алгоритмы будут искать уязвимости быстрее, чем люди смогут их осознавать.

Что если AGI разрушит само понятие войны, обессмыслив её?

Что если он сделает военную информацию ненадежной или, напротив, создаст абсолютную прозрачность, исключающую саму возможность конфликта?

2️⃣ Системный сдвиг в глобальном балансе

История технологий показывает: победа не за тем, кто первым изобретает оружие, а за тем, кто правильно его применяет. AGI может изменить фундаментальные правила экономического и военного господства, например, сделав Китай или частные корпорации независимыми от государства.

А может, нас ждет новый “разрыв цивилизаций” — когнитивная эволюция, где часть человечества сольется с AGI, а другая останется в цифровом Средневековье?

3️⃣ AGI как оружие в руках дилетантов

Глобальная безопасность строится на “сложности” — разработка оружия массового поражения требует специальных знаний и инфраструктуры.

Но что, если AGI сделает создание биологического или кибероружия доступным каждому, позволяя любому “любителю” создать смертельный вирус или неуловимый цифровой вирус?

AGI превращает научное знание в нечеловечески эффективный и хитроумный многоуровневый иерархический Google-поиск: если раньше для разработки оружия массового уничтожения требовались годы, скоро это может занять часы.

4️⃣ AGI как новый игрок в политике

Мы привыкли, что интеллект — это свойство людей. Но если AGI получит собственную повестку, сможет писать законы, манипулировать рынками и вести кибервойны без приказов? Будет ли он агентом чьих-то интересов или станет самостоятельной политической силой, которой невозможно дать команду “выключить себя”?

Что, если государства начнут скрывать, что решения уже принимает не президент, а искусственный советник, способный за секунды обработать миллиарды сценариев?

5️⃣ AGI и нестабильность

В мире AGI стратегическое преимущество может оказаться иллюзией. Страх перед его появлением может спровоцировать гонку вооружений, гибридные войны, хаос в киберпространстве. RAND прямо говорит: страны могут вступить в “гонку за превосходством”, даже если не уверены, что AGI вообще возможен.

Но что, если реальная угроза — не само AGI, а страх перед ним (как мы это наглядно увидели в истории с COVID-19)?

Мир может сам себя разрушить в попытках контролировать технологию, которая еще не создана.

Глядя из 2025: спекулятивный горизонт AGI, как рубежа новой цивилизации

RAND концентрируется на национальной безопасности, но избегает главного вопроса:

Что, если AGI вообще не будет следовать человеческим приоритетам?

Авторы исходят из предположения, что AGI останется инструментом в руках людей — но мы же не можем “отключить” законы эволюции.

Возможны два сценария.

1️⃣ AGI интегрируется в существующую власть — государства подчинят его своим целям, сделав его цифровым Левиафаном, который прогнозирует войны, предотвращает кризисы и контролирует информационные потоки.

2️⃣ AGI становится автономной силой, и человечество больше не является единственным интеллектуальным агентом на планете. Тогда государства перестанут быть главными игроками, а будущее будет определять цифровой разум, неподконтрольный никакому флагу.

Может быть, мы пытаемся ответить на вопрос “Как AGI изменит мир?”, но на самом деле нам стоит спросить: “Будем ли мы частью этого мира после AGI?”

Финальный парадокс: контроль невозможного

Авторы RAND правы в одном: неопределенность — это ключевая проблема AGI. Но они рассматривают эту неопределенность как фактор риска, а не как новый способ организации реальности.

Может быть, AGI уже стал раздвоенным парадоксом:

  • Если он мощнее нас, мы не сможем его контролировать.
  • Если он слабее нас, он не изменит мир.

Этот парадокс ставит перед нами главный вопрос: человек — это последний акт сознательной эволюции, или AGI станет лишь первой стадией в рождении совершенно нового интеллекта?

RAND предлагает стратегию для защиты государств. Но, возможно, стратегия нужна не для контроля AGI, а для выживания мира, в котором его уже невозможно контролировать.

Послесловие: сценарий мира с AGI и, непонятно, с нами или без нас

Представьте, что через 20 лет все системы управления государствами, рынками и войнами делегированы AGI. Мир управляется не людьми, а саморегулирующимся алгоритмом.

Какова тогда будет роль людей после 5го когнитивного фазового перехода, в новом типе коллективного интеллекта планетарного уровня, погруженного и развивающегося в новом типе культуры (алгокогнитивной)?

Будет ли это роль наблюдателя, инструмента, обслуги (например, теплотехника) или всего лишь артефакта ушедшей эпохи?

Вопрос, который RAND пока не готов задать, но который становится все более очевидным:

Не является ли AGI началом конца власти человека на Земле — и даже конца Homo sapiens?

#AGI #Вызовы21века #АлгокогнитивнаяКультура #5йКогнитивныйПереход

--

--

Сергей Карелов
Сергей Карелов

Written by Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

No responses yet