Риск гибели 1 миллиарда человек примерно, как в русской рулетке

А шансы всего человечества дожить до 2100 меньше, чем у больного раком простаты прожить еще пять лет

Сергей Карелов
5 min readJul 14, 2023
Коллаж

Oпубликован «Forecasting Existential Risks: Evidence from a Long-Run Forecasting Tournament» — 1й отчет Forecasting Research Institute о результатах оценки экзистенциальных рисков человечества. Это отчет интересного и важного проекта, впервые в истории проведенного по инновационной методике.

Её автор — знаменитый (и я бы сказал, легендарный) профессор психологии и политологии Филип Тетлок, спектр слушателей мастер-классов которого впечатляет: от лауреатов Нобелевской премии и высших чинов разведки США до высшего менеджмента компаний класса Google и Microsoft).

Профессор психологии и политологии Филип Тетлок

Специализация Тетлока — предсказание будущего нетрадиционными методами на основе передовых информационных технологий (краудсорсинг, рынки предсказаний, интеграция коллективного интеллекта людей и алгоритмов и т.д.)

Моим постоянным читателям, полагаю, известно, что это также одна из моих специализаций. И я подробно писал об этой теме в шести-серийном посто-сериале «ЦРУ создает кентавров для предсказания будущего». Поэтому я не буду здесь описывать детали методики Тетлока (желающие прочтут это в лонгридах посто-сериала), а сфокусируюсь на главном:

  • почему и зачем
  • что и как было сделано
  • каков результат

Почему и зачем

Для все большего числа людей становится очевидным, что в 21 веке колоссальная мощь новых технологий становится также и фактором высочайших рисков, вплоть до экзистенциальных.

Что с этим делать, пока не ясно. Ибо по вопросам оценки всех потенциальных экзистенциальных рисков среди профильных экспертов нет даже подобия консенсуса.

  • Одни эксперты убеждены, что «все будет хорошо», и риски со временем удастся взять под контроль и минимизировать.
  • Другие — что «все будет плохо», ибо риски непреодолимы, и человечество ждет либо катастрофа, либо жуткое, антиутопическое будущее.
  • Третьи — что «всё это пустяки», риски преувеличены думерами и паникерами (подробней, применительно к рискам ИИ, см. мой пост «Фиаско 2023»)

И что делать с этой разноголосицей экспертов? Ведь речь идет о жизни миллионов, а то и вымирании всего человечества. Очевидно, нужно искать другие пути решения вопроса анализа и оценки рисков.

«Почему мы довольствуемся глупыми спорами? Почему мы не организуем дебаты с высокими ставками, чтобы стимулировать конструктивное участие? И почему мы не инвестируем в новые методы, чтобы сделать наши разговоры о рисках умнее и быстрее?» — призвал Тетлок.

И предложил новый метод решения задач анализа и оценки рисков — проведение The Existential Risk Persuasion Tournament (XPT) — Турнира по переубеждению оппонентов в вопросах экзистенциальных рисков.

Что и как было сделано

Были рассмотрены 5 типов экзистенциальных рисков (Х-риски): ядерные, ИИ, природная пандемия, пандемия сконструированного вируса, природная катастрофа.

В основе XPT два принципиальных момента.

  1. Поскольку профильные эксперты не могут договориться, к обсуждению также привлекаются другие категории экспертов:
    — из смежных областей,
    — специалистов по оценке рисков
    — суперпрогнозистов (лучших игроков на рынках предсказаний, выигравших за последние 2 года больше всех на своих точных предсказаниях).
  2. Цель участников — не только анализ и оценка Х-рисков, но и переубеждение оппонентов путем объяснения им своих оценок (за каждое переубеждение участники дополнительно мотивируются), продолжая этот процесс итеративно в разных комбинациях групп участников.

Участниками XPT стали 89 суперпрогнозистов и 80 экспертов (профильных, смежных и спецов по рискам, среди которых были примерно одинаковы представлены «обеспокоенные» риском и «скептики».

Участники работали самостоятельно и в командах, прорабатывая прогнозы по 59 вопросам, главными из которых были 2 вопроса по каждому из 4 типов Х-рисков:

✔️ Оцените шансы того, что конкретный Х-риск до 2100 года приведет к “катастрофе”, в следствии которой население планеты сократится за 5 лет на 10%.

✔️ Оцените шансы того, что конкретный Х-риск до 2100 года приведет к полному вымиранию человечества.

Каков результат

Результатов и «информации к размышлению» очень много (в отчете 751 стр).

Источник: «Forecasting Existential Risks: Evidence from a Long-Run Forecasting Tournament»
Источник: «Forecasting Existential Risks: Evidence from a Long-Run Forecasting Tournament»

Вот лишь самое важное (мой выбор).

  1. Шансы «катастрофы» (здесь и далее медианные оценки) оценили:
    — суперпрогнозисты 9%
    — эксперты 25%
    — «общественное мнение» (опрос студентов универов США) 12%
    — среднее по трем оценкам 15%
  2. Шансы вымирания оценивают:
    — суперпрогнозисты 1%
    — эксперты 6%
    — «общественное мнение» 5%
    — среднее по трем оценкам 4%
  3. Все оценивают ИИ-риски, как наивысшие среди Х-рисков.
    Например, экспертные оценки «катастрофы» вследствие
    — ИИ-рисков 12%
    — ядерных рисков 8%
    — рисков пандемии сконструированного вируса 3%
    — рисков природной пандемии 1%
    — рисков природной катастрофы 0.1%
  4. Оценки «катастрофы» и вымирания вследствие ИИ-рисков
    — суперпрогнозисты 2%, 0.4%
    — эксперты 9%, 3%
    — «общественное мнение» 5%, 2%
    — среднее по трем оценкам 5%, 1.8%
  5. Суперпрогнозисты оценивают все риски существенно ниже, чем эксперты и общественность
  6. Почти никто в своей оценке убедить других не смог.
  7. Расхождение оценок «обеспокоенных» и «скептиков» имеет четко выраженный паттерн
    — минимальные расхождения оценок на коротком горизонте до 2030
    — нарастающие до радикальных расхождения оценок на долгосрочном горизонте до 2100
Источник: https://www.vox.com/future-perfect/23785731/human-extinction-forecasting-superforecasters

И, наверное, самое главное по части результатов — своего рода метавыводы.

✔️ Различие оценок «обеспокоенных» и «скептиков» носит не научно-технический, а философско-мировоззренческий характер. В силу этого их оценки лежат в разных смысловых плоскостях, и никто никого не переубедит.

✔️ Пытаться понять, чьи оценки — экспертов, суперпрогнозистов (а может, и общественности), — точнее, можно будет лишь после 2030, когда станет известно, кто из них точнее предсказал будущее на коротком горизонте (при условии, что качество предсказаний на коротком и длинном горизонте совпадут — что не факт).

✔️ Проект XPT показал, что как не оценивай Х-риски, они достаточно высоки. И потому относиться к ним несерьезно лишь из-за скептического отношения части экспертов, крайне опасно для человечества просто из соображений рациональности.
Иными словами, — перечитайте мой “Аппокалипсис от Адама”.

Приложения

Мой посто-сериал «ЦРУ создает кентавров для предсказания будущего»

Пост №1 — “Мистер Q и футбол

Пост №2 “Проект «Карта будущего»”

Пост №3 “Предсказания становятся приоритетом

Пост №4 “Топор под компасом американской разведки

Пост №5 “Третий артефакт. Децентрализованные рынки предсказаний, как фактор эволюции»”

Пост №6 “ЦРУ ищет 3й путь к интеллекту: это не формальная логика и не машинное обучение

Cвоего рода послесловие к посто-сериалу “Альтернативность будущего не означает его непредсказуемость. Новый подход — краудмониторинг сценариев будущего

________________________________

Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях

--

--

Сергей Карелов
Сергей Карелов

Written by Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

No responses yet