«Цель: Отключить его»

И это могут сделать лишь политики

Сергей Карелов
2 min readJun 18, 2024

MIRI (Исследовательский институт машинного интеллекта, занимающийся вопросами безопасности ИИ) четко и прямо сформулировал цель своей деятельности — «убедить крупные державы прекратить разработку систем фронтирного ИИ по всему миру, пока не стало слишком поздно» [1].

Опубликованный документ впервые переводит дискуссии о рисках для человечества на путях дальнейшего развития ИИ:

✔️ из разряда самоуверенных деклараций научно недоказуемых точек зрения и бесконечных непродуктивных дебатов вокруг них между сторонниками и противниками этих воззрений,

✔️ в прямую и ясную политическую позицию, суть которой такова:
— поскольку в любых оценках ИИ-рисков, не подкрепленных практически ничем, кроме мнений их авторов, довольно сложно быть уверенным,
— а верхняя граница таких рисков лежит в зоне экзистенциальных рисков для человечества,
— политикам стран — лидеров разработок фронтирного ИИ необходимо договориться о срочном создании международно признанной процедуры с функцией политического «рубильника», поворот которого гарантирует незамедлительную остановку разработок фронтирного ИИ, если политиками будет согласовано принято такое решение.

Такая политическая позиция признает невозможность (и ненужность) остановки фронтирного ИИ, способного принести миру огромную пользу.

Но вместе с тем, эта политическая позиция может предоставить человечеству шанс быстро остановить разработки при появлении обоснованных признаков того, что следующий шаг разработок может оказаться критическим.

Мое обсуждение предложенной политической позиции MIRI с коллегами, работающими в компаниях — лидерах разработок фронтирного ИИ, показало, что многие считают такую позицию обоснованной и своевременной. Некоторые из них уже написали об этом публично (например, Джек Кларк — соучредитель Anthropic, а ранее директор по политике внедрения в OpenAI [2]).

Однако, уязвимость такой политической позиции, имхо, в следующем.

Чтобы принять ее, необходимо доказать,

✔️что такой «рубильник» реально нужен хоть в каком-то обозримом будущем,

✔️ и что при его отсутствии риски для человечества могут стать запредельными.

И что самое важное, это доказательство должно быть не очередной недоказуемой точкой зрения, а опираться на проработанный научный анализ вопроса.

Пока же, к сожалению, такого анализа нет.

И сделать его на основе существующего корпуса знаний по вопросам оценки ИИ-рисков, путях и способах согласования ИИ-целей и прочим разделам исследований темы безопасного использования ИИ, — имхо, весьма затруднительно. В противном случае, это уже было бы сделано.

Но выход, на мой взгляд есть, если пойти иным доказательным путем.

· Если доказать, что гарантированное согласование целей ИИ и людей невозможно в принципе, то это, по сути, может стать обоснованием обязательности наличия «рубильника» фронтирных ИИ-разработок.

· И такое доказательство должно, на мой взгляд, опираться на существующий корпус знаний, наработанных в областях экзопсихологии и экзосоциологии.

Что я и планирую на днях сделать во 2й части лонгрида «Переосмысления контакта» [3]

#ИИриски #Хриски #Экзопсихология #Экзосоциология

1 https://intelligence.org/2024/05/29/miri-2024-communications-strategy/

2 https://importai.substack.com/p/import-ai-377-voice-cloning-is-here

3 https://t.me/theworldisnoteasy/1955

--

--

Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации