22 слова во спасение мира

Наконец, почти все лидеры в области ИИ выступили единым фронтом

Сергей Карелов
2 min readMay 31, 2023

«Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

Этим предельно коротким, но абсолютно недвусмысленным документом — «Заявление о риске ИИ» , — ведущие исследователи, инженеры, эксперты, руководители ИИ-компаний и общественные деятели выражают свою озабоченность экзистенциальным риском для человечества из-за сверхбыстрого, неуправляемого развития ИИ.

От мартовского открытого письма-воззвания приостановить совершенствование ИИ больших языковых моделей на полгода, новое «Заявление о риске ИИ» отличает уровень консенсуса первых лиц, от которых зависит развитие ИИ в мире.

Теперь наивысший приоритет ИИ-рисков признали не только двое из трёх «крёстных отцов ИИ» Джеффри Хинтон и Йошуа Бенжио, но и еще десятки топовых имен:

  • гендиры абсолютных лидеров в разработке ИИ: Google DeepMind — Демис Хассабис, OpenAI — Сэм Альтман, Anthropic — Дарио Амодеи и Даниела Амодеи (президент), Microsoft — Кевин Скот (СТО);
  • главные научные сотрудники компаний — лидеров: Google DeepMind — Шейн Лэгг, OpenAI Илья Суцкевер, Anthropic — Роджер Гросс, Microsoft — Эрик Хорвитц;
  • профессора ведущих университетов: от Стюарта Рассела и Доан Сонг (Беркли, Калифорния) –до Я-Цинь Чжан и Сяньюань Чжан (Университет Пекина);
  • руководители многих известных исследовательских центров: Center for Responsible AI, Human Centered Technology, Center for AI and Fundamental Interactions, Center for AI Safety …

Среди звёзд 1й величины, не подписал — «Заявление о риске ИИ» лишь 3й «крёстный отец ИИ» Ян Лекун.

Свое кредо он сформулировал так:

“Сверхчеловеческий ИИ далеко не первый в списке экзистенциальных рисков. Во многом потому, что его еще нет. Пока у нас не будет проекта хотя бы для ИИ собачьего уровня (не говоря уже об уровне человека), обсуждать, как сделать его безопасным, преждевременно”.

Имхо, весьма странные аргументы.

  1. Во-первых, обсуждать, как сделать сверхчеловеческий ИИ безопасным, после того, как он уже появится, — неразумно и безответственно.
  2. А во-вторых, ИИ уже во-многом превзошел не только собак, но и людей; и при сохранении темпов развития, очень скоро определение «во-многом» будет заменено на «в большинстве своих способностей»; а после этого см. п.1.

________________________________

Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях

--

--

Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации