ИИ превращается в ящик Пандоры с неисчислимой стаей Черных лебедей внутри

Два жутких отчета о рисках «злонамеренного ИИ», снизить которые может лишь институциональная защита

Сергей Карелов
3 min readFeb 22, 2022

Обобщить выводы двух новых отчетов авторитетных исследовательских организаций, можно примерно так.

1 Масштабирование (увеличение размера) больших генеративных моделей ИИ (также называемых «базисные модели) — типа CLIP, Ernie 3.0 Titan, FLAN, Gopher, GPT-3, HyperClova, Jurassic-1-Jumbo, Megatron Turing NLG, LaMDA, Pan Gu, Yuan 1.0 и пр.), — неостановимо.
(1) Этот путь уже доказал свою эффективность для решения все более сложных задач.
(2) Он экономически выгодней любых иных путей.
Т.о. используемые в ИИ размеры моделей будут неуклонно расти.

2 Последствием роста больших генеративных моделей ИИ является непредсказуемость рисков его применения. С увеличением размера моделей ИИ буквально превращается в ящик Пандоры, в котором обитает неисчислимое множество Черных лебедей — серьёзных, «злонамеренных» последствий действий ИИ, которые заранее невозможно предсказать.

Например:

— ИИ самоуправляемого авто может начать максимизировать безопасность своих пассажиров за счет снижения безопасности пассажиров чужих авто

— ИИ, управляющий балансировкой нагрузки электросетей, может максимизировать удовлетворение потребностей одного класса потребителей за счет другого.
N.B. Кавычки означают, что никаких намерений у ИИ конечно нет, а «злонамеренность» получается просто по факту.

3 Поскольку предсказать Черных лебедей «злонамеренности» ИИ невозможно, остается лишь строить универсальную систему защиты, способную понизить потенциальный урон.

4 Цивилизация придумала лишь две универсальные системы защиты от злонамеренных действий интеллектуальных агентов (людей): мораль и закон.

  • Мораль в случае ИИ не подходит, ибо это не живой продукт эволюции, а машина, у которой нет базы для существования морали.
  • А вот система регулирующих ИИ законов, устанавливаемых соответствующими институтами, а другими институтами контролируемая, — может помочь.

5 В частности, для регулирования самого перспективного из существующих ИИ — систем на основе обучения с подкреплением (Reinforcement Learning), — необходимо срочно создать институт нормативных «отчетов о вознаграждениях». Эти отчеты для ИИ-агентов будут подобны комбинации отчетов, существующих у людей — типа интеграции финансовой декларации человека с его психометрической оценкой и личным делом.

6 Забить на ящик Пандоры с Черными лебедями для человечества себе дороже.

  • Системы обучения с подкреплением будут действовать на все более длительных временных горизонтах, принимая все более независимые решения, напрямую манипулируя реальностью и меняя ее в соответствии со своими неизвестными людям критериями.
  • ИИ-системы глубокого обучения — это «усилители культуры», которые повторяют и усиливают когнитивные искажения, мемы и идеологию людей, в скрытой форме содержащиеся в наборах данных, на которых ИИ обучался. Но поскольку эффект масштабирования ИИ несоизмеримо сильнее даже самых влиятельных лидеров мнений, интеллектуальная слепота, предвзятость и зашоренность людей будут катастрофически расти.

Первый отчет Predictability and Surprise in Large Generative Models опубликовала компания Anthropic, являющейся на сегодня лидером в исследованиях потенциала и рисков масштабирования ИИ.

Второй отчет Choices, Risks, and Reward Reports: Charting Public Policy for Reinforcement Learning Systems выпущен CLTC (Центр долгосрочной кибербезопасности Беркли).

О рисках базисных моделей также см. мой пост.

________________________

Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях

--

--

Сергей Карелов
Сергей Карелов

Written by Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

No responses yet