Иллюзия контроля ИИ

Принцип ПОУЧЕЛ — самообман из-за аксиомы МЫЛУ-МАЛУ

Сергей Карелов
3 min readApr 7, 2022

Tаков сухой остаток от чтения большого 70-ти страничного юридического анализа оснований и перспектив понижения рисков использования ИИ путем включения в контур принятия решений людей. А ведь на этом способе снижения ИИ рисков зиждутся все критические для жизни людей сферы применения ИИ: от самоуправляемых авто до полуавтономного оружия.

Как же так? Неужели эти надежды всего лишь иллюзия контроля?

Похоже, что так.

Иллюзией контроля названо весьма распространенное когнитивное искажение. Оно выражается в том, что люди верят, будто они каким-то образом могут влиять на события, которые объективно от них не зависят или зависят в гораздо меньшей степени. Обычно, эта иллюзия проявляется, когда человек заинтересован в положительном исходе события, в которое он вовлечён, или когда ему заранее известен благоприятный исход.

К сожалению, этому когнитивному искажению подвержены не только отдельные люди, но и общество. Наихудший же вариант, — когда ему подвержено все человечество. В этом случае цивилизационные и, возможно, даже экзистенциальные риски человечества резко возрастают.

Так сейчас происходит с возникшей у человечества иллюзией контроля ИИ, искажающей восприятие потенциальных рисков развития этого класса технологий.

В последние годы эта тема стала предметом широких обсуждений. Технари и философы, военные и чиновники, технооптимисты и алармисты пытаются найти хоть какой-то общий взгляд в своих весьма отличных представлениях о путях и способах развития технологий ИИ.

В итоге этих дискуссий вырисовались два основополагающих принципа, так или иначе признаваемые всеми сторонами:

  1. Принцип неостановимости — развитие технологий ИИ не остановить, и можно лишь пытаться понизить потенциальные риски путем законодательных ограничений.
  2. Принцип обязательного участия в принятии решения человека (ПОУЧЕЛ) — запрет на автономное принятие жизненно важных решений ИИ-системами без участия людей.

Сегодня ПОУЧЕЛ де-факто считается панацеей ото всех потенциальных рисков, обусловленных принятием ИИ ошибочных решений в критически важных ситуациях (соответствующие положения уже содержатся в законодательстве 40 штатов США).

Однако, тщательный и непредвзятый юридический анализ показывает следующее.

1. Все принятые законы базируются на весьма сомнительной аксиоме МЫЛУ-МАЛУ, предполагающей точное знание:

  • в каких случаях решения людей предпочтительней, чем решения машин (МЫ ЛУчше),
  • в каких случаях — наоборот, решения машин предпочтительней (МАшины ЛУчше).

2. Однако на практике, аксиома МЫЛУ-МАЛУ в большинстве случаев:

  • не имеет объективных критериев;
  • завязана на множество когнитивных искажений экспертов;
  • не учитывает, что принятие решений гибридной системой «человек + машина»
    (1) может следовать иной логике, чем отдельные решения людей и машин;
    (2) может быть несводимо в единый процесс из-за непреодолимого разрыва в скорости принятия решений людьми и машинами (тут возникают, как бы, две разные несводимые физики: макромира и микромира).

В дополнение к выводам авторов, могу лишь добавить следующее.

• Как вообще могло случиться, что технологический феномен экзистенциального уровня стал важнейшим драйвером развития цивилизации, не имея при этом даже четкого определения?

• Как можно было пойти на неограниченное использование технологического феномена с расплывчатым смыслом и спорной перспективой даже в таких задачах, от решения которых могут зависеть судьбы многих людей, вплоть до выживания человечества?

• Цивилизация, куда ж несешься ты, дай ответ? Не дает ответа.

________________________

Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях.

--

--

Сергей Карелов
Сергей Карелов

Written by Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

No responses yet