Иллюзия контроля ИИ
Принцип ПОУЧЕЛ — самообман из-за аксиомы МЫЛУ-МАЛУ
Tаков сухой остаток от чтения большого 70-ти страничного юридического анализа оснований и перспектив понижения рисков использования ИИ путем включения в контур принятия решений людей. А ведь на этом способе снижения ИИ рисков зиждутся все критические для жизни людей сферы применения ИИ: от самоуправляемых авто до полуавтономного оружия.
Как же так? Неужели эти надежды всего лишь иллюзия контроля?
Похоже, что так.
Иллюзией контроля названо весьма распространенное когнитивное искажение. Оно выражается в том, что люди верят, будто они каким-то образом могут влиять на события, которые объективно от них не зависят или зависят в гораздо меньшей степени. Обычно, эта иллюзия проявляется, когда человек заинтересован в положительном исходе события, в которое он вовлечён, или когда ему заранее известен благоприятный исход.
К сожалению, этому когнитивному искажению подвержены не только отдельные люди, но и общество. Наихудший же вариант, — когда ему подвержено все человечество. В этом случае цивилизационные и, возможно, даже экзистенциальные риски человечества резко возрастают.
Так сейчас происходит с возникшей у человечества иллюзией контроля ИИ, искажающей восприятие потенциальных рисков развития этого класса технологий.
В последние годы эта тема стала предметом широких обсуждений. Технари и философы, военные и чиновники, технооптимисты и алармисты пытаются найти хоть какой-то общий взгляд в своих весьма отличных представлениях о путях и способах развития технологий ИИ.
В итоге этих дискуссий вырисовались два основополагающих принципа, так или иначе признаваемые всеми сторонами:
- Принцип неостановимости — развитие технологий ИИ не остановить, и можно лишь пытаться понизить потенциальные риски путем законодательных ограничений.
- Принцип обязательного участия в принятии решения человека (ПОУЧЕЛ) — запрет на автономное принятие жизненно важных решений ИИ-системами без участия людей.
Сегодня ПОУЧЕЛ де-факто считается панацеей ото всех потенциальных рисков, обусловленных принятием ИИ ошибочных решений в критически важных ситуациях (соответствующие положения уже содержатся в законодательстве 40 штатов США).
Однако, тщательный и непредвзятый юридический анализ показывает следующее.
1. Все принятые законы базируются на весьма сомнительной аксиоме МЫЛУ-МАЛУ, предполагающей точное знание:
- в каких случаях решения людей предпочтительней, чем решения машин (МЫ ЛУчше),
- в каких случаях — наоборот, решения машин предпочтительней (МАшины ЛУчше).
2. Однако на практике, аксиома МЫЛУ-МАЛУ в большинстве случаев:
- не имеет объективных критериев;
- завязана на множество когнитивных искажений экспертов;
- не учитывает, что принятие решений гибридной системой «человек + машина»
(1) может следовать иной логике, чем отдельные решения людей и машин;
(2) может быть несводимо в единый процесс из-за непреодолимого разрыва в скорости принятия решений людьми и машинами (тут возникают, как бы, две разные несводимые физики: макромира и микромира).
В дополнение к выводам авторов, могу лишь добавить следующее.
• Как вообще могло случиться, что технологический феномен экзистенциального уровня стал важнейшим драйвером развития цивилизации, не имея при этом даже четкого определения?
• Как можно было пойти на неограниченное использование технологического феномена с расплывчатым смыслом и спорной перспективой даже в таких задачах, от решения которых могут зависеть судьбы многих людей, вплоть до выживания человечества?
• Цивилизация, куда ж несешься ты, дай ответ? Не дает ответа.
________________________
Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях.