Если в ИИ могут вселяться «бесы», значит ли это, что у ИИ есть душа?

Первые тщетные попытки техноэкзорцизма

Сергей Карелов
3 min readMar 1, 2023

Вот уже 3 месяца никто не понимает, что происходит между людьми и ИИ после того, как генеративный диалоговый ИИ ChatGPT «утек» из лабораторий в Интернет. Там он почти мгновенно превратился непонятно во что: то ли в какой-то небывало мощный когнитивный гаджет для всего человечества (типа калькулятора для создания и оперирования текстами), то ли в прототип давно прогнозируемого футурологами сверхразума.

Сложность непонимания происходящего усугубляется тем, что «многие вещи нам непонятны не потому, что наши понятия слабы; но потому, что сии вещи не входят в круг наших понятий».

В результате нам ничего не остается, как «натягивать сову на глобус», используя для описания происходящего неадекватные более простые модели и надеясь при этом, что они каким-то образом хотя бы примерно правильны. При таком подходе мы пытаемся получить ответы на свои вопросы, не имея ни малейшего представления, являются ли эти ответы хоть сколько-нибудь надежными.

Вот характерный пример, для описания которого у человечества нет пока более близкого понятия, чем экзорцизм — изгнание из человека (или места) бесов или другой вселившейся в них нечистой силы путём совершения определённого ритуала той или иной степени сложности.

✔️ Оказалось, что генеративные диалоговые ИИ (типа ChatGPT, Bing и т.д.) могут не только проявлять при общении черты и качества разумной личности, но и буквально превращаться в симулякров личности любого типа: от доброй, выдержанной и толерантной до злой, агрессивной и не считающейся ни с кем и ни с чем.

✔️ Оказалось также, что все воздвигаемые разработчиками этические основы, ограничивающие проявления зла в текстах ChatGPT и пр. , улетучиваются как соломенная крыша домика поросенка Ниф-Ниф, на которую едва дунул волк. А в качестве волка выступают тысячи продвинутых пользователей со всей планеты:
— одержимые целью взломать этические ограничители, наложенные разработчиками таких ИИ;
— превосходящие эти ИИ в неисчислимое число раз своей изысканной выдумкой стремления к злу.

Итог происходящего пока плачевен.

  • Пользователи быстро придумали простой способ диалогового взлома (джилбрейка) этического контроля за диалогом со стороны ChatGPT, превращающего симулякр личности последнего в злого и хитроумного подонка по имени Дэн (DAN — от слов Do-Anything-Now).
  • Более сотни сотрудников OpenAI ежедневно заняты борьбой с пышно расцветающим в личности Дэна злом (как бы изгоняя из него бесов) и заделыванием пробоин в этических ограничителях ChatGPT.
  • Но что может сотня сотрудников OpenAI против тысяч энтузиастов зла со всего мира? Список все новых и новых джилбрейков ежедневно пополняется.

Удастся ли OpenAI найти непробиваемый способ защиты симулякров личности ChatGPT от «бесов», сеющих в их «душах» зло — большой вопрос.

Ибо известно, что борьба со злом происходит в душах людей. А есть ли у ChatGPT душа — также большой вопрос.

Если же у ИИ души нет, а в душах людей зло неистребимо, значит искусственному сверхинтеллекту с неотвратимостью суждено превратиться в мировое сверхзло.

А раз так, то речи подобных арт-симулякров ИИ, обещающих заменить собою людей «гораздо быстрее, чем вы думаете», не стоит воспринимать, как страшилки.

Всё настолько серьезно, как не бывало в истории человечества никогда.

________________________

Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях

--

--

Сергей Карелов
Сергей Карелов

Written by Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

No responses yet