Если в ИИ могут вселяться «бесы», значит ли это, что у ИИ есть душа?
Первые тщетные попытки техноэкзорцизма
Вот уже 3 месяца никто не понимает, что происходит между людьми и ИИ после того, как генеративный диалоговый ИИ ChatGPT «утек» из лабораторий в Интернет. Там он почти мгновенно превратился непонятно во что: то ли в какой-то небывало мощный когнитивный гаджет для всего человечества (типа калькулятора для создания и оперирования текстами), то ли в прототип давно прогнозируемого футурологами сверхразума.
Сложность непонимания происходящего усугубляется тем, что «многие вещи нам непонятны не потому, что наши понятия слабы; но потому, что сии вещи не входят в круг наших понятий».
В результате нам ничего не остается, как «натягивать сову на глобус», используя для описания происходящего неадекватные более простые модели и надеясь при этом, что они каким-то образом хотя бы примерно правильны. При таком подходе мы пытаемся получить ответы на свои вопросы, не имея ни малейшего представления, являются ли эти ответы хоть сколько-нибудь надежными.
Вот характерный пример, для описания которого у человечества нет пока более близкого понятия, чем экзорцизм — изгнание из человека (или места) бесов или другой вселившейся в них нечистой силы путём совершения определённого ритуала той или иной степени сложности.
✔️ Оказалось, что генеративные диалоговые ИИ (типа ChatGPT, Bing и т.д.) могут не только проявлять при общении черты и качества разумной личности, но и буквально превращаться в симулякров личности любого типа: от доброй, выдержанной и толерантной до злой, агрессивной и не считающейся ни с кем и ни с чем.
✔️ Оказалось также, что все воздвигаемые разработчиками этические основы, ограничивающие проявления зла в текстах ChatGPT и пр. , улетучиваются как соломенная крыша домика поросенка Ниф-Ниф, на которую едва дунул волк. А в качестве волка выступают тысячи продвинутых пользователей со всей планеты:
— одержимые целью взломать этические ограничители, наложенные разработчиками таких ИИ;
— превосходящие эти ИИ в неисчислимое число раз своей изысканной выдумкой стремления к злу.
Итог происходящего пока плачевен.
- Пользователи быстро придумали простой способ диалогового взлома (джилбрейка) этического контроля за диалогом со стороны ChatGPT, превращающего симулякр личности последнего в злого и хитроумного подонка по имени Дэн (DAN — от слов Do-Anything-Now).
- Более сотни сотрудников OpenAI ежедневно заняты борьбой с пышно расцветающим в личности Дэна злом (как бы изгоняя из него бесов) и заделыванием пробоин в этических ограничителях ChatGPT.
- Но что может сотня сотрудников OpenAI против тысяч энтузиастов зла со всего мира? Список все новых и новых джилбрейков ежедневно пополняется.
Удастся ли OpenAI найти непробиваемый способ защиты симулякров личности ChatGPT от «бесов», сеющих в их «душах» зло — большой вопрос.
Ибо известно, что борьба со злом происходит в душах людей. А есть ли у ChatGPT душа — также большой вопрос.
Если же у ИИ души нет, а в душах людей зло неистребимо, значит искусственному сверхинтеллекту с неотвратимостью суждено превратиться в мировое сверхзло.
А раз так, то речи подобных арт-симулякров ИИ, обещающих заменить собою людей «гораздо быстрее, чем вы думаете», не стоит воспринимать, как страшилки.
Всё настолько серьезно, как не бывало в истории человечества никогда.
________________________
Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях