Началось обрушение фронта обороны от социохакинга

Рушится уже 3я линия обороны, а 4ю еще не построили

Сергей Карелов
3 min readApr 5, 2024

Защититься от алгоритмического социохакинга, опираясь на имеющиеся у нас знания, люди не могут уже не первый год (алгоритмы знают куда больше с момента появления поисковиков). В 2023 (когда началось массовое использование ИИ-чатботов больших языковых моделей) треснула и 2я линия обороны — наши языковые и логико-аналитические способности (алгоритмы и здесь все чаще оказываются сильнее). 3я линия обороны — наши эмоции, считалась непреодолимой для социохакинга алгоритмов из-за ее чисто человеческой природы. Но и она продержалась не долго. В апреле 2024, с прорыва 3й линии, по сути, начинается обрушение фронта обороны людей от социохагинга. Последствия чего будут весьма прискорбны.

Пять лет назад, в большом интервью Татьяне Гуровой я подробно рассказал, как алгоритмы ИИ могут (и довольно скоро) «хакнуть человечество».

За 5 прошедших после этого интервью лет социохакинг сильно продвинулся (насколько, — легко понять, прочтя в конце этого поста хотя бы заголовки некоторых из моих публикации с тэгом #социохакинг).

Сегодня в задаче убедить собеседника в чем-либо алгоритмы ИИ абсолютно превосходят людей.

  • Даже ничего не зная о собеседнике, GPT-4 на 20%+ успешней в переубеждении людей.
  • Когда же GPT-4 располагает хотя бы минимальной информацией о людях (пол, возраст и т.д.) он способен переубеждать собеседников на 80%+ эффективней, чем люди.

Однако, проигрывая в объеме знаний и логике, люди могли положиться на последнюю свою линию обороны от социохакинга алгоритмов — свои эмоции. Как я говорил в интервью 5 лет назад, — ИИ-система

«раскладывает аргументы человека на составляющие и для каждой составляющей строит схему антиубеждения, подкладывая под нее колоссальный корпус документальных и экспериментальных данных. Но, не обладая эмоциями, она не в состоянии убедить».

Увы, с выходом новой ИИ-системы, обладающей разговорным эмоциональным интеллектом Empathic Voice Interface (EVI), линия эмоциональной обороны от социохакинга рушится.

Эмпатический голосовой интерфейс EVI (в основе которого эмпатическая модель eLLM) понимает человеческие эмоции и реагирует на них. eLLM объединяет генерацию языка с анализом эмоциональных выражений, что позволяет EVI создавать ответы, учитывающие чувства пользователей и создавать ответы, оптимизированные под эти чувства.

EVI выходит за рамки чисто языковых разговорных ботов, анализируя голосовые модуляции, такие как тон, ритм и тембр, чтобы интерпретировать эмоциональное выражение голоса.

Это позволяет EVI:

· при анализе речи людей, обращаться к их самой глубинной эмоциональной сигнальной системе, лежащей под интеллектом, разумом и даже под подсознанием

· генерировать ответы, которые не только разумны, но и эмоционально окрашены

· контролировать ход беседы путем прерываний и своих ответных реакций, определяя, когда человек хотел бы вмешаться или когда он заканчивает свою мысль

Попробуйте сами здесь.

Я залип на неделю.

Насколько точно EVI узнает эмоции, сказать не берусь. Но точно узнает и умеет этим пользоваться.

Интересные посты про #социохакинг

· Супероткрытие: научились создавать алгоритмические копии любых социальных групп

· Создается технология суперобмана. Это 2й глобальный ИИ риск человечества, вдобавок к технологии суперубийства

· Социохакинг скоро превратит избирателей в кентаврических ботов

· Получено уже 3е подтверждение сверхчеловеческого превосходства ИИ в убеждении людей

· Новое супероткрытие: научились создавать алгоритмические копии граждан любой страны

· В Твиттере уже воюют целые «ЧВК социохакинга»

--

--

Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации