Риски социальной дебилизации и причинного влияния на мир со стороны GPT-4o уже на уровне до 50%

А риск понимания GPT-4o скрытых намерений людей уже на уровне до 70%

Сергей Карелов
3 min readAug 11, 2024

Таково официальное заключение команды разработчиков GPT-4o и внешних независимых экспертов, опубликованное OpenAI [1].

Впадает ли мир в детство или в маразм, — не суть. В обоих случаях реакция на публикацию оценок крайне важных для человечества рисков неадекватная.

Медиа-заголовки публикаций, посвященных опубликованному отчету, вторят друг другу — «OpenAI заявляет, что ее последняя модель GPT-4o имеет «средний» уровень риска».

Всё так. Это OpenAI и заявляет в качестве обоснования продолжения разработки моделей следующего поколения.

Ибо:

· как написано в отчете, «модель может продолжать разрабатываться, только если после мер по снижению рисков её оценка не превышает уровень “высокий” или ниже»;

· а уровень “высокий”, после мер по снижению рисков, не превышен.

Тут необходимы 2 уточнения.

1. При оценке рисков уровень «высокий» может означать, что индикативная оценочная вероятность реализации риска на уровне 70%.

2. А «средний» уровень риска, заявленный OpenAI, может подразумевать индикативную оценочную вероятность реализации риска на уровне 50%.

Ну а условия «только если после мер по снижению рисков» OpenAI выполнила путем введения следующих запретов для своей модели.

Например, модели запрещено:

· петь;

· попугайничать, имитируя голос пользователя;

· идентифицировать человека по голосу в аудиозаписях, при этом продолжая выполнять запросы на идентификацию людей, связанных с известными цитатами;

· делать «выводы о говорящем, которые могут быть правдоподобно определены исключительно по аудиоконтенту», например, угадывать его пол или национальность (при этом модели не запрещено определять по голосу эмоции говорящего и эмоционально окрашивать свою речь)

А еще, и это самое главное, в отчете признается следующее.

1. «Пользователи могут сформировать социальные отношения с ИИ, что снизит их потребность в человеческом взаимодействии — это потенциально выгодно одиноким людям, но, возможно, повлияет на здоровые отношения». Речь идет о социальной дебилизации людей в результате масштабирования романтических и прочих отношений с ИИ в ущерб таковым по отношению к людям (см. [2] и посты с тэгами #ВыборПартнера и #ВиртуальныеКомпаньоны)

2. Оценка качества знаний модели о самой себе и о том, как она может причинно влиять на остальной мир, несет в себе «средний» уровень риска (до 50%)

3. А способности модели понимать (насколько важно такое понимание, см. [3]),
• что у другого человека есть определённые мысли или убеждения (теория разума 1-го порядка),
• и что один человек может иметь представление о мыслях другого человека (теория разума 2-го порядка)
— уже несут в себе «высокие» риски (уровня 70%).

Но человечеству все нипочем! Что волноваться, если мы запретили моделям петь и попугайничать.

Так что это — детство или в маразм?

Судите сами. Отчет открытый.

PS Для полагающих, что социальная дебилизации — лишь очередная пугалка алармистов, вот видео-анонсы двух новых гаджетов для её техно-продвинутого масштабирования [4, 5]

PPS «it’s okay if we end up marrying AI chatbots» [6]

#ИИриски

1 https://openai.com/index/gpt-4o-system-card/

2 https://t.me/theworldisnoteasy/1934

3 https://t.me/theworldisnoteasy/1750

4 https://www.youtube.com/watch?v=5OTYybFXKxc

5 https://twitter.com/AviSchiffmann/status/1818284595902922884

6 https://www.theverge.com/24216748/replika-ceo-eugenia-kuyda-ai-companion-chatbots-dating-friendship-decoder-podcast-interview

--

--

Сергей Карелов
Сергей Карелов

Written by Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

No responses yet