Sitemap

Чем выше оценка OpenAI, тем ниже градус апокалипсиса

2 min readSep 24, 2025

Эволюция страхов Сэма Альтмана

Press enter or click to view image in full size

Сэм Альтман 10 лет назад так сказал на конференции Airbnb Open Air 2015 в интервью Майку Кёртису:

«ИИ, скорее всего, приведёт к концу света, но до тех пор появятся отличные компании».

И потом добавил, что:

«Если бы я был Бараком Обамой (тогдашним президентом США), то выделил бы около 100 миллиардов долларов на исследования безопасности ИИ».

Но ни Обама, ни сменившие его Трамп, Байден и снова Трамп не сделали ничего подобного.

Да и сам Альтман сосредоточился вовсе не на безопасности ИИ, а на второй части своего прогноза — создании «отличной компании».

Что и было сделано, — достаточно посмотреть на кривую роста оценки стоимости OpenAI за прошедшие 10 лет.

Но вот ведь что интересно — как за те же годы менялась риторика Альтмана о том, что его беспокоит при разработке все более мощных ИИ:

· от «Разработка сверхчеловеческого машинного интеллекта, вероятно, является величайшей угрозой для дальнейшего существования человечества» в 2015

· до «Больше всего я всегда беспокоюсь о неизвестных неизвестных […] это глупый пример, но он недавно поразил меня: у больших языковых моделей есть определённый стиль. Они говорят в определённом ритме, у них немного необычная дикция, и они злоупотребляют длинными тире. И я недавно заметил, что реальные люди это переняли» в 2025

Ссылки на источники высказываний см. под графиком в твите Харлана Стюарта

#AGI #ИИриски #Хриски

--

--

Сергей Карелов
Сергей Карелов

Written by Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

No responses yet