Чем выше оценка OpenAI, тем ниже градус апокалипсиса
Эволюция страхов Сэма Альтмана
Сэм Альтман 10 лет назад так сказал на конференции Airbnb Open Air 2015 в интервью Майку Кёртису:
«ИИ, скорее всего, приведёт к концу света, но до тех пор появятся отличные компании».
И потом добавил, что:
«Если бы я был Бараком Обамой (тогдашним президентом США), то выделил бы около 100 миллиардов долларов на исследования безопасности ИИ».
Но ни Обама, ни сменившие его Трамп, Байден и снова Трамп не сделали ничего подобного.
Да и сам Альтман сосредоточился вовсе не на безопасности ИИ, а на второй части своего прогноза — создании «отличной компании».
Что и было сделано, — достаточно посмотреть на кривую роста оценки стоимости OpenAI за прошедшие 10 лет.
Но вот ведь что интересно — как за те же годы менялась риторика Альтмана о том, что его беспокоит при разработке все более мощных ИИ:
· от «Разработка сверхчеловеческого машинного интеллекта, вероятно, является величайшей угрозой для дальнейшего существования человечества» в 2015
· до «Больше всего я всегда беспокоюсь о неизвестных неизвестных […] это глупый пример, но он недавно поразил меня: у больших языковых моделей есть определённый стиль. Они говорят в определённом ритме, у них немного необычная дикция, и они злоупотребляют длинными тире. И я недавно заметил, что реальные люди это переняли» в 2025
Ссылки на источники высказываний см. под графиком в твите Харлана Стюарта
#AGI #ИИриски #Хриски
