Экспериментально продемонстрирован непреодолимый предел для ИИ в имитации разума людей
ИИ в принципе не способен мыслить из-за своей зомбиподобной природы
Полгода назад я написал важный пост, что ИИ близок к пределу имитации разума людей. Ибо даже обнаруженная у ИИ способность воображать бессмыслицу ничуть не продвигает интеллект машин к способности мыслить. Ведь мыслить — значит самостоятельно извлекать смыслы из конструкций некоего языка (понимать их) и действовать на основании этого понимания.
Но как (и можно ли вообще) доказать неспособность ИИ понимать смысл?
Известный американский ученый в области когнитивных наук , физики и сравнительной литературы (доктор, профессор и т.д.) Дуглас Хофштадтер сумел доказать это оригинальным экспериментом, который каждый может повторить и оценить его убедительность.
Логика эксперимента такова.
1. Мышление и язык неразрывны.
2. Уникальность человека в его умении создавать новые языки для передачи существующих и новых смыслов.
3. Человек однозначно определяет наличие осмысленности (наличия смыслов) в любых конструкциях языка.
4. Следствием п.3 является способность людей извлекать смысл (и вкладывать смысл) в любые вновь изобретенные языковые конструкции.
5. Если же у ИИ нет такой способности, то он будет оперировать языковыми конструкциями, опираясь лишь на статистику их сочетаний в корпусе данных, использованном для обучения ИИ.
6. Из п. 5 следует зомбиподобная структура интеллекта ИИ, не позволяющего ему самостоятельно мыслить.
Экспериментальное доказательство принципиальной неспособности ИИ наделять смыслом конструкции языка (и детектировать в них его наличие) Хофштадтер построил на примерах введения в язык несуществующих слов, подчиняющихся, тем не менее, всем законам языка (типа Бармаглота из «Алисы в Зазеркалье» или «Глокой куздры» из «Слово о словах» (кто не помнит, погуглите).
Хофштадтер придумал ряд фраз на языке, сильно похожем на шведский. В этом фальшиво-шведском языке, шведскими были лишь нескольких местоимений, союзов (и, или), артиклей и несколько других очень распространенных коротких слов. Все существительные, глаголы, прилагательные и наречия были вымышленными.
Вот пример такой тарабарщины:
«och sen med de inluppta trämplissorna blybbade det otvickligt».
Человек (мыслящий и потому понимающий смысл «Глокой куздры) перевел бы это, например, как «а затем, с зацикленными трамплизами, он неуклюже забулькал».
Тогда как не способные мыслить (наделять смыслом) алгоритмы перевода определили язык шведским и дали такие переводы:
- Google: «а затем, с брошенными щепками, он остался нетронутым»
- DeepL: «а потом с барабанами это было некомфортно»
- Baidu: «а потом с набитыми деревянными связками это конечно смутило»
От себя добавлю переводчик Яндекса: «а затем, с добавлением деревянных планок, он неумолимо покраснел». И кстати, замечу, что перевод Яндексом этой фразы, пожалуй, ближе всего приближается к человеческому.
Но стоит сделать фразу подлиннее, как все 4 автоматические переводчики демонстрируют абсолютную неприспособленность к наделению языковых конструкций хоть каким-то подобием (убогим, кривым, но хоть каким-то) наделения фраз смыслом (подробней см. в эссе Хофштадтера «Безмозглая тарабарщина»).
Т.е. научиться наделению и извлечению смысла в результате машинного обучения современные ИИ-системы не могут.
Мне же остается лишь в заключение подчеркнуть:
✔️ Хотя язык может играть центральную организующую роль в процессах познания людей, лингвистической компетенции недостаточно для обретения здравого смысла: мышления и понимания.
✔️ Аналогичный вывод справедлив для всех иных способностей распознавания паттернов (зрительных, звуковых и т.д.). Прогнозирование очередного элемента (фразы, образа и т.д.) имеет нулевую ценность для понимания и порождения новых осмысленных элементов на основе предыдущих.
________________________
Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях