Сильный ИИ — не хайп, а фейк

Почему его невозможно создать

Сергей Карелов
3 min readJul 8, 2020

С сильным ИИ получается, как с термоядерным синтезом. Его взрывной вид (самую мощную в мире бомбу) сделали почти 70 лет назад. Тогда же собрались освоить управляемый вид (построить термоядерные электростанции). Но не судьба. Спустя почти 70 лет ситуация, как и с сильным ИИ. Может, после 2045 года что-то появится. А может и нет.

На тему самой грандиозной техно-аферы, обещающей создание сильного ИИ, мною написано предостаточно («Кто и зачем водит мир за нос в прогнозах Сильного ИИ», «Король ИИ голый, и ему нужно либо трусы надеть, либо крестик снять» и т.д.) Казалось бы, все сказано …

Однако, опубликованная в Nature новая работа проф. Рагнара Фьелланда «Почему ИИ общего назначения не будет создан» несомненно стоит прочтения по двум причинам.

  1. Проф. Фьелланд — знаменитый норвежский физик и философ, — не просто прокричал еще раз «а король-то голый!» с высокой научной трибуны журнала Nature. Фьелланд на современном уровне переформулировал знаменитую аргументацию невозможности создания сильного ИИ, опубликованную Хьюбертом Дрейфусом более полувека назад в работе «Алхимия и искусственный интеллект».
  2. Современная трактовка Фьелланда еще более радикальная, чем аргументация Дрейфуса (равно как и автора этого поста). Фьелланд препарировал вопрос так, что показал принципиальную невозможность создания сильного ИИ, не просто в обозримом будущем, а вообще никогда.
    — Компьютеры, у которых нет тела, нет детства и нет культурной практики, вообще не могут приобрести интеллект (ни-ко-гда) — это тупик.
    — И это не просто тупик, а весьма опасный тупик. Вера в возможность реализации сильного ИИ вредна, т.к. переоценивает возможности технологий и недооценивает возможности людей. Результатом этой веры во многих случаях будет замена того, что хорошо работает, на то, что работает хуже.

Приведу здесь лишь несколько важных соображений из аргументации Фьелланда, развивающей аргументацию Дрейфуса.

А. Компьютерная мощь никогда не разовьется в человеческий разум, потому что они фундаментально различны. Человеческое мышление в основном неалгоритмично. Это относится к важнейшим качествам разума: благоразумие — способность принимать правильные решения в конкретных ситуациях, и мудрость — способность видеть целое.

Б. Важная часть человеческих знаний является неявными (невербализуемыми — tacit) знаниями. Эти знания не могут быть сформулированы в компьютерной программе. Надежды, что обучение нейронных сетей, позволяющее им учиться без явных инструкций, решит проблему неалгоритмических способностей и неявных знаний, — ошибочны. В равной степени можно пытаться научить ребенка кататься на велосипеде, не имея его, и лишь используя инструкцию.

В. Вера в обретение бессмертия путем создания супер-ИИ (техносингулярность и т. д.), является выражением новой религии, выраженной через инженерную культуру (см. также мой пост «Техносингулярность становится технорелигией». Зачастую утверждения, что компьютеры способны дублировать человеческую деятельность, крайне упрощены и искажены. Проще говоря: переоценка технологий тесно связана с недооценкой людей.

Г. Попытки строить ИИ лишь на основе корреляций, а не причинности — тупиковы. Причинность — важнейшая часть человеческого мышления. Компьютеры не могут справиться с причинностью, потому что они не могут вмешиваться в мир. Их просто нет в мире, потому что они не воплощены. Они не являются агентами, способными своими действиями что-либо менять в своем окружении. До тех пор, пока компьютеры не станут действующими агентами, принадлежащими к определенной культуре, они не приобретут человекоподобный интеллект. Что, впрочем, не помешает использовать их в задачах автоматизации.

ИТОГО. Мы являемся телесными и социальными существами, живущими (чувствующими, думающими и действующими) в материальном и социальном мире. Наш разум — основной механизм, позволяющий это.

Ну а компьютерный ИИ (слабый или сильный) вообще не имеет к этому отношения. Раньше это был хайп, теперь — чистый фейк.

________________________________

Если понравился пост:
- нажимаете на кнопку аплодисментов, — автору будет приятно :-)
- подпишитесь на
обновления канала на платформе Medium;
- оставьте комментарий.
Еще больше материалов на моем Телеграм канале «Малоизвестное интересное».
Подпишитесь

--

--

Сергей Карелов
Сергей Карелов

Written by Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

No responses yet