Кто и зачем водит мир за нос в прогнозах Сильного ИИ

Сергей Карелов
6 min readJul 18, 2019

--

Обложка книги Хьюберта Дрейфуса What computers stil can’t do: A critique of artificial reason

Основанный на глубоком обучении современный мейнстримный ИИ не способен решить задачу создания сильного ИИ (интеллект машины, способный понять или освоить любую интеллектуальную задачу, которую может выполнить человек).

Т.е. избранный человечеством магистральный путь не ведет к созданию искусственного аналога интеллекта людей

(хотя изначальная цель этого научно-технологического направления, как и само его название — «Искусственный интеллект», — были именно таковыми).

Получается очень странная ситуация.

Как будто, желая попасть в Архангельск, мы сели в поезд «Москва — Архангельск». Едем на нем вот уже 12 часов, а поезд тем временем идет в Сыктывкар. Но мы из-за этого не паримся, поскольку нам говорят, что от Сыктывкара до Архангельска чуть ближе чем от Москвы. Да и что поделаешь? Ведь уже едем. Не возвращаться же обратно. Да и за билет деньги не вернут.

Но если ситуация с сильным ИИ столь же идиотична, так почему же мы хотя бы не признаем этого?

Почему, доедая взятые в дорогу бутерброды, мы продолжаем убеждать себя и соседей по купе, что все ОК, и нам осталось ехать то ли 6, то ли 8 часов?

В чем причина идиотизма такой ситуации?

Предыстория вопроса

Опубликовав «The AI Timelines Scam» (Лохотрон прогнозов ИИ), Джесика Тейлор мужественно воткнула палку в муравейник мейнстримного ИИ и провернула ее там аж три раза.

Теперь мейнстрим науки и бизнеса вокруг ИИ может отреагировать двояко.

  1. Либо гордо не заметить смелый и умный поступок Джесики, начав ее сторониться, как чумной.
  2. Либо объявить позицию Джесики «неконструктивной критикой» непрофессионала, не способного что-либо предложить и потому зарабатывающего очки на охаивании мейнстрима ИИ.

И то, и другое уже бывало в истории ИИ.

Первый тип реакции мейнстрима науки и бизнеса вокруг ИИ наблюдался еще в 1965 году, когда Хьюберт Дрейфус опубликовал под эгидой RAND Corporation свою знаменитую работу «Алхимия и искусственный интеллект». В ней он (более полувека назад!) в деталях объяснил, почему создание сильного ИИ на основе существующей архитектуры компьютеров невозможно.

Профессор Хьюберт Дрейфус

С тех пор и до конца жизни в 2017 он так и оставался парией в мире мейнстримного ИИ. Его коллеги — преподаватели MIT даже не садились с ним за один стол в университетской столовой. А поскольку Дрейфус упорствовал (в 1972 опубликовал книгу «Чего не могут компьютеры», а в 1992 ее обновление «Чего до сих пор не могут компьютеры»), он так и остался в памяти немногих (большинство же сегодня вообще о нем не помнят) «чокнутым луддитом ИИ».

Книга Хьюберта Дрейфуса «Чего не могут компьютеры»

И это при том, что Дрейфус вовсе не считал создание сильного ИИ невозможным. Он всего лишь, одним из первых, понял, что

для создания интеллекта, схожего с человеческим, необходимо, чтобы устройство (интеллектуальный агент) имело более или менее схожее с человеком тело и социальную адаптацию.

Иными словами (как я писал не далее чем позавчера), такой интеллект должен быть воплощенным и эусоциально-коллективным.

Такая реакция мейнстрима ИИ против раскольников, посмевших пойти против него — изгнать, дискредитировать, наказать — случается и сегодня. Хотя по мере роста политкорректности всюду и во всем, все чаще стал встречаться второй тип реакции на ИИ раскольников.

Наглядный пример второго типа реакции — отношение мейнстрима ИИ к работам Гари Маркуса, сформулировавшего «Глубочайшую проблему глубокого обучения».

  • Глубокое обучение — прекрасный инструмент для решения ограниченного круга задач и, особенно для задач перцептивной классификации. Но это не панацея, а всего лишь один из элементов сложного ансамбля разнообразных техник, необходимых для создания сильного ИИ.
  • Помимо глубокого обучения, для создания сильного ИИ, как минимум, необходимы:
    — техника представления причинно-следственных связей,
    — техника описания абстрактных идей,
    — техника выполнения логических выводов,
    — техника извлечения абстрактных знаний.

Ответ мейнстрима ИИ на эти соображения Гари Маркуса, наиболее лаконично и хлестко сформулировал профессор Захари Липтон:

  1. Прокричать что-то громче всех — не значит, сказать это первым. А то мы не знали, что глубокое обучение не способно рассуждать.
  2. Сказать, что X не решает Y, — легко. Но где ваше решение Y?

Первый ответ — по сути, признание того, что Маркус прав.

Второй — получился в стиле «а еще шляпу надел», поскольку и ежу ясно, что справедливость критики способа решения Х никак не зависит от наличия у критикующего альтернативных предложений по решению.

Ну а теперь о том, что же, собственно, написала Джесика Тейлор.

Лохотрон прогнозов ИИ

Подобно мальчику, прокричавшему «а король-то голый!», Джесика, отбросив политкорректность, написала следующее.

A) Мир просто водят за нос, прогнозируя создание сильного ИИ в ближайшие 20 лет.

B) Делается это потому, что более близкие прогнозы создания сильного ИИ:

— генерируют больше финансирования науке и бизнесу;

— позволяют политикам стращать общество возможностью «отстать в ИИ гонке», что рождает новые бюджеты и их новые распилы;

— лучше привлекают внимание читателей во всех медиа.

Источник: https://twitter.com/psych_of_tech/status/1106302905555042305

Большая панама

Ситуация напоминает историю японского проекта «Компьютеров 5го поколения», начатого в 1982 году и обещавшего создание ИИ с помощью массивно-параллельного логического программирования. Через 10 лет, потратив, примерно, $1 млрд. (в сегодняшних деньгах), авторы проекта признали, что погорячились.

Но сегодня очередная панама со скорым появлением сильного ИИ вышла далеко за пределы одной страны, и на кону куда большие суммы. Десятки крупнейших и крутейших компаний мира куют железо, не отходя от кассы, постоянно подпитывая мир все более впечатляющими перспективами выхода на уровень сильного ИИ. Китай и США, ЕС и Россия, ввязываются в ИИ-гонку, в которой создание сильного ИИ видится одним из главных козырей.

Но все эти рассказы про “сильный ИИ вот-вот за углом” — одна большая панама.

И жалко вовсе не то, что это панама. Бизнес и политики, каждый по-своему, заработают на этой панаме будь здоров сколько.

Жалко, что время уходит. Ведь между предыдущей попыткой японцев и нынешними «олимпийскими ИИ играми» без малого 40 лет. А эффект будет тот же.

В заключение хочу поддержать Джесику по следующим пунктам.

Как и она, я считаю:

  1. что глубокое обучение является огромным научно-технологическим достижением;
  2. что глубокое обучение во многом изменит мир в ближайшие 20 лет (но это будет сделано посредством широкого распространения обычного (узкого — специализированного) ИИ);
  3. что в долгосрочной перспективе возможность появления сильного ИИ может стать важнейшим событием в истории человечества;
  4. что никто не может категорически утверждать абсолютную невозможность создания сильного ИИ в ближайшие 20 лет;
  5. что чисто теоретически, нельзя исключать наличие у некоторых исследователей ИИ некой секретной информации, указывающей, что сильный ИИ может появиться в ближайшие 20 лет (это очень маловероятно, но все же возможно);
  6. что пп. 5 и 6 крайне маловероятны, и многие представители мейнстрима ИИ в душе это признают, но помалкивают об этом.

Так что же получается — представители мейнстрима ИИ почти поголовно сознательно лгут?

Они просто мошенники?
(в логике утверждения Нассима Талеба: «Если вы видите мошенничество и не говорите, что это мошенничество, то вы — мошенник»)

Увы, все не так просто. Как тонко подметил Скотт Александр в своем посте «Против инфляции лжи», понятия ложь и мошенничество в научных дискуссиях становятся все менее применимы. И поэтому, возможно, нам следует применять слово «ложь» только к особенно вопиющим предубеждениям и мотивированным рассуждениям.

Может и так. Однако цена интеллектуальной слепоты всего человечества, вследствие мотивированных рассуждений бенефициаров маршрута в Архангельск через Сыктывкар (к сильному ИИ — через глубокое обучение), видится мне чрезмерной.

________________________________

Если понравился пост:
- нажмите на “палец вверх”;
- подпишитесь на
обновления канала на платформе Medium;
- оставьте комментарий.
Еще больше материалов на моем Телеграм канале «Малоизвестное интересное».
Подпишитесь

--

--

Сергей Карелов
Сергей Карелов

Written by Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

Responses (2)