Все ИИ-исследования лежат в одной корзине
Если R&D затраты не начнут отбиваться, инвесторы уйдут
На прошлой неделе многих поразила новость о размерах финансовых потерь крупнейшего в мире исследовательского центра по ИИ — принадлежащей Alphabet компании DeepMind. За три года компания уже потеряла более $1млрд, а долг в размере более $1млрд должен быть погашен в течение следующих 12 месяцев.
• Значит ли это, что ИИ разваливается?
• Что эти потери означают для будущего ИИ?
• Находится ли DeepMind на правильном пути и являются ли эти немалые инвестиций разумными?
• Как, в конце концов, эти потери повлияют на ИИ в целом?
Эти вопросы анализирует Гэри Маркус — основатель и генеральный директор Robust.AI и профессор психологии и нейронологии в Нью-Йоркском университете, — в своей статье «Deepmind’s losses and the future of AI».
Вот суть его позиции.
- Затраты далеко не беспрецедентные по сравнению с суммами, потраченными на некоторые из крупнейших научных проектов. Для сравнения, затраты на Большой адронный коллайдер тоже составляют около $1млрд в год, а общая стоимость открытия бозона Хиггса оценивается более чем в $10 млрд.
Так что проблема не в сумме затрат, а в том, на что они идут. - А идут они, в основном на одно. Все яйца складываются в одну корзину — глубокое обучение с подкреплением (deep reinforcement learning). Реальная проблема с этой корзиной — это доверие. На данный момент глубокому обучению с подкреплением можно доверять только в задачах, которые хорошо контролируются и не несут больших сюрпризов; например, это хорошо работает для Go — ни доска, ни правила не изменились за 2000 лет — но вы не захотите полагаться на этот метод во многих реальных ситуациях.
- В сложных областях практической жизни глубокое обучение с подкреплением довольно быстро заходит в тупик. IBM первая наступила на эти грабли, когда попыталась использовать Watson, выигравший у людей в интеллектуальной игре Jeopardy!, в медицинской диагностике. Успех оказался весьма невелик. Watson работал хорошо в некоторых случаях и терпел неудачу в других, временами ошибаясь в тривиальных диагнозах, типа сердечных приступов, которые были бы очевидны для студентов-первокурсников.
- Отрицательная экономика DeepMind, к сожалению, может повлиять на ИИ в целом. Если ажиотаж еще год-другой не принесет достойных практических результатов, это может привести к «зиме ИИ», когда даже сторонники не хотят вкладывать сюда все новые инвестиции.
- Проблема гораздо шире, чем потери DeepMind. Многие достижения, обещанные к практическому внедрению уже несколько лет назад, такие как самоуправляемые автомобили или чат-боты, способные понимать разговоры, еще не осуществились. Обещание Марка Цукерберга в апреле 2018 года Конгрессу о том, что ИИ скоро решит проблему с фейковыми новостями, уже откатывается назад.
- Так что же делать? Ответ очевиден — раскладывать яйца по разным корзинам. На каждый доллар, вложенный в глубокое обучение с подкреплением, как минимум, доллар (а лучше 2 или 3) нужно вкладывать в перспективные альтернативные направления.
Например, решение задачи понимания того, как дети овладевают языком и узнают мир, используя минимум энергии и данных, — не менее ценно и перспективно, чем все, что делает DeepMind.
Да что DeepMind. Ведь и все остальные киты направления ИИ пока что по-прежнему складывают яйца в одну корзину.
Ох как это глупо и недальновидно!
________________________________
Если понравился пост:
- нажмите на “палец вверх”;
- подпишитесь на обновления канала на платформе Medium;
- оставьте комментарий.
Еще больше материалов на моем Телеграм канале «Малоизвестное интересное».
Подпишитесь