Между шашечками и ехать Китай выбирает второе
Опубликованы результаты 1го этапа создания в Китае «объяснимого ИИ»
В США и Китае инвестируются огромные средства в попытки решить проблему «черного ящика ИИ» путем создания ИИ, способного объяснять свои решения (XAI — Explainable AI).
В США лучшие силы от DARPA до Google уже несколько лет палят миллиарды на проекты «объяснимого ИИ». И пока тщетно, т.к. эти «объяснения» не сможет понять ни одни человек (ИИ принимает решения совершенно иным образом, чем люди).
Китай начал свой проект XAI позже. Но он учитывает все грабли, на которые уже наступили американцы. И по деньгам на свой проект китайцы, похоже, уже опережают США.
Поэтому так интересны выводы опубликованного вчера первого отчета по китайскому XAI «Концепция и практика открытия алгоритмов черного ящика», резюмирующего 1й этап совместных работ Tencent Research Institute, Tencent Tianyan Laboratory, Tencent Youtu, Tencent AI Lab.
Ключевой идеей 1го этапа стал послойный анализ алгоритмов ИИ, вскрываемых как матрёшка (Layer-by-layer analysis of “matryoshka-doll-style”).
Результат, увы, не сильно вдохновляющий.
Авторы отчета в поэтическом стиле сформулировали его так.
«Откройте черный ящик и он станет белым ящиком. Но в белом ящике появится много-много черных ящиков, и потому создание объяснимого ИИ — это долгий путь».
Как говорил Том Сойер в похожей ситуации — здесь работы лет на 300.
Но самое плохое не это.
Авторы отчета пришли к выводу, что существующие алгоритмы не могут достичь одновременно высокого уровня эффективности и интерпретируемости.
Получается, — либо шашечки, либо ехать.
А значит нужны принципиально иные алгоритмы. Какие? Пока не известно.
А раз так, заключают прагматичные китайцы, — на объяснимость придется пока забить, ибо эффективность важнее в гонке за звание ИИ-супердержавы №1.
Подробней здесь.
________________________
Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях