Переворот в представлениях об интеллекте людей и машин
Это лишь 1й шаг, но за ним идут супер-прорывные открытия
Назвав Альберта-Ласло Барабаши Эйнштейном 21 века, я все же не ошибся. Он открыл безмасштабные сети (scale-free network) и математически обосновал: они — основа мира. Вселенная на всех уровнях как бы энергетически запитывается этой безмасштабностью, главный механизм которой «предпочтительность установления связей» (preferential attachment) — следствие из 2го закона термодинамики, гласящего, что для вселенной в целом энтропия (мера хаоса) возрастает.
Последние несколько лет ушли на проверку — действительно ли сеть, образованная миллиардами нейронов человеческого мозга, работает по тем же информационным законам, что и Интернет.
Это сейчас самый фундаментальный вопрос на пути понимания интеллекта людей и машин.
Ибо если ответ «да»,
• раскрывается тайна того, как мозг, просеивая шум, выборочно запоминает только самое важное и не захлебывается в деталях;
• это сулит переворот в алгоритмике глубокого обучения ИИ, сегодня просто не обладающего механизмом нахождения компромисса между степенью детализации данных и продуктивностью выявления закономерностей в них.
Новое экспериментальное открытие (популярно и детально) позволило вплотную подойти к раскрытию загадки:
• каким образом мозг обрабатывает информацию, отбрасывая большую часть её в пользу более простых нейронных описаний;
• как усовершенствовать алгоритмы глубоко обучения ИИ, дабы они работали не тупо, как сейчас (за счет безумной производительности вычислений), а умно и экономно, как это делает мозг.
В основе эксперимента новая техника записи процесса одновременной работы 10 тыс. нейронов. С ее помощью мышам показывали тысячи изображений, наблюдая за реакциями в зрительной коре и обнаруживая паттерны, соответствующие более высоко-размерной (более детальной) картине нейронной активности.
В результате удалось понять, как работает «балансировочный акт» — тот самый механизм компромисса между объемом данных и вылавливаемым из них «смыслом».
Все объясняется наличием критический («фазовых») переходов при наращивании размерности (детализации) входной информации.
Эти переходы нарушают свойство процесса обработки информации, названное «гладкостью» (непрерывностью), в результате чего небольшие изменения на входе могут генерировать большие изменения на выходе.
По сути, этот механизм позволяет выявлять во входных данных тот «один пиксель», изменение которого приведет к отображению в памяти уже другой ситуации. Извините за не совсем корректный пример, но похожим образом работает развертка на экранах — меняются только определенные пиксели, а не все изображение.
Но как идентифицировать эти «критические пиксели»?
Ответ тоже найден —
нужно найти критический порог размерности (детализации), после которого появится фрактал (функция потеряет гладкость).
Иными словами, представления в памяти должны быть настолько подробными и объемными, насколько это было возможно, чтобы они оставались гладкими.
Итоговый новый закон —
паттерны нейронной активности настолько детализированы (многомерны), насколько это возможно, не становясь фрактальными (негладкими).
В заключение пример.
Изрезанная береговая линия — это фрактал. Если идете вдоль берега, открывающаяся взору картинка все время меняется, т.к. вся кромка берега состоит из зубцов. Избавьтесь от фрактала, не дав «взорваться» степени детализации. Например (условный, но похожий на правду), — сфоткайте этот берег из космоса. И получите компромиссную по точности картину, информационно в миллионы раз меньшего объема, чем миллионы фото, снимаемых на каждом 10ом шаге обхода побережья. А «смысл» (понимание очертания побережья) вы при этом не потеряете.
________________________________
Если понравился пост:
- нажмите на “палец вверх”;
- подпишитесь на обновления канала на платформе Medium;
- оставьте комментарий.
Еще больше материалов на моем Телеграм канале «Малоизвестное интересное». Подпишитесь