Создана единая теория смысла информации

Универсальная для живого и неживого

Image for post
Image for post
Николай Николаевич Ге «Что есть истина? Христос и Пилат»

Неспециалисты не поверят, но даже самые продвинутые информационные технологии (ИТ) — от смартфонов до суперкомпьютеров, со всеми на них установленными программами — способны оперировать лишь с количественными аспектами информации. Т.е. с так называемой “синтаксической информацией”, отражающей общий объем статистических корреляции в текстах сообщений.

Тогда как “семантическая информация” (смысл, заложенный в сообщение) современными ИТ практически игнорируется (семантический поиск, анализ и паутина — это все несколько иное).

И так происходит вот уже 70 лет, в соответствии с заветом отца теории информации К. Шеннона: «Семантические аспекты связи не имеют отношения к технической стороне вопроса».

В результате вся мощь современных ИТ, в отсутствии определения смысла информации, не способна анализировать ее качественный аспект в 2х его ключевых ипостасях:

истинность;

ценность.

Отсутствие смысла в том, что мы называем информация, пытаются исправить уже не первое десятилетие. Разрабатываются разнообразные теории семантической информации, группирующиеся вокруг 3х основных течений: логико-семантический подход, семиотический и прагматический.

Однако, беда в том, что все эти теории:

  1. не предусматривают формальное описание семантической информации, пригодное для использования в разных науках (от философии и психологии до физики и биологии);
  2. не допускают единого формального описания семантической информации, применимого, как для живых существ, так и для любой иной физической системы (скалы, урагана или сети).

И вот, наконец, появляется первая единая теория, дающая формальное описание семантической информации, применимое для всех наук и всех видов физических систем (живых и неживых).

Семантическая информация определяется в этой новой теории так:

информация, которой обладает физическая система об окружающей среде, и которая казуально необходима системе для поддержания собственного существования, определяемого способностью системы поддерживать себя в состоянии низкой энтропии.

Новая теория принципиально реляционна, поскольку семантическая информация определяется способом информационного обмена, формирующего взаимосвязанную динамику системы и среды. Это означает, что две системы могут иметь одинаковую синтаксическую информацию о своих средах, но для одной эта информация является семантической, тогда как для другой — нет.

Переводя на понятный язык (и платя за это определенным упрощением), можно сказать, что эта теория объясняет и формально описывает, почему одна и та же информация:

✔️ для одного человека (и вообще, для любой физической системы) имеет смысл, а для другого — нет;

✔️ для одного имеет ценность, а для другого — нет;

✔️ для одного является истиной, а для другого — нет.

Создателем единой теории семантической информации является уже не раз мною упоминавшийся на этом канале профессор Дэвид Волперт (David Wolpert), математик с мировым авторитетом, уже внесший свое имя в историю математики, физики и теории информации.

В истории науки есть т.н. «Год Чудес» — 1905 г., в течение которого А.Эйнштейн опубликовал 3 выдающиеся статьи, положившие начало новой научной революции.

2018 год вполне может стать «Годом Чудес» Дэвида Волперта. Подробней о его предыдущих работах см.: «Обучение бездействием» и «Математически доказано — Бог един, а знание не бесконечно».

Ну и в заключение совсем малоизвестное интересное (возможно, даже для Дэвида Волперта).

Идея о семантическом аспекте связи информации и энтропии была впервые предложена еще в 1966 известным советским философом и логиком Евгением Казимировичем Войшвилло в работе «Попытка семантической интерпретации статистических понятий информации и энтропии».

А годом позже известный советский математик, кибернетик и философ, специалист по информатике, методологии науки и философии религии Юлий Анатольевич Шрейдер опубликовал работу «О семантических аспектах теории информации», в которой он, собственно, и описал теорию семантической информации.

Обе названные выдающиеся работы вышли в свет в трудах по кибернетике под редакцией легендарного Акселя Ивановича Берга — гениального советского учёного-радиотехника и кибернетика, основоположника отечественной школы биологической кибернетики и биотехнических систем и технологий, адмирал-инженера, заместителя министра обороны СССР и Академика АН СССР (вот ведь Титаны были полвека назад!).

В тех же трудах публиковались замечательная работа гениального математика и кибернетика Виктора Михайловича Глушкова «О некоторых направлениях развития алгоритмических структур вычислительных машин», перспективнейшая работа выдающегося «математика и гражданина» Роланда Львовича Добрушина «Теория оптимального кодирования информации» и много чего еще ныне совсем малоизвестного, но с научной точки зрения и сегодня чрезвычайно интересного…

Это я к тому, что Берг, Войшвилло, Шрейдер, Глушков, Добрушин и еще несколько советских гениев полвека назад настолько опередили мировую науку в области математики, кибернетики и теории информации, что только сейчас, спустя 50 лет их прозрения только-только начинают становиться передним краем мировой науки.

Происходит это, правда, уже не в России. Но ведь наука не имеет госпринадлежности.

_________________________

Хотите читать подобные публикации? Подписывайтесь на мой канал в Телеграме, Medium, Яндекс-Дзене

Считаете, что это стоит прочесть и другим? Дайте им об этом знать, кликнув на иконку “понравилось”

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store