Техно-методами наступающую тьму фейковой инфореальности не остановить

Image for post
Image for post
Люди, которые делятся потенциальной дезой в Twitter (фиолетовые), редко видят опровержения или факт-чекинг (оранжевые). Источник: https://goo.gl/4f19X3

— Мадам, а не хотите кофе? —

сказал он, глядя ей в глаза.

Три таракана были против,

пять — за.

Юрий Кутюм

В заголовке 1й пункт звучащего приговором резюме цикла новых исследований.

2й и 3й пункт этого резюме подстать:

2) Фейковая инфореальность имеет высокие шансы стать доминирующей уже в ближайшее десятилетие, что будет иметь радикальные последствия для политики, культуры и образования.

3) Ключевой и пока что непреодолимой силой, толкающей мир в новые темные времена, является своеобразная цепная реакция, в основе которой:

✔️ многочисленные “тараканы” в наших головах — наличие у большинства из нас разнообразных когнитивных искажений и предубеждений на подсознательном уровне ,

✔️ многократный рост размеров этих «тараканов» в результате «облучения сетевой заразой» — искусственно порождаемыми вирусными мемами.

Контент сомнительной точности — в простонародье фейковые новости — вовсе не новое изобретение. Он существует с момента возникновения свободной прессы.

Однако, буквально в последние годы наблюдаются 3 качественных изменения:

— социальные медиа становятся основным источником новостей;

— фейковые новости стали разнообразиться по форме: от теории заговора, кликбейта и псевдонаучки до гиперпартийного контента, сфабрикованных отчетов о фейк-ньюс и технологической вершины — «глубоких фейков»;

— и самое страшное, — фейковые новости стали порождать вирусные мемы, превращающие фейк-ньюс в самый влиятельный вид контента в социальных медиа.

Поэтому, если мы хотим выжить в этой кислотной инфосреде и при этом не выжить из ума, погрузившись в фейковую инфореальность, нам необходимо:

✔️ знать и понимать механику, порождающую фейковую инфореальность;

✔️ найти и освоить инструментарий для борьбы с этой механикой, — типа осинового кола или серебряных пуль для изведения вампиров.

Механика порождения фейковой инфореальности

Чтобы узнать и понять механику, необходимо, как минимум прочесть только что опубликованный меморандум Misinformation and biases infect social media, both intentionally and accidentally основателя проекта «Обсерватория социальных медиа» (OSoMe) профессора Филиппо Менцера и его коллеги по обсерватории Джованни Лука Чампалья.

Если предельно коротко.

Умышленная деза для порождения вирусных мемов (а это цель дезы), использует «тараканов» в наших головах, коими, как вы уже поняли, я для краткости называю искажения и предубеждения различной этиологии.

Таких этиологий три: когнитивная, социальная и алгоритмическая.

Про когнитивные искажения и предубеждения все так или иначе слышали, и особенно объяснять не надо. Но фишка в том, что созданы новые технологии (например, социальные боты, астротурфинг и т.д.) превращающие дезу в вирусные мемы, целенаправленно используя наиболее распространенные когнитивные искажения и предубеждения.

Социальные искажения и предубеждения — это своеобразное «эхо», возникающее в любой замкнутой изолированной инфосреде (коими являются большинство социальных медиа). Разработана технология усиления этого «эха», позволяющая не только злонамеренные «вопли» соцботов, но и непреднамеренные «возгласы» разшаривающих дезу участников фокусировать, подобно лучу гиперболоида инженера Гарина, во всепрожигающие по своей энергетике вирусные мемы.

Что особенно важно:

— именно этому классу искажений и предубеждений мы обязаны лавинообразному росту раскола и поляризации всевозможных «нас против них»;

— не разгородив ограды социальных резерваций или хотя бы не наделав между ними мостов, с нарастающим расколом не сладить.

Алгоритмическая этиология искажений и предубеждений коренится в сетевых алгоритмах персонализации, определяющих, что видят конкретные люди, находясь в сети.

Это и рекламные инструменты, встроенные во многие платформы соцсетей, и алгоритмы выявления популярности контента, «репутации» конкретных пользователей, рекомендаций и многое другое (классы и виды персонализации растут как грибы).

Все эти алгоритмы порождают особые типы искажений и предубеждений (гомогенности, популярности и т.д.), жутко усиливающих уже имеющиеся когнитивные искажения и предубеждения людей.

Однако самое неприятное в том, что практически все алгоритмические искажения могут управляться ботами. И если бот создан со злонамеренными целями (например, влияние на выборы), то он запросто может таким управлением усиливать действенность дезы, порождать астротурфинг и многое другое.

Инструментарий для борьбы с фейковой инфореальностью

Такой инструментарий создается в рамках проекта «Обсерватория социальных медиа» (OSoMe), направленного на изучение распространения информации в сети и дискриминирование механизмов, которые способствуют распространению мемов в социальных сетях.

Проект носит междисциплинарный характер, объединяя усилия компьютерщиков, физиков, журналистов, политологов, социологов, а также нейро-ученых (для выявления связей между структурами распространения информации в социальных сетях и мозге).

В основе подхода OSoMe поиск корреляций между онлайн и оффлайн событиями в ходе анализа тенденции в Интернете с помощью визуализации временных, географических и сетевых моделей распространения мемов и всплесков вирусной активности.

Супер-цель проекта — понять, как можно злоупотреблять социальными медиа, чтобы манипулировать общественным мнением, проникать в политический дискурс, манипулировать фондовым рынком, красть личную информацию и распространять дезу.

Разработанные проектом OSoMe инструменты построены на агентском моделировании, теории диффузии мемов и прогнозировании, какие мемы будут вирусными.

Базовый инструмент — инфраструктура обнаружения социальных ботов с публичным API, называемая Botometer (ранее BotOrNot) — см. мои посты с тегом #Соцботы. Ботометр используется, в частности военными и разведкой США.

Для тренировки по выявлению фейков разработана бесплатная мобильная новостная игра Fakey. Можете проверить себя, насколько вы фейки сечете.

Для поиска уязвимостей при дезинформации создан инструмент Hoaxy, отслеживающий и визуализирующий распространение дезы и ее конкуренцию с фактчекингом.

Другие инструменты см. здесь

Ну а теперь самое главное

Исследования проекта OSoMe показывают.

Чисто технологическими методами наступающую тьму фейковой инфореальности не остановить.

Решение этого мега-челенжа должно учитывать когнитивные и социальные аспекты проблемы (подробней см. Beyond Misinformation: Understanding and Coping with the “Post-Truth” Era).

Иначе человечество, как уже было, забудет плоды просвещения и снова погрузится в темноту. На сей раз, в темноту тотальной лжи, для которой уже придумали лживый мем — “пост-правда”.

_________________________

Хотите читать подобные публикации? Подписывайтесь на мой канал в Телеграме, Medium, Яндекс-Дзене

Считаете, что это стоит прочесть и другим? Дайте им об этом знать, кликнув на иконку “понравилось”

Written by

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store