Предвзятость ИИ порождает несправедливость, и наконец это начали осознавать

Image for post
Image for post

Мой недавний пост про «справедливый ИИ» некоторым читателям не понравился, — мол, кликбейтовая подача второстепенной темы.

Это не так. Тема наиважнейшая и куда более актуальная, чем ИИ-страшилки или ИИ-восторги, заполонившие СМИ и блогосферу.

Вот краткая подборка в подтверждение сказанного.

1️⃣ Google опубликовал свои принципы этики, включающие, проверку алгоритмов на предвзятость, для чего на специальном сайте «Ответственные AI-практики» даются рекомендации по способам защиты от Предвзятости Данных (Data bias) и обеспечения ИИ-справедливости (AI Fairness).

2️⃣ Комитет по науке и технологиям Конгресса США проводит слушания по вопросу, как обязать техкомпании решать проблему предвзятости ИИ.
«Нам нужно решать проблемы, связанные с данными, которые используются для обучения машин. Предвзятые данные ведут к предвзятым действиям только кажущихся нам объективными машин», — сказал конгрессмен Дэн Липински.

3️⃣ Accenture выпустила 1й инструмент для борьбы с Предвзятостью Данных (Data bias) при машинном обучении. Он называется «Инструментарий AI-справедливости» (AI Fairness Tool) и позволяет выявлять корреляции в данных по отношению к возрасту, расе, полу и иным демографическим данным. Определив эти корреляции, можно перенастроить системы, чтобы дать более справедливые результаты по всем демографическим показателям.

Джоди Уоллис, управляющий директор по ИИ в Accenture, сказала:

«Даже если вы намеренно исключаете из своих данных чувствительные переменные, типа этническая принадлежность, пол, возраст и другие очевидные источники несправедливой предвзятости, система машинного обучения может использовать какую-то другую переменную или комбинацию переменных, которая тесно коррелирует с половой принадлежностью или расой, тем самым делая “инъекцию несправедливости“ в действия системы».

4️⃣ А тем временем, примеры банальной, но при этом тотальной Предвзятости Данных встречаются повсюду.

— Системы распознавания лиц проявляют черты гендерной и расовой дискриминации. С 99%ой вероятностью распознаются лишь белые мужчины. Тогда как темнокожие женщины в трети случаев распознаются, как мужчины.

— И даже Google Translate ухитряется делать переводы с гендерным уклоном. Например, на турецком языке существует одно местоимение «o» для он, она, оно. Поэтому, когда Google Translate переводит с турецкого, например, на английский, нужно угадать, означает ли «о» он, она или оно. И эти переводы раскрывают гендерный уклон алгоритма:

✔️ если переводится слово трудолюбивый, то подставляется он;

✔️ если же переводится ленивый, … то она, т.е. ленивая.

_________________________

Хотите читать подобные публикации? Подписывайтесь на мой канал в Телеграме, Medium, Яндекс-Дзене

Считаете, что это стоит прочесть и другим? Дайте им об этом знать, кликнув на иконку “понравилось”

Written by

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store