Нет технологиям распознавания лиц полицией

Эти технологии пока недостаточно надежны

Сергей Карелов
2 min readJul 10, 2019
Фото David McNew/Getty Images

Таков вывод 1го отчета Совета по этике Axon AI & Policing Technology.

Компания Axon (ранее известна как Taser International) — производитель технологий для правоохранительных органов, в апреле 2018 учредила Совет по этике ИИ для изучения этических последствий применения своей продукции. Членами Совета являются представители правоохранительных органов, групп за гражданские права, политики, научных кругов и технических специалистов.

Этот Совет только что выпустил свой 1й отчет, в котором рассматриваются этические проблемы, связанные с распознаванием лиц, в особенности камерами полицейских — основным продуктом Axon.

Шесть основных выводов доклада.

1) Современные технологии распознавания лиц в настоящее время недостаточно надежны, чтобы оправдать их использование в камерах наблюдения. Для массового развертывания подобных систем требуется гораздо большая точность и одинаковая производительность для разных групп населения.

2) При оценке алгоритмов распознавания лиц важно различать ложноположительные и ложноотрицательные показатели. Между ними есть реальные компромиссы, которые зависят от вариантов использования: например, при выявлении пропавшего без вести и при выявлении хулиганов на демонстрации допустимость ложноположительных срабатываний несопоставимая.

3) Для предотвращения злоупотреблений, Совет не поддерживает разработку технологий распознавания лиц, которые могут быть перенастроены пользователями. Это требует технологического контроля со стороны производителей оборудования, но еще в большей степени это потребует государственного регулирования.

4) Ни одна юрисдикция не должна применять эти технологии, не пройдя прозрачные, демократические процессы их принятия обществом. В настоящее время решения о применении таких систем принимаются только правоохранительными органами. Это ошибка, которая может дорого стоить обществу.

5) Разработка продуктов должна основываться на доказательной (а не просто теоретической) выгоде.

6) При оценке затрат и выгод от потенциальных вариантов использования необходимо учитывать реалии полицейской деятельности в конкретных юрисдикциях с учетом технологических ограничений.

  • Пресс-релиз
  • Отчет
  • Мой предыдущий пост о том, что ИИ для массового распознавания лиц несет в себе запредельный риск, и что такой ИИ нужно запретить, как, в свое время, запретили ядерные испытания

________________________________

Если понравился пост:
- нажмите на “палец вверх”;
- подпишитесь на
обновления канала на платформе Medium;
- оставьте комментарий.
Еще больше материалов на моем Телеграм канале «Малоизвестное интересное».
Подпишитесь

--

--

Сергей Карелов
Сергей Карелов

Written by Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

Responses (1)