Сейчас мы говорим «обезьяна с гранатой»

Через сто лет, возможно, будут говорить «человек с ИИ»

Сергей Карелов
3 min readJul 12, 2019

В новом интервью профессора Томаса Метцингера — члена высшей экспертной группы ЕС по разработке этических принципов ИИ — озвучены два весьма тонких для понимания, но очень важных вопроса.

1) Роботы-убийцы и активная эвтаназия — есть ли отличия?

Смертельное автономное оружие (т.н. роботы-убийцы) — это системы, которые используют ИИ в бою, чтобы решать, какую цель атаковать, уничтожить или даже убить.

Главный вопрос, пока еще, хоть и с трудом, но все же сдерживающий превращение роботов-убийц в главный фактор новой гонки вооружений — можно ли привлечь кого-либо к ответственности, если машина приняла неправильное решение?

Самое опасное в этом вопросе — его универсальность.

Ведь ровно тот же вопрос стоит, например, и по отношению:

  • к автономным автомобилям;
  • к системам активной эвтаназии.

Про самоуправляемые авто и так всем понятно — пресловутые проблемы, кого задавить, если нет иных вариантов, и чья жизнь дороже — водителя или пешехода …

А про активную эвтаназию поясню. Пассивная — предполагает прекращение введения препаратов, поддерживающих жизнь пациента, а активная — введение препарата от которого пациент умирает. Активная э. бывает добровольной и недобровольной — т.е. без согласия пациента. При этом кто-то должен взять на себя ответственность и решить: «Пусть этот человек умрет».

Но ведь страшно даже рассуждать о таком. И кому хотелось бы, стоя у больничной койки, произносить подобные слова?

Так вот сейчас, по словам Метцингера, в Нидерландах уже стоит вопрос о перекладывании таких решений на ИИ. Просто, удобно, никого не напрягает и никаких душевных мук.

Только чем это отличается от роботов-убийц?

2) Где проходит «красная черта» в применении любого робота-убийцы (военного, медицинского, автомобильного …)?

Проблема вовсе не в том, чтобы дать машинам правильные этические ценности. Проблема в «согласовании ценностей» ИИ и людей. И пока не понятно, как их согласовывать, поскольку люди сами не придерживаются своих собственных этических ценностей.

Иными словами, всегда существует конфликт разных целей у отдельных людей и в разных обществах. Наши общества не являются этически последовательными или связными, наша политика — тем более.

  • Вы и ваш коллега.
  • Британский и китайский военный.
  • Президенты России и США.

Согласуются ли их этические ценности?

В итоге, нам самим сложно прогнозировать, какие решения примет тот или иной человек, и это создает реальный риск.

А если этот человек врач? Или генерал? Или президент страны?

Проще говоря, если вы включаете в цепочку принятия решений очень эффективный, быстрый и продвинутый ИИ, вы, по сути:

  • подключаете ИИ к человеческим мозгам, почти не изменившимся со времен каменного века;
  • подключаете ИИ к мозгу конкретных людей, — возможно, жадных, ревнивых, эгоистичных и амбициозных.

А раз так, то самим включением ИИ в цепочку принятия решений, вы непрогнозируемо увеличиваете риски.

Поэтому нет никакой проблемы заложить в робота-убийцу (да и в любой ИИ) конкретные этические ценности.

В реальности, мы сами — главная проблема.

И «красная черта» проходит через нас, а не через ИИ.

________________________________

Если понравился пост:
- нажмите на “палец вверх”;
- подпишитесь на
обновления канала на платформе Medium;
- оставьте комментарий.
Еще больше материалов на моем Телеграм канале «Малоизвестное интересное».
Подпишитесь

--

--

Сергей Карелов
Сергей Карелов

Written by Сергей Карелов

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

Responses (1)