Сейчас мы говорим «обезьяна с гранатой»

Через сто лет, возможно, будут говорить «человек с ИИ»

Image for post
Image for post

В новом интервью профессора Томаса Метцингера — члена высшей экспертной группы ЕС по разработке этических принципов ИИ — озвучены два весьма тонких для понимания, но очень важных вопроса.

1) Роботы-убийцы и активная эвтаназия — есть ли отличия?

Главный вопрос, пока еще, хоть и с трудом, но все же сдерживающий превращение роботов-убийц в главный фактор новой гонки вооружений — можно ли привлечь кого-либо к ответственности, если машина приняла неправильное решение?

Самое опасное в этом вопросе — его универсальность.

Ведь ровно тот же вопрос стоит, например, и по отношению:

  • к автономным автомобилям;
  • к системам активной эвтаназии.

Про самоуправляемые авто и так всем понятно — пресловутые проблемы, кого задавить, если нет иных вариантов, и чья жизнь дороже — водителя или пешехода …

А про активную эвтаназию поясню. Пассивная — предполагает прекращение введения препаратов, поддерживающих жизнь пациента, а активная — введение препарата от которого пациент умирает. Активная э. бывает добровольной и недобровольной — т.е. без согласия пациента. При этом кто-то должен взять на себя ответственность и решить: «Пусть этот человек умрет».

Но ведь страшно даже рассуждать о таком. И кому хотелось бы, стоя у больничной койки, произносить подобные слова?

Так вот сейчас, по словам Метцингера, в Нидерландах уже стоит вопрос о перекладывании таких решений на ИИ. Просто, удобно, никого не напрягает и никаких душевных мук.

Только чем это отличается от роботов-убийц?

2) Где проходит «красная черта» в применении любого робота-убийцы (военного, медицинского, автомобильного …)?

Иными словами, всегда существует конфликт разных целей у отдельных людей и в разных обществах. Наши общества не являются этически последовательными или связными, наша политика — тем более.

  • Вы и ваш коллега.
  • Британский и китайский военный.
  • Президенты России и США.

Согласуются ли их этические ценности?

В итоге, нам самим сложно прогнозировать, какие решения примет тот или иной человек, и это создает реальный риск.

А если этот человек врач? Или генерал? Или президент страны?

Проще говоря, если вы включаете в цепочку принятия решений очень эффективный, быстрый и продвинутый ИИ, вы, по сути:

  • подключаете ИИ к человеческим мозгам, почти не изменившимся со времен каменного века;
  • подключаете ИИ к мозгу конкретных людей, — возможно, жадных, ревнивых, эгоистичных и амбициозных.

А раз так, то самим включением ИИ в цепочку принятия решений, вы непрогнозируемо увеличиваете риски.

Поэтому нет никакой проблемы заложить в робота-убийцу (да и в любой ИИ) конкретные этические ценности.

В реальности, мы сами — главная проблема.

И «красная черта» проходит через нас, а не через ИИ.

________________________________

Если понравился пост:
- нажмите на “палец вверх”;
- подпишитесь на
обновления канала на платформе Medium;
- оставьте комментарий.
Еще больше материалов на моем Телеграм канале «Малоизвестное интересное».
Подпишитесь

Written by

Малоизвестное интересное на стыке науки, технологий, бизнеса и общества - содержательные рассказы, анализ и аннотации

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store