Риск того — не знаю чего, сделать то — не знаю что
Главный риск ИИ в непонимании людей, в чем он, и где он может стать критичным
Не пропустите на выходных первый в мире материал, ставящий обсуждение важнейшей для человечества темы с головы на ноги. Я давно собирался про это написать, но в итоге, написал Хари Джонсон. И это даже лучше, поскольку риски ИИ — это его профильная тема.
Великий королевский астроном, мульти-академик, рыцарь-бакалавр и член Палаты лордов Мартин Рис предположил,
что мы — единственная высокоразвитая цивилизация во Вселенной, т.к. все другие уже самоистребились.
И то же самое ждет земную цивилизацию (и все цивилизации будущего). Ибо при достижении высокого технологического уровня, цивилизация подходит к порогу, после которого она не в состоянии справиться с экзистенциальными рисками, опережающими прогресс.
Скорее всего, главным источником таких рисков является ИИ. Люди уже догадались об этом и пытаются что-то предпринять. Разные государства идут разными путями.
- Китай решил поджать бизнес и университеты под КПК и тем самым сосредоточить контроль за развитием самых рисковых технологий в руках «самой мудрой и дальновидной силы».
- Забюрократизированная Европа решила идти по законодательному пути, пытаясь оградить развитие в области ИИ законодательными заборами и экономическими веригами для бизнеса (чтоб не сильно разбегался, куда не надо).
- США мечутся, пытаясь пройти между Сциллой и Харибдой двух названных подходов. Для 1-го у них нет своей КПК. Для 2-го — пока нет критической массы бюрократов (но это вовсю исправляется).
- Про Россию думайте сами, решайте сами. Но похоже, возможны оба варианта сразу.
Ну а теперь о главном — о чем написал Хари Джонсон.
Вот сухой остаток.
- Чума на оба вышеназванных пути (взятие под госконтроль и регулирование).
Оба пути наденут смирительные рубашки на инновации, после чего вперед уйдут страны, не надевшие на себя такую спецодежду. Столкнувшись с этим, надевшие смирительные рубашки государства, их снимут. После чего мир дружно ускорит бег к обрыву пропасти имени Мартина Риса. - Невозможно запретить или даже просто ограничить ни цели использования ИИ, ни области его применения, ни перечень решаемых им задач. Чтобы долго не объяснять, возьмите пример с электричеством. И попробуйте подумать, как можно законодательно обложить его использование там, где это ведет к критическим рискам. Быстро поймете — никак.
- Что такое критический риск, в контексте ИИ, совершенно не понятно. Ибо это зависит от того, на что ИИ будет способен:
— если он способен лишь переводить тексты, рисовать котиков и быть умной колонкой — то и говорить не о чем;
— а когда, например, «наш ИИ» планирования боевых операций превзойдет «их ИИ», — колоссальный риск появится, но предотвратить его можно, лишь не дав «своему ИИ» превзойти «их ИИ» (что исключено);
— ну и совсем плохая ситуация: представьте в метафоре электричества, что самым большим потенциальным риском его применения считается удар током (так вот с ИИ мы ровно в такой ситуации); - Разработчики новых ИИ на основе базисных моделей (киты БигТеха), провайдеры приложений / сервисов на их базе и «внедренцы» не смогут договориться. Они уже начали активно переваливать ответственность друг на друга. И ситуацию в целом по решению проблемы ответственности (кто виноват, когда случится плохое) будет куда труднее разрулить, чем, например, в локальной области самоуправляемых авто (где эта проблема пока не имеет универсального решения).
- В силу перечисленного, видна лишь одна альтернатива:
— не придавливать госвластью разработчиков;
— не городить заборы законов и навешивать вериги на бизнес;
— а радикально решить вопрос всего одним решением на уровне ООН — срочное создание международной инфраструктуры общественных проектов базисных моделей ИИ, подобных космическому телескопу Хаббла и Большому адронному коллайдеру.
Скажите, — кто про что, а вшивый про баню? И будете правы, — я опять о том же. Ибо эта «баня» крайне важна для выживания наших внуков.
________________________
Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях.