Международная группа экспертов по искусственному интеллекту и робототехнике направила в Организацию Объединенных Наций открытое письмо с призывом остановить использование автономного оружия, поскольку оно грозит наступлением третьей революции в военной области.

Письмо, составленное на Международной объединенной конференции по искусственному интеллекту (International Joint Conference on Artificial Intelligence, IJCAI 2017) в Мельбурне, подписали 116 человек, в том числе основатель компаний Tesla, SpaceX и OpenAI Илон Маск, а также Мустафа Сулейман, создатель и руководитель направления прикладного искусственного интеллекта DeepMind компании Google.

«Работая в организациях, создающих технологии искусственного интеллекта и робототехники, которые могут быть использованы при разработке автономного оружия, мы чувствуем особую ответственность и просто обязаны бить тревогу, — говорится в письме. — Такое оружие способно разжечь вооруженные конфликты небывалых масштабов, и они будут распространяться с колоссальной скоростью. Это оружие может быть оружием террора — оружием, которое диктаторы и террористы будут использовать против невинного населения. А в случае взлома есть риск использования этого оружия в любых, самых нежелательных целях».

В декабре прошлого года 123 государства — члена ООН на конференции, посвященной обсуждению конвенции об использовании обычных вооружений, согласились начать официальные переговоры о возможностях применения автономного оружия. 19 стран уже призвали к его прямому запрету.

Автономное оружие находится пока по большей части на стадии прототипов, но технологии развиваются очень быстрыми темпами  
Источник: Wikipedia

Незадолго до конференции должно было состояться первое заседание группы правительственных экспертов по автономным системам летального оружия, однако мероприятие отменили из-за того, что многие государства не внесли свои взносы в ООН.

Теперь первое заседание группы запланировано на ноябрь.

«Мы обращаемся к высоким договаривающимся сторонам с просьбой приложить все усилия для предотвращения гонки таких вооружений, с тем чтобы защитить гражданское население от неправомерного применения автономного оружия и избежать дестабилизирующего воздействия технологий подобного рода, — указывается в упомянутом выше письме. — Летальное автономное оружие грозит нам третьей революцией в военной области. У нас не так много времени для того, чтобы это остановить. А если ящик Пандоры откроется, закрыть его будет очень сложно».

В 2015 году уже было опубликовано письмо, под которым в числе прочих стояли подписи английского физика Стивена Хокинга, одного из основателей компании Apple Стива Возняка и когнитивного ученого Ноама Хомского.

Профессор искусственного интеллекта университета Нового Южного Уэльса в Сиднее Тоби Уолш, подписавший оба письма, считает, что угроза распространения автономного оружия требует немедленной реакции.

«Сегодня мы должны выбрать для себя желаемое будущее, — отметил он. — Я решительно поддерживаю призывы к полному запрету такого оружия наряду с химическим. Надеюсь, что новое письмо ускорит обсуждение в ООН, которое должно было начаться уже сегодня».

Машины-убийцы

По данным международной коалиции «Кампания против роботовубийц», государства с развитой военной промышленностью, в частности США, Китай, Израиль, Южная Корея, Россия и Великобритания, активно разрабатывают системы, в которых машины получают высокую боевую автономию.

«Почти любая технология может быть использована и в благих и в низменных целях, искусственный интеллект не является исключением, — подчеркнул Уолш.

«Число известных компаний и авторитетных людей, подписавших письмо, подтверждает, что этот гипотетический сценарий вполне может стать реальностью, а следовательно, меры противодействия необходимо принимать немедленно, — добавил технический директор компании Clearpath Robotics Райан Гарьепи, одним из первых поставивший под письмом свою подпись. — Мы не должны упускать из виду тот факт, что, в отличие от других потенциальных проявлений искусственного интеллекта, которые пока продолжают оставаться в области научной фантастики, системы автономных вооружений уже сейчас находятся на пике разработки и способны спровоцировать глобальную нестабильность».

«Лично я подписал письмо потому, что использование искусственного интеллекта в автономном оружии противоречит моим понятиям об этике, — указал основатель компании Element AI и авторитетный эксперт в области глубинного обучения Иешуа Бенджо. — Оно может привести к очень опасной эскалации, потому что мешает дальнейшей разработке хороших приложений искусственного интеллекта. Данный вопрос должен решаться международным сообществом, точно так же, как это произошло и с другим оружием, нарушающим все моральные нормы — биологическим, химическим и ядерным».

«Если мы не хотим увидеть полчища смертоносных микродронов, разлетающихся по всему миру, необходимо активизировать и поддержать усилия ООН, направленные на запрет летальных автономных вооружений, — подчеркнул вице-президент компании Bayesian Logic Стюарт Расселл. — Это жизненно важно для обеспечения национальной и международной безопасности».