Специалисты в области искусственного интеллекта требуют запретить автономное оружие. Текст петиции, обращенной к ООН, размещен на сайте исследовательской организации «Институт будущего жизни». Институт занимается вопросами рисков для человечества, в том числе угрозами со стороны искусственного интеллекта.
Обращение подписали 116 человек, все они — эксперты в области искусственного интеллекта или руководители компаний, которые занимаются такими вопросами. Среди них, например, основатель Tesla, SpaceX и OpenAI Илон Маск, руководитель лаборатории Google по разработке искусственного интеллекта Мустафа Сулейман и многие другие, в том числе три российских предпринимателя Игорь Кузнецов (компания NaviRobot) и Алексей Южаков и Олег Кивокурцев (Promobot).
Разработчики искусственного интеллекта раньше никогда не призывали запретить автономное оружие. Похожее открытое письмо уже публиковалось в 2015 году при поддержке астрофизика Стивена Хокинга и одного из основателей Apple Стива Возняка; его подписали несколько тысяч человек из IT-индустрии, но это была частная инициатива, а не мнение компаний-разработчиков искусственного интеллекта.
Авторы обращения уверены: автономное оружие не лучше химического или ядерного. В открытом письме речь идет о системах, которые способны открывать огонь без приказа человека. По мнению авторов письма, такое оружие представляет серьезную опасность для человечества, его разработка неэтична и должна быть запрещена на международном уровне. Подобное вооружение может использоваться в террористических целях, его можно взломать и заставить выполнять какую угодно задачу, в том числе использовать как инструмент для запугивания.
Автономное оружие уже существует. Это, к примеру, авоматические турели, которые Южная Корея установила на границе с КНДР. Технически они способны открывать огонь самостоятельно, без участия человека — хотя на программном уровне вмешательство военнослужащего пока все же необходимо.
Беспилотные дроны, автоматические пушки, гусеничные автономные роботы — только небольшой список автономных вооружений, которые сейчас находятся в разработке у оружейных компаний мира. Все они будут способны открывать огонь на поражение, едва завидя цель, без приказа оператора — и этим отличаются от традиционных беспилотников, которые управляются пилотом с удаления.
ООН собиралась начать обсуждение запрета, но не хватило денег. Еще после первого открытого письма в 2015 году в ООН было принято решение создать рабочую группу по вопросу запрещения автономного вооружения. Группа должна была начать работу в августе 2017-го, однако страны-участницы не справились с перечислением средств на ее работу, и создание экспертного органа пришлось отложить. Ожидается, что рабочая группа в итоге соберется в ноябре 2017-го. Эксперты в области искусственного интеллекта обвиняют ООН в медлительности и утверждают, что запрет на автономное оружие должен быть введен прямо сейчас, иначе будет слишком поздно.