Как День памяти напоминает нам каждый год, война не уходит.
Но это меняется. И одна из самых глубоких перемен, которые мы увидим в ближайшие годы, заключается в том, что военные все больше зависят от роботов. Дроны привлекают к себе больше внимания, но все больше и больше нововведений Министерства обороны - это другие виды беспилотных машин, от экспериментальных самолетов до наземных солдат.
Это легко понять привлекательность. Использование роботов потенциально более эффективно, точнее и дешевле, чем полагаться только на людей в боевых действиях. И это также, конечно, означало бы меньше человеческих жертв.
Но эта трансформация ставит перед собой сложную задачу: можно ли запрограммировать военные машины для принятия решений? Что приводит к более острому вопросу: могут ли роботы учиться морали?
Управление морских исследований США считает, что сейчас самое время это выяснить. Ранее в этом месяце он объявил о пятилетнем гранте в размере 7, 5 млн. Долл. США для финансирования исследований в университетах Тафтса, Брауна, Йельского университета и Джорджтауна и Политехнического института Rensselaer (RPI) о том, могут ли машины однажды выбрать правильное из неправильного.
Военно-морской флот хочет избежать ситуации, в которой сейчас находится машина без водителя Google: технология, выпущенная намного раньше, чем какая-либо ясность по юридическим и этическим вопросам, которые она поднимает. Прежде чем автономные роботы выйдут в поле, военные хотят знать, могут ли они действительно научиться делать правильные вещи.
Как считает Сельмер Брингсджорд, глава отдела когнитивных наук RPI, искусственный интеллект робота может быть спроектирован так, чтобы функционировать на двух уровнях морали. Первый будет основан на контрольном списке четких этических решений, таких как «если вы натолкнетесь на раненого солдата, вы должны помочь ему или ей». Но что, если это действие вступает в противоречие с его основной миссией, такой как доставка боеприпасов, критически необходимых для другие солдаты? В этот момент, говорит Брингсджорд, робот должен был бы иметь возможность участвовать в «более глубоких моральных рассуждениях», чтобы принимать решения в ситуациях, которые его программисты могли не предвидеть.
Исследователям потребуется разработать уникальные алгоритмы и вычислительные механизмы, которые можно было бы интегрировать в существующую архитектуру автономных роботов, «мыслительный процесс», который позволил бы машине отвергать запланированное поведение на основе ее способности применять моральные рассуждения.
Если это кажется чрезвычайно амбициозным, ну, это так. Для начала исследователям необходимо выделить основные элементы человеческой морали - с какими принципами мы все согласны? - и затем выяснить, как включить их в алгоритмы, которые дадут роботам некоторый уровень моральной компетентности.
Это не маленькое начинание. По этой причине вполне вероятно, что машины, не контролируемые людьми, в обозримом будущем будут ограничены не боевыми функциями, такими как наблюдение, безопасность, поиск и спасение или медицинское обслуживание. Но неизбежно военные планировщики будут хотеть ответа на вопрос, который нависает над всем этим: позволят ли роботам, действующим самостоятельно, когда-либо убивать человека?
Если машина на 90 процентов уверена в том, что каждый, кто собирается ее застрелить, является террористом, достаточно ли этого? Сможет ли робот стрелять из оружия в ребенка, если он определит, что это враг? Если что-то пойдет не так, и автономный робот по ошибке взорвет деревню, кто виноват? Командир, который заказал операцию? Человек, который запрограммировал робота? Или никто?
Если вы думаете, что это все еще материал научной фантастики, учтите, что в начале этого месяца эксперты по таким предметам, как искусственный интеллект, права человека и международное право, взвесили «роботов-убийц» на конференции Организации Объединенных Наций в Женеве. Такие группы, как Хьюман Райтс Вотч и официальные лица из нескольких стран, включая Пакистан, Египет, Кубу и Ватикан, призывали к прямому запрету на роботов с полномочиями убивать. Но большинство стран, особенно страны с самыми продвинутыми роботами, не готовы зайти так далеко.
Взгляните, например, на WildCat, четырехногого робота, разрабатываемого для работы на высоких скоростях на всех типах местности.
Пока что военные США следуют директиве Министерства обороны 2012 года, согласно которой ни одна машина, обладающая способностью убивать, не может быть полностью автономной. Человек должен буквально назвать выстрелы. Но это может не относиться ко всем местам: в марте New Scientist процитировал российское официальное лицо, заявив, что роботы, работающие на пяти установках с баллистическими ракетами, смогут обнаруживать и уничтожать цели без того, чтобы человек дал на это разрешение.
Коготь Фостера-Миллера, показанный ниже, является одной из многих машин по всему миру, разрабатываемых для боя.
Правила войны
Отчет о конференции роботов-убийц будет представлен Комитету ООН по обычному оружию в ноябре. Но не похоже, что запрет будет в ближайшее время.
Среди тех, кто присоединился к дискуссии в Женеве, был Рональд Аркин, эксперт по искусственному интеллекту из Georgia Tech, который долгое время выступал за предоставление машинам возможности принимать моральные решения. Он считает, что если роботы смогут научиться следовать международному праву, они могут вести себя более этично, чем люди в войне, потому что они будут неизменно последовательны. Они не смогут ответить гневом, паникой или предубеждением. Таким образом, Аркин выступает против запрета, хотя он открыт для моратория на автономное оружие до тех пор, пока машинам не дадут шанс узнать, смогут ли они овладеть правилами войны.
Другой ученый ИИ, Ноэль Шарки, который обсуждал Аркина в Женеве, совершенно другого мнения. Он не думает, что роботам нужно когда-либо давать полномочия принимать решения о жизни или смерти.
Недавно он сказал Defense One : «Я не думаю, что у них когда-нибудь появится моральный или этический робот. Для этого нам нужно иметь моральную свободу действий. Для этого нам нужно понимать других и знать, что значит страдать ».
«Робот может быть установлен с некоторыми правилами этики, но на самом деле это не важно», - говорит он.