Статья
2912 8 октября 2021 11:24

Роботы-убийцы: проблемы контроля автономного оружия

Быстрое развитие автономного оружия и робототехники ставит сложные вопросы о том, как следует регулировать их использование и распространение. Совсем недавно, в марте 2020 года, боевой дрон впервые самостоятельно атаковал людей, не получив на это указаний — он был запрограммирован на автоматический поиск и уничтожение цели.

Западные эксперты обеспокоены опасностью, которую представляет автономное оружие. Так, научный сотрудник отдела нетрадиционного оружия и технологий Национального консорциума по изучению терроризма и мер реагирования на него Закари Калленборн опубликовал доклад, в котором рассматривается проблема контроля автономных вооружений.

Боевой дрон Kargu-2, созданный турецкой военно-технической компанией и оснащенный бомбой, которая может взорваться при столкновении с целью, самостоятельно выследил живую цель и атаковал ее. Инцидент произошел весной прошлого года, но известно о нем стало только летом 2021 года. Атака была осуществлена в рамках конфликта между правительственными силами Ливии и силами Ливийской национальной армии под командованием мятежного фельдмаршала Халифы Хафтара.

Дрон в тот момент не получал никаких команд от человека. При этом подробности случая неизвестны, также нет информации о пострадавших или жертвах.
Оттавская конвенция запрещает противопехотные мины, но противотранспортные и морские мины все еще используются. Кроме этого, существуют барражирующие боеприпасы, парящие в воздухе и поражающие цели. Они представляют собой нечто среднее между дроном и ракетой. Американская система вооружения ближнего боя Phalanx, израильский «Железный купол» также имеют различную степень автономности. А Южная Корея развернула в демилитаризированной зоне автоматическую турель SGR A-1, которая имеет полностью автономный режим.

В автономном оружии система самостоятельно решает, когда атаковать. В наземных минах, например, используются простые датчики давления — чувствительность датчика определяет, достаточно ли веса танка или рук ребенка, чтобы вызвать взрыв. Риск ошибки зависит от типа стимулов окружающей среды, от того, как они обрабатываются, и от типа принимаемых решений.

В то же время военные видят большое значение в разработке автономного оружия, указывает Калленборн. Автономное оружие работает гораздо быстрее человека, которому необходимо около 250 миллисекунд для того, чтобы отреагировать на угрозу. Например, система активной защиты Rheinmetall Defense немецкого производства может реагировать на приближающуюся реактивную гранату менее чем за одну миллисекунду.

Кроме этого, у автономного оружия нет эмоций, и сторонники применения искусственного интеллекта в военных целях утверждают, что снижение количества ошибок делает использование этой технологии моральным императивом. Кроме того, искусственный интеллект может улучшить прицеливание. Это снижает побочный ущерб. Например, Израиль использовал пулемет с искусственным интеллектом, чтобы ликвидировать иранского ученого-ядерщика, не попав в его жену в нескольких дюймах от него.

Между тем сторонники контроля над вооружениями призывают к запретам и новым договорам, отмечает автор доклада. Например, международная коалиция «Остановить роботов-убийц» требует полного запрета автономного оружия. По оценкам Human Rights Watch, 30 государств одобрили полный запрет, а вот великие военные державы сопротивляются режиму контроля над вооружениями, утверждая, что существующего международного права достаточно: например, в Оттавской конвенции о противопехотных наземных минах особое внимание уделяется противопехотным наземным минам, за исключением противотранспортных наземных мин, для взрыва которых требуется высокое давление.

Однако, по мнению автора доклада, автономное оружие, наряду с химическим, биологическим и ядерным, представляет высокий риск и не должно использоваться вообще. По словам Калленборна, даже если автономное оружие запрещено полностью, правительства должны подумать, как предотвратить его непреднамеренный экспорт в государства, не являющиеся участниками запрета. Это связано, в первую очередь, с ограничением доступа к нему террористических групп. И если государство использует запрещенное автономное оружие, какую ответственность оно должно за это нести?

«Наступила эра роботов-убийц. Что будет дальше, зависит от человечества», — заключает автор доклада.
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".