Статья
960 22 декабря 2020 9:48

Ядерным оружием будет управлять искусственный интеллект: угрожает ли это человечеству

В последнее время в СМИ активизировались дискуссии о внедрении искусственного интеллекта (ИИ) в сферу ядерных разработок, однако интеграция ИИ в этой области имеет определенные риски и может повлиять на стратегическую стабильность. Научный сотрудник программы международной безопасности американского Центра стратегических и международных исследований Линдси Шеппард проанализировала риски внедрения ИИ в такие сферы как разведывательная деятельность, безопасность, оборона и оптимизация данных.

Успехи машинного обучения в последние годы объясняются тенденциями к увеличению объемов данных, наличием относительно недорогой вычислительной мощности и миниатюризацией электронных компонентов для компьютеров. Однако, независимо от области применения, системы ИИ далеко не надежны и имеют свои уязвимости. Безопасность машинного обучения — недавно зародившаяся область исследований, где злоумышленники в обозримом будущем могут получить преимущество.

Нынешний всплеск исследований и разработок напоминает предыдущие циклы в области ИИ. В литературе по ИИ часто упоминаются периоды значительного спада в исследованиях, финансировании и общих ожиданиях после периодов значительного ажиотажа и перспектив. Первый такой период пришелся на 1960-970-е годы, второй — на конец 1980-х — начало 1990-х годов после появления перспективных экспертных систем — подхода, основанного на попытках реализовать в компьютерах знания специалистов по решению проблем в конкретной области. Уязвимость этих систем заключается в том, что они не могут определить, находится ли проблема, которую они пытаются решить, в пределах их области знаний. Те, кто намерен внедрять искусственный интеллект и машинное обучение, должны найти баланс между потенциалом и ограничениями современных технологий.

Шеппард отмечает, что сфера ядерных разработок известна своим консервативным подходом к интеграции новых технологий, и выделяет области применения ИИ в рамках ядерной миссии, которые требуют комплексного подхода: безопасность и оборона, разведывательная деятельность и указания и предупреждения, моделирование, оптимизация и анализ данных.

Ядерное предприятие должно обезопасить и защитить свои объекты и оружие от кибернетических и физических вторжений при помощи непрерывного мониторинга и оценки физических рисков или рисков кибербезопасности. Существующие приложения ИИ основаны на оптико-электронных системах или системах видеонаблюдения для обнаружения путем автоматической идентификации. Также они используют машинное обучение для обнаружения и классификации вредоносных программ, мониторинга активности пользователей, автоматическое реагирования на инциденты и смягчение последствий атак. Однако систему компьютерного зрения, например, можно ввести в заблуждение при помощи очков, нашивок или футболок, которые приводят к ошибкам в классификации людей, носящих их.
  
Еще одним примером потенциального использования ИИ и машинного обучения является нацеливание на ядерные ресурсы противника. Такие страны, как Россия, Китай и Корейская Народно-Демократическая Республика (КНДР) инвестируют в наземно-мобильные ядерные средства, что усложняет стратегии контрсилового нападения. Обладание железнодорожными или передвижными ядерными силами может повысить их устойчивость, ограничивая способность противника обнаруживать их. Аналитики разведки могут использовать ИИ при обработке данных, необходимых для выявления закономерностей движения, состояния предупреждений и графиков технического обслуживания.

Лица, контролирующие сферу ядерных разработок, должны быть готовы оценить преимущества и риски включения машинного обучения в систему безопасности, а решение о внедрении ИИ должно приниматься с пониманием того, что новые технологии могут привнести в системы уязвимые места.
Комментарии для сайта Cackle
19 марта 2021 Новости
Европа берет под контроль искусственный интеллект
 Европа берет под контроль искусственный интеллект Евросоюз приступил к разработке международных инструментов регулирования искусственного интеллекта. Специалисты признают, что надвигающиеся глобальные проблемы, такие как создание вакцины для борьбы со следующими пандемиями или ограничение выбросов, вызывающих изменение климата, будут решаться с помощью инновационных инструментов искусственного интеллекта (ИИ) и машинного обучения.
11 декабря 2020 Колонки
Персонализация с помощью искусственного интеллекта в цифровых медиа: политические и социальные последствия
 Персонализация с помощью искусственного интеллекта в цифровых медиа: политические и социальные последствия Массовое внедрение персонализации в цифровом пространстве имеет серьезные последствия, связанные с нарушением прав человека, конфиденциальности и свободы выражения мнения, а также политической безопасностью.
КомментарийКомментарий Смерть человека: к чему приведет развитие искусственного интеллекта политологДмитрий Евстафьев
© 2008 - 2021 НО - Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".