Статья
1320 22 декабря 2020 9:48

Ядерным оружием будет управлять искусственный интеллект: угрожает ли это человечеству

В последнее время в СМИ активизировались дискуссии о внедрении искусственного интеллекта (ИИ) в сферу ядерных разработок, однако интеграция ИИ в этой области имеет определенные риски и может повлиять на стратегическую стабильность. Научный сотрудник программы международной безопасности американского Центра стратегических и международных исследований Линдси Шеппард проанализировала риски внедрения ИИ в такие сферы как разведывательная деятельность, безопасность, оборона и оптимизация данных.

Успехи машинного обучения в последние годы объясняются тенденциями к увеличению объемов данных, наличием относительно недорогой вычислительной мощности и миниатюризацией электронных компонентов для компьютеров. Однако, независимо от области применения, системы ИИ далеко не надежны и имеют свои уязвимости. Безопасность машинного обучения — недавно зародившаяся область исследований, где злоумышленники в обозримом будущем могут получить преимущество.

Нынешний всплеск исследований и разработок напоминает предыдущие циклы в области ИИ. В литературе по ИИ часто упоминаются периоды значительного спада в исследованиях, финансировании и общих ожиданиях после периодов значительного ажиотажа и перспектив. Первый такой период пришелся на 1960-970-е годы, второй — на конец 1980-х — начало 1990-х годов после появления перспективных экспертных систем — подхода, основанного на попытках реализовать в компьютерах знания специалистов по решению проблем в конкретной области. Уязвимость этих систем заключается в том, что они не могут определить, находится ли проблема, которую они пытаются решить, в пределах их области знаний. Те, кто намерен внедрять искусственный интеллект и машинное обучение, должны найти баланс между потенциалом и ограничениями современных технологий.

Шеппард отмечает, что сфера ядерных разработок известна своим консервативным подходом к интеграции новых технологий, и выделяет области применения ИИ в рамках ядерной миссии, которые требуют комплексного подхода: безопасность и оборона, разведывательная деятельность и указания и предупреждения, моделирование, оптимизация и анализ данных.

Ядерное предприятие должно обезопасить и защитить свои объекты и оружие от кибернетических и физических вторжений при помощи непрерывного мониторинга и оценки физических рисков или рисков кибербезопасности. Существующие приложения ИИ основаны на оптико-электронных системах или системах видеонаблюдения для обнаружения путем автоматической идентификации. Также они используют машинное обучение для обнаружения и классификации вредоносных программ, мониторинга активности пользователей, автоматическое реагирования на инциденты и смягчение последствий атак. Однако систему компьютерного зрения, например, можно ввести в заблуждение при помощи очков, нашивок или футболок, которые приводят к ошибкам в классификации людей, носящих их.
  
Еще одним примером потенциального использования ИИ и машинного обучения является нацеливание на ядерные ресурсы противника. Такие страны, как Россия, Китай и Корейская Народно-Демократическая Республика (КНДР) инвестируют в наземно-мобильные ядерные средства, что усложняет стратегии контрсилового нападения. Обладание железнодорожными или передвижными ядерными силами может повысить их устойчивость, ограничивая способность противника обнаруживать их. Аналитики разведки могут использовать ИИ при обработке данных, необходимых для выявления закономерностей движения, состояния предупреждений и графиков технического обслуживания.

Лица, контролирующие сферу ядерных разработок, должны быть готовы оценить преимущества и риски включения машинного обучения в систему безопасности, а решение о внедрении ИИ должно приниматься с пониманием того, что новые технологии могут привнести в системы уязвимые места.
Комментарии для сайта Cackle
20 декабря 2021 Новости
В Совфеде предложили запретить оборот роботов, способных принимать решения
 В Совфеде предложили запретить оборот роботов, способных принимать решения Комплексный законопроект, который предлагает принципы взаимоотношений робота и человека, разработали в Совете Федерации. Автором документа стал глава комитета верхней палаты парламента по экономической политике Андрей Кутепов.
14 декабря 2021 Новости
Экспертов МИД заменят искусственным интеллектом
 Экспертов МИД заменят искусственным интеллектом В 2022 году российский МИД собирается подготовить проект системы анализа big data, которая с помощью искусственного интеллекта будет анализировать данные о внешней политике. Об этом журналистам рассказал спецпредставитель министра иностранных дел России по вопросам цифровой трансформации Сергей Кирюшин.
10 декабря 2021 Новости
Искусственный интеллект: риски внедрения новой технологии
 Искусственный интеллект: риски внедрения новой технологии В чрезвычайно быстро развивающейся области искусственного интеллекта (ИИ) мало международного сотрудничества. Решающее значение для функционирования современного общества, особенно в высокотехнологичных областях, имеют технические стандарты, однако для новых технологий они возникают не в результате правительственных решений, а в результате инноваций частного сектора.
© 2008 - 2022 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".