Статья
1155
25 ноября 2024 12:15
ИИ в час Х
В мире, где каждое решение может стать точкой невозврата, правительствам приходится искать новые инструменты, чтобы справляться с внезапными кризисами. ИИ предлагает нечто большее, чем просто аналитику: он обещает стать союзником, способным видеть скрытые угрозы, предлагать неожиданные стратегии и предсказывать последствия ещё до того, как первое слово будет сказано за столом переговоров. Но готовы ли политики довериться машине в самый горячий момент? Как в таком случае изменится процесс принятия решений? Сможет ли ИИ помочь или, наоборот, усложнит дипломатическую и военную стратегию? Чтобы исследовать эти вопросы, К.Чиввис и Д.Кавана смоделировали гипотетический кризис вокруг блокады Тайваня и изучили, как участие ИИ может повлиять на скорость принятия решений, восприятие и заблуждения, групповое мышление и бюрократическую политику.Помогает или мешает?
На первый взгляд, способность ИИ быстро анализировать большие объемы данных, выявлять скрытые тенденции и предлагать обоснованные варианты действий может кардинально ускорить процесс принятия решений. По словам замминистра обороны США К.Хикс, ИИ способен не только повысить скорость реакции командиров, но и улучшить точность и качество их решений. Однако, как показали обсуждения экспертов, собранных для анализа гипотетического кризиса вокруг Тайваня, внедрение ИИ может создать неожиданные сложности и замедлить процесс, вместо того чтобы его ускорить.
Во-первых, ИИ генерирует не только ответы, но и новые вопросы. Аналитикам приходится тратить время на проверку данных, предложенных ИИ, и сопоставление их с традиционными источниками информации. Эксперты, участвовавшие в модели кризиса, столкнулись с необходимостью детально разобраться в том, как ИИ приходит к своим выводам, прежде чем довериться его рекомендациям. Более того, присутствие ИИ за столом переговоров превратилось в еще один «голос», который требует времени для завоевания доверия.
Дополнительные риски создаются и в условиях информационных манипуляций, например, через дипфейки. В кризисной ситуации, как в сценарии с поддельным видео ареста президента Тайваня китайскими силами, недоверие к подобной информации может спровоцировать хаос. Даже если ложные данные будут быстро разоблачены, их влияние на общественное мнение и давление на правительство может создать препятствия для своевременного принятия решений.
(Дис)баланс влияния
Умение ИИ ставить под сомнение привычные убеждения и помогать в анализе сценариев несёт как явные преимущества, так и потенциальные риски. Одним из главных плюсов является его способность противодействовать групповому мышлению и когнитивным искажениям, которые часто возникают в условиях ограниченного времени. Однако у этого есть и обратная сторона. ИИ может усугубить групповое мышление, особенно если доверие к нему становится чрезмерным. В условиях кризиса, где времени на раздумья мало, люди могут избегать критики предложений ИИ, рассматривая его как бесспорного авторитета. Это создает риск того, что даже опытные специалисты, способные предложить инновационные идеи, окажутся в тени технологий. Сравнение с «эффектом Г.Киссинджера», где авторитет личности доминирует над мнением группы, ярко иллюстрирует, как выбор идти на поводу у ИИ может снизить гибкость и качество решений.
Кроме того, системы, построенные на базе ИИ, неизбежно отражают встроенные алгоритмы и предпосылки их разработчиков. В результате они могут укреплять позиции тех ведомств, которые владеют наиболее продвинутыми технологиями. Например, системы, разработанные Минобороны, могут формировать более милитаризированные подходы к решению задач по сравнению с системами, созданными другими агентствами.
Проблема становится более острой из-за неравномерного распределения ресурсов между государственными структурами. Бюджеты Минобороны превосходят финансирование других ведомств, таких как Госдепартамент. Следовательно, увеличивается вероятность того, что наиболее мощные и передовые системы ИИ будут принадлежать именно этим структурам. Таким образом, вместо того чтобы стать нейтральным инструментом, ИИ может укрепить существующие дисбалансы внутри бюрократического аппарата. Это создает риск, что односторонний взгляд, свойственный ведомству-разработчику, станет доминирующим в сложных ситуациях, требующих многогранного анализа.
Риск эскалации
Хотя ИИ широко воспринимается как инструмент, снижающий риск неправильной интерпретации данных, его внедрение может, наоборот, усилить ошибочные суждения. Люди склонны видеть действия других как более организованные и преднамеренные, чем они есть на самом деле. В случае с ИИ эта тенденция может усугубиться из-за избыточного доверия к его точности и объективности ИИ, что усиливает склонность видеть в действиях оппонента четкий замысел, даже если он отсутствует.
Сценарии, связанные с применением ИИ в принятии решений, особенно в военных конфликтах, демонстрируют, насколько сложным становится понимание намерений противника. Например, новость о том, что Китай полностью доверил ИИ принятие ключевых решений, может быть воспринята как демонстрация жесткой приверженности эскалационным мерам. Однако не совсем ясно, продиктованы ли конкретные действия людей решениями алгоритма или они являются человеческой инициативой. Такая неопределенность создает дополнительное напряжение, усложняет интерпретацию сигналов и повышает риск просчетов, что может привести к непреднамеренной эскалации.
Возможные ошибки в восприятии действий, совершаемых системами ИИ, становятся особенно опасными в условиях, когда от своевременной и точной интерпретации зависит стратегия сторон. Например, если США интерпретируют агрессивное поведение Китая как намеренное решение ИИ, это может подтолкнуть к более жесткому ответу. В то же время существует вероятность, что такие действия могут быть вызваны сбоями алгоритма или ошибками в программировании, но эти факторы не всегда учитываются, когда доверие к технологиям высоко. Более того, люди склонны меньше прощать ошибки, допущенные машинами, чем ошибки, совершенные людьми, что может усиливать напряженность в случае применения ИИ-оружия. Например, исследование М.Горовица и Э.Лин-Гринберга показало, что случайные действия ИИ, приведшие к жертвам, с большей вероятностью вызовут ответные меры, чем аналогичные ошибки, допущенные человеком. Такой подход увеличивает вероятность эскалации, даже если обе стороны не стремятся к конфликту.
Границы доверия
Даже самые передовые алгоритмы подвержены ошибкам, могут демонстрировать предвзятость и давать неожиданные сбои, поэтому использование ИИ требует осознанного подхода и опыта, особенно когда речь идет о ситуациях, где контекст играет решающую роль. Именно обучение пользователей чаще всего определяет, принесет ли ИИ пользу или создаст дополнительные риски. Практическая работа с инструментами, основанными на ИИ, позволяет осознать их ограничения, развить уверенность в использовании и лучше понять, в каких ситуациях технологии применимы, а где их использование может быть проблематичным. Кроме того, знание возможностей ИИ, разрабатываемого потенциальными противниками, позволяет оценить их намерения и подготовиться к возникающим вызовам.
Вместе с тем, ИИ никогда не станет простой заменой человеческому анализу. Стратегические решения всегда будут требовать участия людей, способных оценивать разные источники и учитывать сложный контекст. Следовательно, усиливается необходимость создания международных норм регулирования ИИ, которые могли бы уменьшить неопределенность и снизить риск ошибочных восприятий между странами, особенно между США и Китаем. Подобный механизм может быть схож с режимами контроля за вооружениями, формируя правила, ограничивающие разработку и использование ИИ в военных целях.
Однако выработка таких принципов остается сложной задачей. Основные достижения в ИИ принадлежат не государствам, а коммерческим компаниям, и скорость развития технологий лишь усложняет возможность контроля. Администрация Д.Байдена уже представила политику регулирования военного применения ИИ и создала Институт безопасности ИИ для предотвращения опасных последствий. Хотя США и их союзники демонстрируют определенное единство в подходах, реальное влияние будет достигнуто только при участии Китая. Переговоры между двумя странами по вопросам безопасности ИИ начались в мае 2024 года, но из-за сложных отношений и ограниченности диалога прогресс в ближайшее время может быть незначительным.
Виктория Совгирь, аналитик Центра политической конъюнктуры
#ВикторияСовгирь
3 декабря 2024
Колонки
Цифровая муза
Виктория Совгирь о том, как ИИ влияет на
мир искусства
18 ноября 2024
Колонки
Цифровой социолог
Виктория Совгирь о том, вытеснит ли ИИ традиционные
методы опросов
13 ноября 2024
Колонки
Искусственный депутат на подходе
Виктория Совгирь о рисках и возможностях
ИИ-парламента