Статья
3026
1 декабря 2020 14:34
Неудобная правда: риски использования искусственного интеллекта в аналитическом прогнозировании
Все люди, общества и правительства стремятся к снижению неопределенности во всех аспектах жизни, поэтому прогнозирование является одной из главных составляющих современного мира. Недавно Госдепартамент США создал Центр аналитики, который на основе искусственного интеллекта (ИИ) мог бы обрабатывать большие объемы информации для оценки и совершенствования внешнеполитических решений. Однако использование ИИ в аналитическом прогнозировании несет в себе ряд рисков. Об этом говорится в докладе научного сотрудника Брукингского института США Хехэр Рофф.Автор доклада рассматривает прогностические системы, которые пытаются предсказать социальные явления. Использование ИИ для прогнозирования сложных социальных явлений и применение их в качестве основы для рекомендаций высшим руководителям в сфере национальной безопасности будет всё более рискованным, так как руководители высшего звена и лица, принимающие решения, могут придавать этим оценкам слишком большое значение, не принимая во внимание их недостатки.
Системы прогнозирования на основе искусственного интеллекта набирают популярность в сфере национальной безопасности. В пример приводится американский проект Embers (Early Model-Based Event Recognition using Surrogates — раннее распознавание событий на основе модели с использованием суррогатов), целью которой является прогнозирование беспорядков, исхода выборов, вспышек болезней и внутриполитических кризисов. Проект разрабатывала группа из семидесяти ведущих ученых. Вначале система прогнозировала протестные настроения в странах Латинской Америки. Позже работа была расширена на государства Ближнего Востока и Северной Африки.
Данные поступают в Embers из открытых источников: блогов, соцсетей, новостных лент. Метод прогнозирования основан на аффективных высказываниях в английском языке. Embers применяет запрограммированный лексикон, переводит его на испанский и португальский языки, а затем вычисляет трехмерную «оценку настроения».
Во многих случаях система Embers точно предсказала события, связанные с беспорядками. Однако какое значение следует придавать аффективной лексике для оценки общественного настроения?
Автор доклада отмечает, что есть ряд особенностей, из-за которых прогнозы могут быть неточными. Во-первых, этот лексикон изначально был разработан для английского языка, и переводы могут не иметь одинакового значения в разных диалектах или группах населения. Во-вторых, он основан на результатах исследований, которые проводились на студентах от 18 до 20 лет. Таким образом, лексическая база имеет особенности, характерные именно для этой группы населения: самые высокие оценки выпали на тенденции, связанные с либеральной демократией, капитализмом, христианством и статусом студента. Кроме этого, все религиозные термины, используемые в лексиконе, относятся к христианской вере, в нем нет терминов для обозначения других религий. Для Латинской Америки, которая исповедует в основном христианство, это не является проблемой, но нельзя то же самое сказать о Ближнем Востоке и Северной Африке.
Чтобы уменьшить неопределенность в прогнозе, необходимо понять, где могут возникнуть проблемы из-за ограничений в архитектуре алгоритмов Embers. Во многих областях искусственный интеллект ограничен из-за неадекватности конструкции модели или данных.
Кроме этого, системы искусственного интеллекта, которые основаны на машинном обучении, не являются нейтральными в связи с тем, что на результаты машинного обучения может сильно повлиять субъективность разработчика, когда он выбирает алгоритм.
Результаты прогнозов на основе анализа аффективной лексики могут быть надежными только для небольшой популяции, и было бы нецелесообразно обобщать на другие группы населения и народы. Признание этих особенностей имеет важнейшее значение, особенно при принятии внешнеполитических решений.
28 ноября 2023
Колонки
Итоги AI Journey
Павел Иванов о конференции AI Journey
26 мая 2023
Главное
Регулирование ИИ: обзор западных инициатив
Проблемы международного регулирования
систем искусственного интеллекта активно обсуждаются в экспертном сообществе. Американские аналитики предупреждают, что «простых ответов о регулировании ИИ нет», однако существует ряд международных форумов, на которых обсуждается сотрудничество в области международного управления ИИ и которые могли бы стать...
17 мая 2023
Главное
Шесть неудобных вопросов о развитии ИИ
Технологии искусственного интеллекта
уже сейчас внедряются в самых разных отраслях: от сферы услуг и образования, до медицины и оборонной промышленности. Директор Центра искусственного интеллекта и передовых технологий Вадхвани Грегори Аллен на страницах Центра стратегических и международных исследований (CSIS) рассуждает о том, на какие вопросы должны отвечать инициаторы внедрения ИИ в оборонной сфере.