Генеративные угрозы
Среди рисков иностранного вмешательства, связанных с использованием новых технологий, отдельное место занимают возможные угрозы со стороны технологий искусственного интеллекта (ИИ). Эксперты указывают на возможное использование ИИ для вмешательства в электоральные процессы, определения потенциальных целей для воздействия в ходе кампаний по вмешательству и использования методик синтеза мультимедиа (дипфейков) для дезинформации и провокаций.
Потенциально для вмешательства могут использоваться даже общедоступные чат-боты с генеративным искусственным интеллектом, например, ChatGPT. Причем при соответствующем запросе тот же ChatGPT предлагает развернутую модель потенциального применения собственных возможностей для вмешательства в политические, экономические и технологические процессы.
В ответ на широко сформулированный запрос «как GPT может использоваться для иностранного вмешательства?» GPT-4o предлагает пять основных направлений использования.
1. Распространение дезинформации
Создание фальшивых новостей и сообщений: GPT может генерировать правдоподобные, но ложные статьи, посты в социальных сетях и другие тексты, которые распространяют дезинформацию.
Распространение теорий заговора: С помощью GPT можно создавать и распространять контент, поддерживающий различные теории заговора, которые могут дестабилизировать общественное мнение.
Повышение вариативности атак: GPT может значительно упростить написание сайтов, простых игр или других инструментов, которые позволят геймифицировать процесс дезинформации, тем самым повысив его эффективность.
Написание кодов для автоматизированного сбора информации: GPT повысит эффективность анализа кампаний по дезинформации, а затем может быть использован для донастройки таргетирования.
2. Вмешательство в политические процессы
Манипуляция общественным мнением: GPT может быть использован для создания постов и комментариев в социальных сетях, направленных на изменение мнения избирателей, поддержку или дискредитацию кандидатов.
Влияние на результаты выборов: Массовое генерирование контента, направленного на дискредитацию определённых политических сил или поддержку других, может повлиять на результаты выборов.
3. Кибератаки и социальная инженерия
Фишинговые атаки: GPT может использоваться для генерации персонализированных сообщений, которые вводят пользователей в заблуждение и заставляют их раскрыть конфиденциальную информацию.
Распространение вредоносного ПО: Модель может создавать тексты, побуждающие людей скачивать и запускать вредоносное ПО, способное нарушить работу критически важных систем.
4. Углубление социальных разногласий
Стимулирование конфликтов: GPT может генерировать контент, который усиливает существующие социальные и культурные разногласия, что может привести к дестабилизации общества.
Персонализированное воздействие на целевые аудитории: GPT способен адаптировать содержание информации под определённые культурные и социальные группы. Это может быть использовано для того, чтобы создавать контент, который будет более убедительным и влиятельным для целевой аудитории в определённой стране или регионе.
Автоматизация манипулятивных кампаний: Используя GPT, можно автоматизировать процесс создания и распространения контента, который направлен на манипуляцию общественным мнением в другой стране. Это может включать создание множества текстов, которые кажутся уникальными, но несут одну и ту же манипулятивную идею.
Создание и управление фейковыми аккаунтами: GPT может быть использован для ведения множества фейковых аккаунтов в социальных сетях. Эти аккаунты могут активно участвовать в дискуссиях, публиковать провокационные комментарии, распространять ложные сообщения и влиять на общественные настроения, создавая впечатление массовой поддержки или протеста.
5. Экономическое вмешательство
Финансовые манипуляции: GPT может создавать тексты, влияющие на финансовые рынки, распространяя слухи или ложные отчеты о компаниях.
Подрыв доверия к экономическим институтам: Создание контента, направленного на подрыв доверия к финансовым системам и институтам страны.
Для защиты от обозначенных рисков GPT-4o предлагает действовать на четырех уровнях: законодательном, технологическом, образовательном и социокультурном.
1. Законодательный уровень
Разработка законов и нормативных актов, регулирующих использование ИИ, включая меры против использования ИИ для распространения дезинформации и вмешательства в политические процессы.
Международное сотрудничество для создания глобальных стандартов и механизмов противодействия вмешательству через ИИ.
2. Технологический уровень
Создание и внедрение инструментов для выявления и отслеживания контента, созданного ИИ. Например, разработка систем, способных определять, был ли текст сгенерирован ИИ, и маркировать его.
Меры по обеспечению кибербезопасности: усиление защиты информационных систем от атак, связанных с использованием ИИ, включая фишинг и распространение вредоносного ПО.
3. Образовательный уровень
Просвещение населения: разработка программ по цифровой грамотности, которые учат людей распознавать дезинформацию и фейки.
Обучение специалистов: подготовка профессионалов, способных распознавать и противодействовать вмешательству с использованием ИИ.
4. Социальный и культурный уровень
Продвижение критического мышления: поддержка инициатив, которые способствуют развитию критического мышления в обществе.
Поощрение прозрачности медиа: поддержка медиа и платформ, которые обеспечивают прозрачность в отношении источников информации и процессов её создания.
Очевидно, что способов использования больших языковых моделей для вмешательства куда больше, чем предлагает GPT-4o в ответ на простой запрос. Более того, для вмешательства могут использоваться специализированные модели с расширенным функционалом.
В ближайшие годы мы неизбежно увидим развитие технологических решений для попыток повлиять на внутренние политические процессы в иностранных государствах. Одновременно с этим государства будут превентивно выстраивать механизмы купирования новых угроз. Начинается гонка технологий вмешательства и механизмов защиты.
Даниил Пареньков, заместитель заведующего Кафедрой политической теории МГИМО, эксперт Центра политической конъюнктуры