Статья
358 26 сентября 2024 8:15

Генеративные угрозы

Среди рисков иностранного вмешательства, связанных с использованием новых технологий, отдельное место занимают возможные угрозы со стороны технологий искусственного интеллекта (ИИ). Эксперты указывают на возможное использование ИИ для вмешательства в электоральные процессы, определения потенциальных целей для воздействия в ходе кампаний по вмешательству и использования методик синтеза мультимедиа (дипфейков) для дезинформации и провокаций.

Потенциально для вмешательства могут использоваться даже общедоступные чат-боты с генеративным искусственным интеллектом, например, ChatGPT. Причем при соответствующем запросе тот же ChatGPT предлагает развернутую модель потенциального применения собственных возможностей для вмешательства в политические, экономические и технологические процессы.

В ответ на широко сформулированный запрос «как GPT может использоваться для иностранного вмешательства?» GPT-4o предлагает пять основных направлений использования.

1. Распространение дезинформации

Создание фальшивых новостей и сообщений: GPT может генерировать правдоподобные, но ложные статьи, посты в социальных сетях и другие тексты, которые распространяют дезинформацию.

Распространение теорий заговора: С помощью GPT можно создавать и распространять контент, поддерживающий различные теории заговора, которые могут дестабилизировать общественное мнение.

Повышение вариативности атак: GPT может значительно упростить написание сайтов, простых игр или других инструментов, которые позволят геймифицировать процесс дезинформации, тем самым повысив его эффективность.

Написание кодов для автоматизированного сбора информации: GPT повысит эффективность анализа кампаний по дезинформации, а затем может быть использован для донастройки таргетирования.

2. Вмешательство в политические процессы

Манипуляция общественным мнением: GPT может быть использован для создания постов и комментариев в социальных сетях, направленных на изменение мнения избирателей, поддержку или дискредитацию кандидатов.

Влияние на результаты выборов: Массовое генерирование контента, направленного на дискредитацию определённых политических сил или поддержку других, может повлиять на результаты выборов.

3. Кибератаки и социальная инженерия 

Фишинговые атаки: GPT может использоваться для генерации персонализированных сообщений, которые вводят пользователей в заблуждение и заставляют их раскрыть конфиденциальную информацию.

Распространение вредоносного ПО: Модель может создавать тексты, побуждающие людей скачивать и запускать вредоносное ПО, способное нарушить работу критически важных систем.

4. Углубление социальных разногласий

Стимулирование конфликтов: GPT может генерировать контент, который усиливает существующие социальные и культурные разногласия, что может привести к дестабилизации общества.

Персонализированное воздействие на целевые аудитории: GPT способен адаптировать содержание информации под определённые культурные и социальные группы. Это может быть использовано для того, чтобы создавать контент, который будет более убедительным и влиятельным для целевой аудитории в определённой стране или регионе.

Автоматизация манипулятивных кампаний: Используя GPT, можно автоматизировать процесс создания и распространения контента, который направлен на манипуляцию общественным мнением в другой стране. Это может включать создание множества текстов, которые кажутся уникальными, но несут одну и ту же манипулятивную идею.

Создание и управление фейковыми аккаунтами: GPT может быть использован для ведения множества фейковых аккаунтов в социальных сетях. Эти аккаунты могут активно участвовать в дискуссиях, публиковать провокационные комментарии, распространять ложные сообщения и влиять на общественные настроения, создавая впечатление массовой поддержки или протеста.

5. Экономическое вмешательство

Финансовые манипуляции: GPT может создавать тексты, влияющие на финансовые рынки, распространяя слухи или ложные отчеты о компаниях.

Подрыв доверия к экономическим институтам: Создание контента, направленного на подрыв доверия к финансовым системам и институтам страны.


Для защиты от обозначенных рисков GPT-4o предлагает действовать на четырех уровнях: законодательном, технологическом, образовательном и социокультурном.

1. Законодательный уровень

Разработка законов и нормативных актов, регулирующих использование ИИ, включая меры против использования ИИ для распространения дезинформации и вмешательства в политические процессы.

Международное сотрудничество для создания глобальных стандартов и механизмов противодействия вмешательству через ИИ.

2. Технологический уровень

Создание и внедрение инструментов для выявления и отслеживания контента, созданного ИИ. Например, разработка систем, способных определять, был ли текст сгенерирован ИИ, и маркировать его.

Меры по обеспечению кибербезопасности: усиление защиты информационных систем от атак, связанных с использованием ИИ, включая фишинг и распространение вредоносного ПО.

3. Образовательный уровень

Просвещение населения: разработка программ по цифровой грамотности, которые учат людей распознавать дезинформацию и фейки.

Обучение специалистов: подготовка профессионалов, способных распознавать и противодействовать вмешательству с использованием ИИ.

4. Социальный и культурный уровень

Продвижение критического мышления: поддержка инициатив, которые способствуют развитию критического мышления в обществе.

Поощрение прозрачности медиа: поддержка медиа и платформ, которые обеспечивают прозрачность в отношении источников информации и процессов её создания.

Очевидно, что способов использования больших языковых моделей для вмешательства куда больше, чем предлагает GPT-4o в ответ на простой запрос. Более того, для вмешательства могут использоваться специализированные модели с расширенным функционалом.

В ближайшие годы мы неизбежно увидим развитие технологических решений для попыток повлиять на внутренние политические процессы в иностранных государствах. Одновременно с этим государства будут превентивно выстраивать механизмы купирования новых угроз. Начинается гонка технологий вмешательства и механизмов защиты.

Даниил Пареньков, заместитель заведующего Кафедрой политической теории МГИМО, эксперт Центра политической конъюнктуры

24 сентября 2024 Колонки
Светлое будущее без всякой конкретики
 Светлое будущее без всякой конкретики Глеб Кузнецов о проблемах развития ИИ
20 сентября 2024 Новости  Генассамблея ООН: на что обратить внимание Ключевыми событиями и темами сентябрьских заседаний Генеральной Ассамблеи (ГА) ООН, на которые стоит обратить внимание, являются Саммит будущего, Африка, глобальное цифровое развитие, использование ИИ в образовании и адаптация стран к изменениям климата, отмечают эксперты Brookings Institution в докладе What to watch for at the 2024 UN General Assembly. «Актуальные комментарии» подготовили обзор главных тезисов доклада. 20 сентября 2024 Новость  Снижение рейтингов партий: опрос ФОМ Рейтинги партий снизились после роста в поствыборную неделю, а тревожность в российском обществе увеличилась. Об этом свидетельствуют результаты опроса, проведенного Фондом «Общественное мнение» с 13 по 15 сентября.
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".