Комментарий
1908
5 мая 2025 11:39
Нейросети убивают демократию? Будущее технологий и народовластие

Внутренние угрозы
ИИ развивается такими темпами, что ни правительства, ни корпорации, ни частные лица больше не могут точно спрогнозировать его дальнейшее влияние на общество. С 2022 по 2023 год было создано более 15 млрд изображений с помощью алгоритмов генерации по текстовому описанию — столько же фотографы сделали за несколько десятилетий с момента появления первой фотографии в 1826 году. С запуском DALL·E 2 пользователи начали создавать в среднем около 34 млн изображений в день. Это свидетельствует о масштабной трансформации цифрового пространства, которое всё больше заполняется синтетическим контентом. ИИ-сервисы меняют сам характер творческой деятельности, стирая границы между искусственным и человеческим творчеством, что вызывает как восхищение новыми возможностями, так и серьёзные опасения относительно подлинности и достоверности визуальной информации.
Генеративный искусственный интеллект уже начал заметно влиять на политическую сферу. Во время президентской кампании в США 2024 года социальные сети наводнили фальшивые изображения и видео, созданные с помощью нейросетей. Политические деятели, в том числе Д.Трамп и его сторонники, активно делились мемами и картинками, сгенерированными ИИ. Один из показательных случаев — поддельное изображение певицы Т.Свифт, якобы выражающей поддержку Трампу, которое он опубликовал в своих соцсетях, несмотря на то, что артистка не заявляла о такой позиции. Подобными методами пользовались и демократы, распространяя сгенерированные изображения с Д.Трампом в момент его предполагаемого задержания.
Тем не менее подобные случаи происходят не только в США. В Великобритании и Словакии дипфейковые аудиозаписи с поддельными голосами премьер-министра К.Стармера и лидера оппозиции М.Шимечки вызвали широкий общественный резонанс. В Турции кандидат в президенты вынужден был снять свою кандидатуру после публикации компрометирующих ИИ-видео. В Аргентине, во время выборов 2023 года, оба ведущих кандидата активно использовали дипфейки для создания дискредитирующих материалов о своих соперниках. Всё это показывает, что ИИ усиливает методы информационной войны, превращая её в борьбу за восприятие реальности самими гражданами. При этом последствия касаются не только отдельных политиков, но и всей системы демократии, в которой подлинность информации становится всё труднее проверить.
Одновременно с этим, растущая доступность технологий создания дипфейков снижает затраты на производство фальшивого контента, что открывает возможности для манипуляций со стороны недобросовестных игроков. С помощью чат-ботов можно автоматически распространять ложную информацию по всему миру, используя машинный перевод для преодоления языковых барьеров. В интернете формируются сообщества, которые обмениваются инструкциями по использованию генеративных нейросетей для создания мемов и пропагандистских материалов. Социальные сети лишь усиливают эту проблему: алгоритмы платформ обеспечивают вирусное распространение такого контента, зачастую без должной проверки достоверности.
Внешнее влияние
В долгосрочной перспективе утрата доверия может подорвать устойчивость демократических систем, делая их более восприимчивыми к внешнему влиянию. В целом, с появлением генеративного ИИ вмешательство во внутренние дела других государств (FIMI) превратилось в эффективный инструмент подрыва демократических принципов. Европейская служба внешних связей определяет FIMI как скоординированные действия, направленные на манипуляцию политическими процессами, которые могут нанести ущерб демократическим ценностям. Использование ИИ для создания синтетических медиа и цифровых инструментов позволяет значительно усовершенствовать методы манипуляции, делая их более изощренными по сравнению с традиционными средствами, такими как пропаганда или цензура. Например, Китай особенно активно развивает технологии ИИ, укрепляя свои позиции в сфере цифровых инноваций. Его проект «Цифровой шелковый путь» способствует распространению цифровой инфраструктуры в странах, находящихся на этапе развития, тем самым расширяя влияние Китая в глобальном цифровом пространстве.
В то же время западные технологические компании, контролирующие большую часть мирового рынка ИИ, оказывают значительное влияние на демократические процессы через свои платформы социальных медиа, сбор данных и модерацию информации. Например, алгоритмы TikTok, направленные на усиление контента, выгодного определённым политическим силам, могут манипулировать общественным мнением. Власти Румынии даже призвали приостановить использование TikTok из-за подозрений, что его алгоритмы способствуют кандидатам с крайне правыми взглядами. Ещё один пример — YouTube, принадлежащий Google: его алгоритм рекомендаций содействовал распространению праворадикального контента в период подготовки к выборам в Финляндии в 2024 году. В отчете финских организаций Faktabaari и CheckFirst отмечается, что несмотря на изменения в алгоритме, YouTube продолжал чаще продвигать видео, связанные с партией «Истинные финны», в два с половиной раза по сравнению с другими политическими силами.
Кроме того, правительства и политические силы становятся все более зависимыми от технологий сбора данных, что стирает грань между гражданами и потребителями. Методы, основанные на постоянном анализе цифровых следов граждан, такие как их поведение в интернете или активность в социальных сетях, позволяют прогнозировать политические предпочтения. Подобное явление, известное как demos scraping, становится угрозой, когда используется в массовом масштабе с применением ИИ-технологий. Заинтересованные лица могут создавать персонализированные нарративы, которые используют личные предвзятости и уязвимости, делая пропаганду более эффективной и сложной для выявления. Технологии ИИ и автоматизация сбора данных превращают личные предпочтения граждан в инструмент манипуляции, что ставит под угрозу демократические принципы и общественное доверие к политическим институтам.
Защита демократии
Для противодействия рискам, связанным с использованием генеративного ИИ в политике, необходим всесторонний подход, включающий жесткое регулирование, международное сотрудничество и технические меры обеспечения прозрачности. Одним из таких решений является внедрение водяных знаков для ИИ-сгенерированного контента: видимые знаки способствуют открытости, но могут ухудшать визуальное восприятие, тогда как скрытые — менее навязчивы, но подвержены подделке. На международной арене уже предпринимаются шаги к стандартизации: G7 выступила за разработку водяных знаков, а в рамках EU AI Act предусмотрены требования к прозрачности и отслеживаемости ИИ-продуктов. Подобные инициативы закладывают фундамент для глобальных норм, способных ограничить распространение фальсифицированных материалов и минимизировать их влияние на демократические процессы. В условиях стремительного развития ИИ именно международная координация и правовая определенность становятся ключевыми факторами сохранения доверия к информации.
Технологические компании также должны активно участвовать в создании решений для проверки подлинности цифрового контента. Например, Microsoft уже разработала инструменты, ориентированные на использование в политических кампаниях. Однако, несмотря на прогресс в этой области, распознавание дипфейков остаётся сложной задачей, так как технологии их создания развиваются быстрее, чем методы их обнаружения. Социальные платформы могут сыграть ключевую роль, внедряя системы для маркировки и ограничения распространения ложной информации.
Тем не менее одних лишь технологий обнаружения недостаточно — без участия регуляторов и повышения цифровой грамотности общества борьба с дезинформацией будет неполной. Важную роль играют образовательные инициативы, направленные на развитие критического мышления и осознанного восприятия информации. Например, Google реализует кампании по противодействию дезинформации, обучая пользователей распознавать манипулятивный контент. В Финляндии на государственном уровне внедряются программы по обучению цифровым и ИИ-компетенциям, что позволяет снижать уязвимость населения перед информационными угрозами. Повышение осведомлённости граждан становится ключевым элементом в укреплении устойчивости демократических обществ к внешнему влиянию и политическим манипуляциям.
Виктория Совгирь, аналитик Центра политической конъюнктуры.
#ВикторияСовгирь