Комментарий
2403 12 мая 2025 12:30

Граница между пропагандой и манипуляцией: этические пределы использования ИИ в политической коммуникации

Виктория Совгирь аналитик Виктория Совгирь

Виктория Совгирь
аналитик Виктория Совгирь
С развитием технологий ИИ изменяется не только способ распространения информации, но и сама природа политической коммуникации. Пропаганда, традиционно использовавшая медиа для формирования общественного мнения, теперь получила новые, более мощные инструменты воздействия. ИИ позволяет не только ускорить и масштабировать этот процесс, но и точно адаптировать сообщения под индивидуальные предпочтения и психологические особенности каждого гражданина. Хотя такие технологии предоставляют новые возможности для политических кампаний, они также вызывают вопросы о разграничении легитимной политической коммуникации и манипуляций, что требует пересмотра устоявшихся норм и разработки новых механизмов регулирования.

Трансформация пропаганды

Политическая пропаганда исторически служила инструментом влияния на массовое сознание и укрепления власти. В условиях традиционных медиа распространение информации было относительно медленным, а формы воздействия — более прямолинейными и распознаваемыми. Обнаружить манипуляцию в такой среде было проще: аудитория имела ограниченный доступ к источникам, а сам контент подвергался экспертной критике. Однако с развитием цифровых технологий, а особенно с внедрением искусственного интеллекта, произошло качественное изменение самой природы пропаганды. Современные алгоритмы способны не просто воспроизводить заранее заданные тезисы, но и формировать адаптивные, персонализированные нарративы, способные незаметно внедряться в информационное поле.

ИИ-системы анализируют огромные массивы пользовательских данных и на основе этого создают сообщения, которые точно соответствуют интересам, страхам и ценностям конкретной аудитории. Политическая коммуникация перестаёт быть массовой: теперь пользователь получает не универсальный лозунг, а сообщение, выстроенное под его личный профиль. Это усиливает эффект эхо-камер, в которых человек слышит лишь то, что подтверждает его взгляды. В то же время дискуссия с альтернативными позициями становится редкостью, а радикализация и социальная поляризация — всё более заметными.

Особую опасность представляет собой использование ИИ для создания масштабных сетей так называемых «цифровых персон» — искусственно сгенерированных аккаунтов, имитирующих поведение реальных пользователей. Подобные виртуальные агенты способны формировать иллюзию массовой поддержки, вести диалоги, влиять на повестку и вызывать доверие. В отличие от очевидной агитации прошлых лет, такая форма воздействия работает скрытно, часто через эмоции, и потому труднее поддаётся критическому осмыслению. Даже хорошо информированные граждане могут не распознать манипуляцию, если она подаётся в форме «дружеского» комментария или убедительной истории.

Евросоюз, осознавая эти угрозы, в 2024 году в рамках EU AI Act отнёс подобные практики к категории «недопустимых рисков». Запрещено использование сублиминальных техник и эксплуатация уязвимостей определённых социальных групп в целях существенного искажения поведения. Однако даже с введением запретов технологическая база продолжает развиваться стремительно, оставляя регуляторам всё меньше времени на адаптацию. Возникает необходимость переосмысления самих границ между законной пропагандой и недопустимой манипуляцией — особенно в условиях, когда ИИ способен воздействовать на восприятие не напрямую, а опосредованно, через сеть взаимосвязанных сообщений, эмоций и имитаций общения.

Механизмы манипуляции

Кроме способов распространения информации, ИИ также изменил сами механизмы влияния на восприятие реальности. Если раньше манипуляция общественным мнением строилась на относительно грубых методах, то сегодня нейросети позволяют использовать тонкие психологические подходы, точечно воздействовать на индивидов и сообщества, создавая альтернативные версии реальности, которые трудно отличить от подлинной картины мира.

Одним из ключевых инструментов такого воздействия стало использование когнитивных искажений человека. ИИ, анализируя массивы данных о поведении пользователей, выявляет их индивидуальные слабости — склонность к подтверждению своих убеждений, страх перед неопределенностью, стремление следовать за мнением большинства. Подобные особенности превращаются в основу для создания персонализированного контента, который подталкивает человека к определённым выводам и решениям, зачастую незаметно для него самого. Например, благодаря алгоритмам машинного обучения можно настроить информационные потоки так, чтобы пользователь получал только те новости и мнения, которые соответствуют его предвзятостям, усиливая чувство правоты и отсекая альтернативные точки зрения.

Особое значение имеет феномен глубоких фальсификаций, которые позволяют создавать убедительные изображения, видео и аудиоматериалы. С их помощью можно фабриковать политические скандалы, приписывать политикам несуществующие заявления, инсценировать события, которые никогда не происходили. При этом эмоциональная сила визуальных и аудиальных материалов настолько велика, что даже после разоблачения воздействие на восприятие сохраняется. Данный эффект известен как «ложная память» — психологическое явление, когда человек продолжает верить в событие, даже зная о его недостоверности. Ложная память может быть коллективной, когда группы людей начинают уверенно помнить события, которых не было, или изменяют восприятие фактов, что называют эффектом Манделы.

Алгоритмическое таргетирование является ещё одним механизмом манипуляции, с помощью которого ИИ не только выявляет интересы и предпочтения аудитории, но и прогнозирует её поведение. Используя детальные цифровые следы, такие как лайки, комментарии и поисковые запросы, создаются профили, на основе которых ИИ формирует контент, способный вызывать предсказуемые эмоциональные реакции. Подобный контент направляет внимание пользователей на определённые политические идеи или события, создавая иллюзию самостоятельного выбора, в то время как на самом деле выбор уже заранее спроектирован. Более того, алгоритмы могут активно управлять эмоциональным состоянием общества, усиливая распространение контента, вызывающего гнев или страх, что способствует политической мобилизации и поляризации. Политические манипуляторы, используя такие технологии, умышленно акцентируют внимание на конфликтных темах, тем самым усиливая тревожность и агрессию в обществе для достижения определенных целей.

Этические границы

Искусственный интеллект способен производить, адаптировать и распространять информацию с беспрецедентной скоростью и точностью, что требует переосмысления прежних норм политической коммуникации и принципов ответственности. Одной из ключевых угроз становится проблема отсутствия прозрачности: большинство граждан не осознают, что персонализированный контент в их информационном пространстве — это не просто отражение их интересов, а результат целенаправленного воздействия алгоритмов. Факт машинной генерации сообщений остается за кадром, превращая граждан в мишени для незаметного манипулирования, что подрывает доверие к самим основам политического процесса.

Наряду с этим, серьёзную озабоченность вызывает вопрос о приватности. Для эффективной работы ИИ-систем политического таргетирования требуется сбор и глубокий анализ персональных данных, что зачастую происходит без осознанного согласия пользователей. Политические структуры получают доступ к глубоким слоям данных граждан, превращая их внутренние переживания в инструменты влияния. В результате размываются границы между агитацией и эксплуатацией личных уязвимостей. Подобная практика открывает дорогу к новым формам манипуляции, где воздействие на человека осуществляется через его подсознательные страхи и ожидания, обходя рациональное осмысление политических сообщений. 

Не менее опасной представляется угроза подрыва доверия к фактам и общественным институтам. С распространением синтетических медиа границы между реальностью и вымыслом становятся всё более размытыми. Любое видео или заявление политического деятеля может быть сфальсифицировано настолько искусно, что граждане теряют уверенность в объективности происходящего. В результате политический дискурс скатывается в поле догадок, слухов и конспирологических теорий, что ведет к фрагментации общества и снижению способности к коллективному принятию решений. В этих условиях защита достоверности информации становится не просто технической задачей, а этической необходимостью, без которой невозможно поддержание легитимности власти и функционирование институтов.

Наконец, проблема распределения ответственности за последствия политического применения ИИ всё ещё является острой. Современное законодательство пока не в состоянии дать однозначный ответ, кто должен нести ответственность за действия ИИ. Вакуум правовых норм способствует безнаказанному использованию технологий для манипуляции сознанием, а автоматизация политических решений без адекватного общественного контроля ведет к деперсонализации ответственности. Особенно тревожит возможность целенаправленного подавления отдельных социальных групп с помощью алгоритмических инструментов: кампании демобилизации избирателей, распространение депрессивного контента, усиление расколов в обществе через искусственное таргетирование. Всё это требует неотложного формирования новых национальных и международных механизмов регулирования, которые смогут защитить право граждан на честный политический процесс.

Виктория Совгирь, аналитик Центра политической конъюнктуры.

#ВикторияСовгирь
© 2008 - 2025 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".