Статья
125 7 октября 2024 11:29

Голосуй или отключим

На фоне приближающихся выборов в США всё чаще появляются сообщения об использовании ботов и о том, что 2024 год станет годом беспрецедентной предвыборной дезинформации во всем мире. 

Уже сейчас различные боты применяются в кампаниях кандидатов, и порой вы можете не заметить, как вместо живого человека агитировать вас будет программа. Они подписываются на вас, постят фото и видео, обсуждают насущные темы и даже манипулируют вашим мнением. Но как много в современных избирательных кампаниях ложится на плечи алгоритмов? И с какой целью политики перекладывают агитацию на автоматизированные аккаунты?

Бесценные помощники

Прежде всего, использовать ботов банально дешевле, чем набирать огромную команду. В предвыборных кампаниях национального или регионального уровня часто возникает проблема охвата значительной части аудитории. В ответ на это автоматизированные аккаунты могут управлять большим количеством интеракций, одновременно взаимодействуя с тысячами и даже миллионами избирателей. Они работают по принципу рупора. После того, как кандидат публикует пост, он либо остается незамеченным и теряется в информационном потоке, либо его могут репостнуть. Представьте политика, выступающего на стадионе. Если он начнет говорить без микрофона, то, скорее всего, его не услышат. Но если он возьмёт рупор, то его сообщения долетят до каждого человека и заставят их обратить внимание на кандидата. Так и работают боты — они доставляют сообщения политика до более объемной аудитории избирателей.

Во-вторых, боты экономят время. В современных кампаниях боты идут рука об руку с генеративными моделями. Это значит, что боты больше не работают по чёткому сценарию, а умеют подстраиваться под особенности ситуации, распознают благоприятные темы для разговора и выдают ожидаемую реакцию. Грамотно обученный бот отвечает последовательно и утвердительно, повышая эффективность взаимодействия с избирателями и привлекая их в лагерь определенного кандидата без необходимости прописывать сценарии. 

В-третьих, ИИ-боты ускоряют обратную связь. Они могут собирать данные о настроении, проблемах и предпочтениях избирателей, классифицировать их на группы, а затем формулировать основные направления последующей агитации. В условиях постоянно меняющегося политического ландшафта получение проанализированной обратной связи в режиме реального времени имеет решающее значение для адаптации стратегий кампании.

Искусственная трава

Однако мало кто использует ботов с благими намерениями, чаще всего их связывают с дезинформацией или «астротурфингом» — маскировкой искусственной общественной поддержки под общественную инициативу. Сам термин появился в 1985 году в США, когда страховые компании из Техаса пытались повлиять на местного сенатора. Они отправили ему кучу подставных писем от якобы избирателей, однако это не произвело на сенатора должного впечатления. Он заявил, что способен отличить настоящую общественную поддержку (grassroots) от астротурфа, отсылаясь на синтетическую траву, которую производила компания под названием AstroTurf. 

Изначально политический астротурфинг активно распространялся через традиционные СМИ, но с развитием Интернета он переместился в цифровое пространство. Это произошло по нескольким причинам.

Во-первых, выросло недоверие граждан к традиционным СМИ. Так как цифровое пространство предоставляло пользователям большее количество источников, они считали такое потребление новостей более безопасным.

Во-вторых, произошло расширение информационного пространства. Цифровая среда связана со стремительным ростом числа пользователей, а также появлением новых лидеров мнений. Это позволило распространять сообщения по новым каналам и на платформах с высокой посещаемостью.

В-третьих, усложнился процесс верификации. Стало труднее отличить сообщения астротурфинга от сообщений реальных пользователей. Астротурфинг тщательно скрыт, централизован и хорошо скоординирован, а опросы граждан показали, что они не могут эффективно отличить астротурфинг от обычных пользователей Интернета. Пользователи либо не знают о том, что комментарии могут быть профинансированы, либо недостаточно компетентны, чтобы доказать свои подозрения. 

Существует три категории агентов астротурфинга: реальные люди (тролли), автоматизированные аккаунты (боты) и боты, контролируемые людьми (киборги). Чаще всего сочетаются ручная и автоматизированная деятельность, то есть не все аккаунты контролируются ботами. В один период времени они могут функционировать как боты, а в другой — контролироваться людьми. Но если раньше преобладали тролли и киборги, то сейчас большую часть информационного пространства занимают боты. Языковые модели становятся все более доступными, и вместе с тем боты перестают штамповать плохо построенные, грамматически неправильные предложения. Сообщения, созданные человеком, больше не нужны — сегодняшние большие языковые модели (LLM) улучшают ботов новой функцией: машинно написанным текстом, который звучит убедительно по-человечески.

В целом, у астротурфинга три цели: привлечь сторонников, создать благоприятный образ кандидата и дискредитировать оппонентов. Так, например, в 2010 году во время промежуточных выборов в Палату представителей Конгресса США и выборов в Массачусетсе разные политические силы организовали бот-атаки друг на друга. В том же году были обнаружены бот-кампании против кандидата в президенты США К.Кунса. Двумя годами позднее сторонники М.Ромни были обвинены в организации сетей ботов в Twitter для повышения узнаваемости кандидата. Кроме того, существуют исследования использования автоматизированных аккаунтов ведущими политиками Бразилии в период президентских выборов 2014 года, а после — силами А.Невеса, что стало ключевым фактором импичмента 2016 года.

Самым знаменитым примером являются выборы в США 2016 года, когда боты были обнаружены как с демократической, так и республиканской сторон. За месяц предвыборной кампании 400 тыс. ботов участвовали в политических дискуссиях в Twitter. В частности, на фоне антимигрантской риторики Д.Трампа были заметны боты, имитирующие поддержку латиноамериканцев, что оттолкнуло часть электората. В сторону Х.Клинтон также сыпались скандальные истории, связанные с коррупцией. Целью использования ботов в этих выборах являлась дестабилизация конкурента и манипулирование политическими дискуссиями.

Часто боты появляются, когда общество поляризовано, и способствует усугублению этой поляризации. Например, боты сыграли стратегическую роль во влиянии на мнение избирателей о Brexit и распространили почти треть всех хэштегов «за выход» и оказали большое влияние на людей, которые еще не определились с выбором. Также было замечено участие ботов в MacronLeaks, связанной с кампанией Э.Макрона во время президентских выборов во Франции в 2017 году. Боты поддерживали нарратив радикально правых, которые пытались дезинформировать население о деятельности Макрона и повлиять на результаты выборов. В Венесуэле политические боты также были инструментом крайне правых оппозиционных сил во время президентских выборов в 2014 г.

Таким образом, деятельность ботов в политической агитации направлена не на аргументированное участие, а на усиление сообщений. Такие комментарии затрагивают острые общественно-политические темы и вызывают бурную реакцию общества, поэтому их рекомендуют большому количеству пользователей. Однако вопрос о том, на какой процент пользователей боты действительно оказывают влияние, всё ещё остаётся открытым.

Виктория Совгирь, политолог
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".