Статья
1719 11 декабря 2020 20:20

Персонализация с помощью искусственного интеллекта в цифровых медиа: политические и социальные последствия

Массовое внедрение персонализации в цифровом пространстве имеет серьезные последствия, связанные с нарушением прав человека, конфиденциальности и свободы выражения мнения, а также политической безопасностью. Компаниям, которые внедряют алгоритмы персонализации, это дает несомненные коммерческие преимущества. Однако, согласно отчету, выпущенному Центром этики данных и инноваций Великобритании (CDEI), отношение людей к таргетингу меняется, когда они лучше понимают, как это работает и насколько широко распространено. Специалисты британского аналитического центра в области международных отношений Chatham House опубликовали доклад, в котором анализируются последствия внедрения искусственного интеллекта и, в частности, машинного обучения в процесс персонализации.

Персонализация в цифровых технологиях — это адаптация контента к индивидуальным потребностям пользователя посредством фильтрации, классификации, определения приоритетов и корректировки информации. В итоге разные люди имеют дело с разным контентом, посещая одну и ту же интернет-страницу. Персонализация может быть явной, когда пользователю предоставляется возможность по собственному усмотрению изменять настройки системы, подстраивая ее под свои специфические нужды, и скрытой, когда искусственный интеллект автоматически собирает данные пользователя, например, историю поиска.

Доклад имеет целью определить долгосрочные последствия персонализации в цифровых коммуникациях для политической безопасности, свободы граждан и журналистики. Что касается персонализации в социальных сетях, анализ относится к распространению новостей и политического контента.

Развитие искусственного интеллекта является результатом обработки огромных объемов данных с помощью нелинейных нейронных сетей, которые классифицируют выходные данные на разных уровнях, создавая сложную структуру. Исследователи предупреждают, что большие данные (big data) часто предлагают «способность предсказывать, не понимая».

Последствия персонализации для отдельных граждан могут быть самыми разными. Дискриминацию может стать труднее обнаружить, а конфиденциальность — легче скомпрометировать, используя все более простые методы. Свобода мнений и действий могут быть затруднены из-за образования «пузырей фильтров», которые представляют собой явления, при котором веб-сайты определяют, какой контент пользователь хотел бы увидеть, основываясь на информации о его месторасположении, прошлых нажатиях мыши, предпочтениях и истории поиска. Понятие «пузыря фильтров» разработано интернет-активистом Илаем Парайзером, в книге которого The Filter Bubble говорится, что потенциальным недостатком фильтрации поисковых запросов является то, что она «закрывает нас от новых идей, предметов и важной информации» и «создает впечатление, что наши собственные узкие интересы и есть все, что существует и окружает нас».

Специалисты Chatham House отмечают, что, хотя аргумент о «пузырях фильтров» не подтверждается точным и надежным набором доказательств, важно понимать, что эта область недостаточно изучена, главным образом из-за строго контролируемого доступа к данным. В то же время исследования, оспаривающие существование «пузырей фильтров», также имеют недостатки, такие как ограниченные выборки или опросы для конкретных приложений.

Способность искусственного интеллекта выводить персональную информацию из доступных наборов данных создает серьезные проблемы для конфиденциальности пользователя. Когда модели полагаются на бессознательные процессы и интерпретируют их, не только источники, но и само существование манипуляций могут остаться незамеченными для пользователей. Кроме этого, есть тенденция стирания границ между стратегиями убеждения и принуждения.

Согласно статье 22 Общего регламента Евросоюза по защите данных (GDPR), «люди имеют право на то, чтобы их личные данные не подвергались сбору и хранению». В то же время в этой области отмечается недостаток прозрачности. Эксплуатация уязвимых групп, в частности, детей является ключевой проблемой, которую необходимо решить в сфере персонализированного убеждения. Конкретно в отношении детей назначенная Европейской комиссией группа экспертов высокого уровня (HLEG) по искусственному интеллекту призвала к тщательному мониторингу персонализированных систем, построенных на профилях несовершеннолетних.

Неконтролируемое использование персонализации может подорвать политическую стабильность отдельных государств и прозрачность политического дискурса, усложняя свободный обмен идеями. Кроме этого, право на получение информации является основополагающим в любом обществе. Также персонализированная коммуникация может перестроить способы ведения политических кампаний и трансформировать их в индивидуальные обращения к избирателям, а способность граждан использовать коллективный интеллект для того, чтобы более эффективно решать проблемы, уменьшится.

Более того, помимо прибыли для компаний, занимающих конкурентные позиции на цифровом рынке, таких как социальные сети, онлайн-магазины и рекламные агентства, персонализация на основе машинного обучения в информационном пространстве не принесла достаточных преимуществ, которые можно было бы противопоставить рискам для пользователей. Баланс между выгодой для общества и цифровых олигополий при использовании алгоритмов персонализации нарушается. В то же время грамотное использование персонализированных систем коммуникации может повысить гражданское участие и способствовать формированию консенсуса путем эффективной координации диалога между информированными гражданами. Также персонализированная коммуникация может использоваться для предупреждения граждан о событиях и политике, которые они считают важными, или для борьбы с распространением дезинформации.

Искусственный интеллект может как дополнять, так и заменять процесс принятия решений человеком, но потенциальные последствия его влияния требуют тщательного изучения, поскольку персонализация может повлиять на изменение ценностей, поставить под угрозу демократические нормы и изменить способы ведения политических кампаний. Существует острая необходимость в разработке этической основы для определения того, как эта технология используется в среде СМИ, учитывая возможности манипуляций, способных посягнуть на индивидуальные и групповые права.
Комментарии для сайта Cackle
© 2008 - 2021 НО - Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".