Статья
1195 28 декабря 2020 11:15

Как алгоритмы YouTube могут управлять массами

YouTube в России является в основном оппозиционной площадкой, критически настроенной по отношению к власти. В период предвыборных кампаний видеохостинг уже неоднократно становился главным протестным ресурсом. Недавно в Госдуму был внесен законопроект, который позволит блокировать YouTube за ограничение доступа к материалам российских СМИ. Так, 12 ноября Роскомнадзор потребовал от Google снять ограничения на YouTube с документального фильма телеканала RT о протестах в США «USA 2020: Up in arms», а на следующий день ведомство сообщило, что «участились случаи применения администрацией видеохостинга YouTube блокировок, маркировок, предупреждений, согласий и иных ограничений в отношении материалов российских СМИ и журналистов». В Google на это заявили, что относятся непредвзято ко всем пользователям YouTube и что правила видеохостинга едины для всех, вне зависимости от места проживания, политических взглядов и других признаков. Специалисты американского исследовательского центра Brookings Institution Джонас Кайзер и Адриан Раухфляйш опубликовали доклад о том, насколько «непредвзято» работают алгоритмы рекомендаций YouTube.

Для исследования Кайзер и Раухфляйш взяли ряд политических и наиболее популярных YouTube-каналов Германии и США. Целью было определить, могут ли общие алгоритмы рекомендаций хостинга, даже если они не персонализированы, продвигать радикальный и экстремистский контент.

Проблема в том, что алгоритмы рекомендаций создают так называемые «информационные пузыри», основанные на интересах и поведении интернет-пользователей, и не модерируются человеком.

Авторы доклада вручную идентифицировали три общих YouTube-сообщества в США: относительно небольшое «крайне левое» сообщество, более крупное либеральное и «крайне правое» сообщества. Оказалось, что в ультраправом сообществе наиболее рекомендованными каналами были каналы, которые в настоящий момент запрещены. Что касается немецких YouTube-каналов, там ситуация аналогичная. Алгоритмы рекомендаций хостинга продвигали ныне запрещенный ультраправый экстремистский канал, в котором фигурирует отрицание холокоста, а также канал крайне правого экстремистского движения.
Кайзер и Раухфляйш отмечают, что алгоритмы YouTube отлично справляются с обнаружением общих тем и формированием вокруг них сообществ. Однако у этих алгоритмических решений есть недостаток: они не могут отличить новости от «политических экспертов». А без возможности детального определения содержания алгоритмы не могут оценить достоверность представленной информации и экстремистские высказывания.

Кроме этого, в ходе исследования популярный ютубер Логан Пол подвергся критике после того, как загрузил серию видеороликов о своих поездках в Японию. Они варьировались от оскорбительных до расистских и вызвали огромный общественный резонанс. Но даже после этого канал Логана Пола не был заблокирован: просто он получал меньше рекомендаций, чем раньше. Вероятное объяснение заключается в том, что YouTube вручную снизил рейтинг блогера в качестве наказания.

Но люди, которые приходят на YouTube, чтобы посмотреть новости и получить информацию, редко понимают разницу между СМИ и блогерами. Они также не знают, что для алгоритма YouTube нет различия между консерватором и блогером, который отрицает холокост.

Авторы исследования пришли к выводу, что администрации YouTube необходимо отключить рекомендации для политического контента с целью контроля распространения экстремистских идей.
Комментарии для сайта Cackle
© 2008 - 2021 НО - Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".