Новость
1086 3 июня 2025 15:07

Дипфейки ставят россиян в затруднение

Большинство россиян не могут отличить сгенерированные нейросетями изображения от настоящих фотографий, показало исследование MWS AI.

В ходе исследования респондентам показали десять изображений людей: четыре из них были созданы искусственным интеллектом, а шесть — реальные снимки. Три из четырех ИИ-фотографий сгенерировали с помощью специализированных нейросетей для создания дипфейков, а четвертую — с использованием обычной языковой модели на основе текстового описания.

Исследование показало, что более 60% участников не смогли отличить дипфейки от реальных фото. Три сгенерированных портрета большинство респондентов приняли за изображения реальных людей — в каждом случае правильных ответов было менее 40%. Один из дипфейков 81% опрошенных посчитали фотографией настоящего человека. При этом изображение, созданное обычной ИИ-моделью, чаще распознавали как сгенерированное. Многие участники также ошибочно приняли три из шести настоящих фотографий за дипфейки.

Эксперты MWS AI объясняют это тем, что специализированные нейросети для генерации лиц научились точно воспроизводить текстуру кожи, симметрию черт и светотеневые переходы, делая изображения почти неотличимыми от реальных.
Для защиты от манипуляций в эпоху генеративного ИИ специалисты предлагают добровольную маркировку ИИ-контента в маркетинге и рекламе, повышение безопасности финансовых сервисов, разработку стандартов для государственных ИИ-решений, образовательные программы по цифровой грамотности.
© 2008 - 2025 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".