Комментарий
1573
27 мая 2025 9:59
Умные машины и глупые люди: парадокс слепой веры нейросетям

Но и это не самое страшное. Все чаще появляются сообщения о негативных последствиях быстрого прогресса нейросетей, когда пользователи делегируют машине элементарные вопросы в духе «что мне сегодня заказать в доставке: суши или пиццу?».
Раньше человек смотрел на компьютер как на инструмент: мощный, быстрый, но все же управляемый. Сегодня картина меняется. Искусственный интеллект — от рекомендательных систем до чат-ботов и диагностических нейросетей — перестал быть просто помощником. Он становится посредником между человеком и итоговым выбором. Мы все чаще не проверяем, а «верим» алгоритму.
Доверие к ИИ растет параллельно с его «непрозрачностью». Современные нейросети, особенно модели глубокого обучения, действуют как черный ящик. Их выводы нельзя объяснить простыми правилами. Но парадокс в том, что именно в этой непрозрачности кроется обманчивое ощущение надежности: если машина «думает» сложнее, чем человек, значит, она умнее — а значит, ей можно доверять.
Представьте, если вы попросите человека дать вам совет по тому или иному вопросу, а когда попросите объяснить, почему он порекомендовал сделать то, а не иное действие, он не сможет объяснить логику своего решения. Вы будете доверять такому совету? Нет. Но в случае технологий пользователя куда меньше интересует процесс. Вам не нужно знать, как именно микроволновка разогревает вашу вчерашнюю пиццу, вам важен итоговый результат. Такой потребительский подход перенесся и на нейросети. Однако теперь итоговым результатом является не горячая пицца, а зачастую важные решения, которые повлияют на жизнь человека.
Психология цифрового подчинения
С точки зрения когнитивной психологии, человек склонен перекладывать ответственность за сложные решения на внешние авторитеты. Искусственный интеллект в этом смысле становится новым «экспертом»: бесстрастным, неангажированным, статистически точным. Но это доверие часто иррационально.
Так, в ряде исследований в медицине пациенты и даже врачи чаще соглашались с рекомендацией ИИ, даже если она противоречила клиническим данным. Аналогичная ситуация в сфере финансов, где алгоритмы дают советы по инвестициям, не всегда объясняя риски. В транспортной сфере водители полагаются на навигаторы, даже если их маршруты абсурдны — потому что «так сказала программа».
Эффект усиливается цифровыми интерфейсами: чем эстетичнее и «умнее» выглядит система, тем больше ей доверяют. Мы сталкиваемся с феноменом «когнитивного обезоруживания»: отказ от критического мышления ради комфорта цифровой подсказки.
Ошибка обобщения и иллюзия объективности
Распространенный миф: машины не ошибаются. В действительности, они ошибаются иначе. Ошибки ИИ носят системный характер — потому что алгоритм обучается на данных, которые уже несут в себе искажения. Распознавание лиц хуже работает с темнокожими, потому что большинство обучающих выборок — белые лица. Алгоритмы подбора резюме могут «отсечь» женщин на технические позиции, если обучались на корпоративной истории, где таких кейсов было мало.
Но главное в том, что человек нередко не способен зафиксировать ошибку ИИ. Он не знает, как работает модель, не понимает причин, по которым был сделан тот или иной вывод. А если вывод «звучит убедительно», человек скорее примет его, чем начнет сомневаться.
Таким образом, ИИ не просто предлагает решение. Он формирует рамку интерпретации ситуации. Это опасно не только в бытовых, но и в институциональных контекстах: судья может полагаться на алгоритм рецидивного риска; чиновник — на ИИ в распределении ресурсов. Механизм принятия решений становится все менее прозрачным.
Неутешительный прогноз
Ситуация будет усугубляться. Нейросети становятся все быстрее, умнее, прозрачнее. У пользователей будет все меньше и меньше поводов сомневаться в результатах выдачи и рефлексировать над ответами ИИ. Кроме того, включается и поколенческий фактор. Уже сейчас гаджетами начинают пользоваться дети, которые родились после «первой революции ИИ». Для них нейросети — это что-то естественное, базовая технология, которая была всегда, почему необходимо ей не доверять?
Социально-политических последствий у этого явления огромное множество. Одно из наиболее интересных, по моему мнению, — кризис воли, который станет следствием развития ИИ, но об этом — в следующей колонке.
Михаил Карягин, заместитель директора Центра политической конъюнктуры.
#МихаилКарягин
КомментарийКомментарий
аналитикАлександр Астафьев
19 июня 2025
Интервью
Технологии критических значений
Александр Сидякин
19 июня 2025
Новость
ИИ приводит к массовым сокращениям
Microsoft в ближайшие недели планирует уволить
несколько тысяч сотрудников, пишет The Wall Street Journal. Основной удар придется на отделы продаж. Эти меры связаны со стратегическим перераспределением ресурсов в пользу развития искусственного интеллекта.
