Комментарий
1573 27 мая 2025 9:59

Умные машины и глупые люди: парадокс слепой веры нейросетям

Михаил Карягин политологМихаил Карягин

Михаил Карягин
политологМихаил Карягин
«Давай спросим ChatGPT», — эта фраза стала все чаще звучать в моем окружении во время каких-либо споров. Мол, пусть нас рассудит авторитетная и беспристрастная машина. Проблема в том, что несмотря на прогресс функций Deep Search, ответы по фактуре не всегда бывают точными, а иногда и ошибочными. Нейросети обучены на «каком-то материале» и в случае выбора функции поиска, они опираются на «какой-то материал» в сети, пусть и со ссылками, которые можно проверить. 

Но и это не самое страшное. Все чаще появляются сообщения о негативных последствиях быстрого прогресса нейросетей, когда пользователи делегируют машине элементарные вопросы в духе «что мне сегодня заказать в доставке: суши или пиццу?».

Раньше человек смотрел на компьютер как на инструмент: мощный, быстрый, но все же управляемый. Сегодня картина меняется. Искусственный интеллект — от рекомендательных систем до чат-ботов и диагностических нейросетей — перестал быть просто помощником. Он становится посредником между человеком и итоговым выбором. Мы все чаще не проверяем, а «верим» алгоритму.

Доверие к ИИ растет параллельно с его «непрозрачностью». Современные нейросети, особенно модели глубокого обучения, действуют как черный ящик. Их выводы нельзя объяснить простыми правилами. Но парадокс в том, что именно в этой непрозрачности кроется обманчивое ощущение надежности: если машина «думает» сложнее, чем человек, значит, она умнее — а значит, ей можно доверять.

Представьте, если вы попросите человека дать вам совет по тому или иному вопросу, а когда попросите объяснить, почему он порекомендовал сделать то, а не иное действие, он не сможет объяснить логику своего решения. Вы будете доверять такому совету? Нет. Но в случае технологий пользователя куда меньше интересует процесс. Вам не нужно знать, как именно микроволновка разогревает вашу вчерашнюю пиццу, вам важен итоговый результат. Такой потребительский подход перенесся и на нейросети. Однако теперь итоговым результатом является не горячая пицца, а зачастую важные решения, которые повлияют на жизнь человека.

Психология цифрового подчинения

С точки зрения когнитивной психологии, человек склонен перекладывать ответственность за сложные решения на внешние авторитеты. Искусственный интеллект в этом смысле становится новым «экспертом»: бесстрастным, неангажированным, статистически точным. Но это доверие часто иррационально.

Так, в ряде исследований в медицине пациенты и даже врачи чаще соглашались с рекомендацией ИИ, даже если она противоречила клиническим данным. Аналогичная ситуация в сфере финансов, где алгоритмы дают советы по инвестициям, не всегда объясняя риски. В транспортной сфере водители полагаются на навигаторы, даже если их маршруты абсурдны — потому что «так сказала программа».

Эффект усиливается цифровыми интерфейсами: чем эстетичнее и «умнее» выглядит система, тем больше ей доверяют. Мы сталкиваемся с феноменом «когнитивного обезоруживания»: отказ от критического мышления ради комфорта цифровой подсказки.

Ошибка обобщения и иллюзия объективности

Распространенный миф: машины не ошибаются. В действительности, они ошибаются иначе. Ошибки ИИ носят системный характер — потому что алгоритм обучается на данных, которые уже несут в себе искажения. Распознавание лиц хуже работает с темнокожими, потому что большинство обучающих выборок — белые лица. Алгоритмы подбора резюме могут «отсечь» женщин на технические позиции, если обучались на корпоративной истории, где таких кейсов было мало.

Но главное в том, что человек нередко не способен зафиксировать ошибку ИИ. Он не знает, как работает модель, не понимает причин, по которым был сделан тот или иной вывод. А если вывод «звучит убедительно», человек скорее примет его, чем начнет сомневаться.

Таким образом, ИИ не просто предлагает решение. Он формирует рамку интерпретации ситуации. Это опасно не только в бытовых, но и в институциональных контекстах: судья может полагаться на алгоритм рецидивного риска; чиновник — на ИИ в распределении ресурсов. Механизм принятия решений становится все менее прозрачным.

Неутешительный прогноз

Ситуация будет усугубляться. Нейросети становятся все быстрее, умнее, прозрачнее. У пользователей будет все меньше и меньше поводов сомневаться в результатах выдачи и рефлексировать над ответами ИИ. Кроме того, включается и поколенческий фактор. Уже сейчас гаджетами начинают пользоваться дети, которые родились после «первой революции ИИ». Для них нейросети — это что-то естественное, базовая технология, которая была всегда, почему необходимо ей не доверять?

Социально-политических последствий у этого явления огромное множество. Одно из наиболее интересных, по моему мнению, — кризис воли, который станет следствием развития ИИ, но об этом — в следующей колонке.

Михаил Карягин, заместитель директора Центра политической конъюнктуры.

#МихаилКарягин
© 2008 - 2025 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".