Статья
1297 22 октября 2021 16:03

Проблемы искусственного интеллекта: эксперты об ограничениях алгоритмов

Искусственный интеллект используется практически во всех сферах жизни. Алгоритмы применяют в здравоохранении, финансах, а также судебных заседаниях. Считается, что они помогают принимать сложные решения без человеческих предубеждений. При этом ИИ часто совершает ошибки, которые иногда остаются незамеченными. Эксперты Brookings Institution провели собственное исследование, чтобы проверить, действительно ли искусственный интеллект настолько беспристрастен в принятии решений.

«Представьте себе решения суда, принимаемые без расовых предубеждений, или решения о приеме на работу, свободные от гендерных предпочтений. Преимущества искусственного интеллекта очевидны: люди далеки от совершенства, а алгоритмы в перспективе могут улучшить качество принятия решений. Однако мы обнаружили тревожные примеры алгоритмической предвзятости», — говорится в публикации.

Так, эксперты обнаружили, что один широко используемый алгоритм рекомендовал темнокожим пациентам не так часто обращаться за медицинской помощью, несмотря на ее необходимость. Проблема достигла огромного масштаба, но ошибку ИИ никто не заметил: ни создатель, ни покупатели, ни регулирующие органы.

«Однако есть и хорошая новость. В некоторых случаях предвзятые алгоритмы легче исправить, чем необъективность конкретных людей. Для этого нужно предпринять три простых действия», — говорят эксперты.

Во-первых, специальные регулирующие органы должны выявить, к каким последствиям ошибки алгоритмов приведут в реальном мире. Во-вторых, необходимо проводить исследования в отношении ИИ. В-третьих, как и в других областях, регуляторы должны настаивать на подотчетности, протоколах документации и других превентивных мерах, которые могут предотвратить совершение ошибки.

Основная причина, по которой ИИ по-прежнему не регулируется, заключается в том, что регуляторы сейчас не могут оперировать терминологией, чтобы сформулировать преимущества и недостатки алгоритмов и привлечь их к ответственности, говорится в докладе Brookings Institution.

«Когда мы следим за выпуском лекарств, мы знаем, что преимущества должны перевешивать любые побочные эффекты. Но что мы измеряем, когда регулируем алгоритмы?», — отмечают эксперты.

Алгоритмы предоставляют лицам, принимающим решения, информацию и прогнозы для повышения качества решений. В этой связи регулирующим органам необходимо найти ответ на вопрос: какую информацию должен предоставлять алгоритм?

«Обратимся к системе здравоохранения и к примеру, о котором было сказано выше. В частности, мы изучили алгоритм управления здоровьем населения, который помогал определить, кому из пациентов требуется помощь. Подобная программы „управления уходом“ чаще всего следит за пациентами с хроническими заболеваниями с целью уменьшения обострений и осложнений в будущем. Пациенты избегают проблем со здоровьем, а система здравоохранения экономит деньги, которые она потратила бы на вызов скорой помощи и госпитализацию — беспроигрышный вариант», — подчеркивают эксперты.

По их словам, изначально ИИ должен был идентифицировать пациентов, которые собирались посетить больницу, но на самом деле он делал нечто иное: предсказывал не то, кто заболеет, а то, кто повлечет за собой большие расходы для системы здравоохранения. Алгоритм строил свои прогнозы на основе затрат, поскольку было сделано предположение о том, что расходы на медицинское обслуживание являются подходящим косвенным показателем потребностей в медицинском обслуживании.

«Хотя это кажется разумным, не каждый, кто нуждается в медицинском обслуживании, получает медицинскую помощь, что означает, что некоторые пациенты в итоге потребуют более низких расходов, чем другие, даже если они нуждаются в таком же уходе. Эта грань между тем, что алгоритм должен был делать, и тем, что он на самом деле делал, привела к тому, что темнокожие пациенты перестали принимать участие в программе», — следует из доклада.

Эксперты добавили, что в ходе дальнейшей работы они обнаружили предвзятость в широком спектре других алгоритмов. По их словам, эта проблема возникает в каждой отрасли. В частности, если мы захотели бы оценить кредитоспособность клиента, ИИ мог бы предоставить нам данные не только о доходах, но и о занятости, семейном положение и т.д. В уголовном деле, например, вместо «склонности к совершению преступления», мы бы узнали о прошлых арестах и уровне образования.

«Хорошая новость заключается в том, что мы можем уменьшить предвзятость в алгоритмах, попросив организации лучше выполнять работу по определению „конечной цели“ — того, что нас действительно волнует», — резюмируют аналитики.
Комментарии для сайта Cackle
26 октября 2021 Новости
Новые принципы: эксперты о кодексе этики искусственного интеллекта
 Новые принципы: эксперты о кодексе этики искусственного интеллекта В России появился кодекс этики искусственного интеллекта. Его подписали крупные IT-компании и учебные заведения: МГИМО, МТС, Университет Сириус, Росатом, Иннополис, МТС, Mail.ru Group и другие.
16 июля 2021 Новости  Искусственный интеллект: беспристрастность или несправедливость Искусственный интеллект используется уже практически во всех сферах жизни. Его применяют при постановке диагнозов, вынесении решений о выдаче кредитов, даже при распределении доз вакцины от коронавируса. Однако системы искусственного интеллекта часто совершают ошибки, которые могут остаться незамеченными, либо, даже если они будут обнаружены, их трудно исправить. 7 июля 2021 Новости  Опрос ВЦИОМ: Россияне доверяют искусственному интеллекту Около половины россиян (48%) доверяют искусственному интеллекту. Об этом свидетельствуют результаты опроса ВЦИОМ, которые были опубликованы 7 июля. Самый большой процент доверия наблюдается среди молодых людей от 18 до 24 лет (69%).
© 2008 - 2021 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".