Статья
2436 22 октября 2021 16:03

Проблемы искусственного интеллекта: эксперты об ограничениях алгоритмов

Искусственный интеллект используется практически во всех сферах жизни. Алгоритмы применяют в здравоохранении, финансах, а также судебных заседаниях. Считается, что они помогают принимать сложные решения без человеческих предубеждений. При этом ИИ часто совершает ошибки, которые иногда остаются незамеченными. Эксперты Brookings Institution провели собственное исследование, чтобы проверить, действительно ли искусственный интеллект настолько беспристрастен в принятии решений.

«Представьте себе решения суда, принимаемые без расовых предубеждений, или решения о приеме на работу, свободные от гендерных предпочтений. Преимущества искусственного интеллекта очевидны: люди далеки от совершенства, а алгоритмы в перспективе могут улучшить качество принятия решений. Однако мы обнаружили тревожные примеры алгоритмической предвзятости», — говорится в публикации.

Так, эксперты обнаружили, что один широко используемый алгоритм рекомендовал темнокожим пациентам не так часто обращаться за медицинской помощью, несмотря на ее необходимость. Проблема достигла огромного масштаба, но ошибку ИИ никто не заметил: ни создатель, ни покупатели, ни регулирующие органы.

«Однако есть и хорошая новость. В некоторых случаях предвзятые алгоритмы легче исправить, чем необъективность конкретных людей. Для этого нужно предпринять три простых действия», — говорят эксперты.

Во-первых, специальные регулирующие органы должны выявить, к каким последствиям ошибки алгоритмов приведут в реальном мире. Во-вторых, необходимо проводить исследования в отношении ИИ. В-третьих, как и в других областях, регуляторы должны настаивать на подотчетности, протоколах документации и других превентивных мерах, которые могут предотвратить совершение ошибки.

Основная причина, по которой ИИ по-прежнему не регулируется, заключается в том, что регуляторы сейчас не могут оперировать терминологией, чтобы сформулировать преимущества и недостатки алгоритмов и привлечь их к ответственности, говорится в докладе Brookings Institution.

«Когда мы следим за выпуском лекарств, мы знаем, что преимущества должны перевешивать любые побочные эффекты. Но что мы измеряем, когда регулируем алгоритмы?», — отмечают эксперты.

Алгоритмы предоставляют лицам, принимающим решения, информацию и прогнозы для повышения качества решений. В этой связи регулирующим органам необходимо найти ответ на вопрос: какую информацию должен предоставлять алгоритм?

«Обратимся к системе здравоохранения и к примеру, о котором было сказано выше. В частности, мы изучили алгоритм управления здоровьем населения, который помогал определить, кому из пациентов требуется помощь. Подобная программы „управления уходом“ чаще всего следит за пациентами с хроническими заболеваниями с целью уменьшения обострений и осложнений в будущем. Пациенты избегают проблем со здоровьем, а система здравоохранения экономит деньги, которые она потратила бы на вызов скорой помощи и госпитализацию — беспроигрышный вариант», — подчеркивают эксперты.

По их словам, изначально ИИ должен был идентифицировать пациентов, которые собирались посетить больницу, но на самом деле он делал нечто иное: предсказывал не то, кто заболеет, а то, кто повлечет за собой большие расходы для системы здравоохранения. Алгоритм строил свои прогнозы на основе затрат, поскольку было сделано предположение о том, что расходы на медицинское обслуживание являются подходящим косвенным показателем потребностей в медицинском обслуживании.

«Хотя это кажется разумным, не каждый, кто нуждается в медицинском обслуживании, получает медицинскую помощь, что означает, что некоторые пациенты в итоге потребуют более низких расходов, чем другие, даже если они нуждаются в таком же уходе. Эта грань между тем, что алгоритм должен был делать, и тем, что он на самом деле делал, привела к тому, что темнокожие пациенты перестали принимать участие в программе», — следует из доклада.

Эксперты добавили, что в ходе дальнейшей работы они обнаружили предвзятость в широком спектре других алгоритмов. По их словам, эта проблема возникает в каждой отрасли. В частности, если мы захотели бы оценить кредитоспособность клиента, ИИ мог бы предоставить нам данные не только о доходах, но и о занятости, семейном положение и т.д. В уголовном деле, например, вместо «склонности к совершению преступления», мы бы узнали о прошлых арестах и уровне образования.

«Хорошая новость заключается в том, что мы можем уменьшить предвзятость в алгоритмах, попросив организации лучше выполнять работу по определению „конечной цели“ — того, что нас действительно волнует», — резюмируют аналитики.
28 ноября 2023 Колонки
Итоги AI Journey
 Итоги AI Journey Павел Иванов о конференции AI Journey
26 мая 2023 Главное
Регулирование ИИ: обзор западных инициатив
 Регулирование ИИ: обзор западных инициатив Проблемы международного регулирования систем искусственного интеллекта активно обсуждаются в экспертном сообществе. Американские аналитики предупреждают, что «простых ответов о регулировании ИИ нет», однако существует ряд международных форумов, на которых обсуждается сотрудничество в области международного управления ИИ и которые могли бы стать...
17 мая 2023 Главное
Шесть неудобных вопросов о развитии ИИ
 Шесть неудобных вопросов о развитии ИИ Технологии искусственного интеллекта уже сейчас внедряются в самых разных отраслях: от сферы услуг и образования, до медицины и оборонной промышленности. Директор Центра искусственного интеллекта и передовых технологий Вадхвани Грегори Аллен на страницах Центра стратегических и международных исследований (CSIS) рассуждает о том, на какие вопросы должны отвечать инициаторы внедрения ИИ в оборонной сфере. 
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".