Статья
2642 10 февраля 2023 11:37

Рост использования приложений ИИ: проблемы регулирования

Быстрый рост количества и качества приложений искусственного интеллекта (ИИ), в том числе популярного ChatGPT, подчеркивает острую необходимость в нормативных актах для управления потенциальными рисками и проблемами ИИ. На это обратил внимание старший научный сотрудник американского аналитического центра American Enterprise Institution (AEI, Американский институт предпринимательства) Джон Бейли.

Авторы приложений ИИ согласны с тем, что эти разработки нуждаются в регулировании, напомнил эксперт. «Генеральный директор Alphabet Сундар Пичаи, главный технический директор OpenAI Мира Мурати и президент Microsoft Брэд Смит призвали к принятию правил в отношении ИИ. Пичаи написал в Financial Times: „Я не сомневаюсь, что искусственный интеллект нуждается в регулировании“. Мурати призвал к принятию правил, регулирующих безопасное и этичное использование ИИ. А Смит утверждает, что новые технологии выявляют в людях как лучшее, так и худшее, и что ИИ можно использовать как оружие. Он подчеркнул необходимость того, чтобы политики установили барьеры, чтобы предотвратить использование ИИ для распространения ложной информации, подрыва демократии и распространения зла», — обратил внимание эксперт.

В Евросоюзе существует закон, который запрещает определенные виды использования ИИ, такие как правительственный «социальный кредитный рейтинг», используемый в Китае. Этот же закон классифицирует определенные приложения с высоким уровнем риска, которые подлежат более тщательному изучению. «И, наконец, он вводит новые требования к прозрачности и аудиту, чтобы помочь выявлять и управлять дополнительными рисками», — отметил Джон Бейли.

В США Белый дом опубликовал проект Билля о правах ИИ, в котором излагаются пять принципов управления ИИ. В их числе — безопасные и эффективные системы, алгоритмическая защита от дискриминации, конфиденциальность данных, уведомление и объяснение, а также человеческие альтернативы, рассмотрение и запасной вариант. Однако, по словам эксперта, лишь в нескольких агентствах есть сотрудники, занимающиеся внедрением этих принципов в действие в своих соответствующих секторах: Министерство обороны, Министерство энергетики, Министерство по делам ветеранов и Министерство здравоохранения и социальных служб.

Однако существующих норм регулирования ИИ недостаточно, подчеркивает эксперт. По его словам, организации могут использовать технологию управления рисками ИИ, созданную американским Национальным институтом стандартов и технологий — это поможет им в повышении способности включать принципы надежности в проектирование, разработку, использование и оценку продуктов, услуг и систем ИИ. «Все это важные начальные шаги, но они не решают важнейших проблем, например, кто в федеральном правительстве будет иметь полномочия и ответственность за регулирование ИИ и какие критерии они должны использовать для оценки рисков и выгод. Эти рамки также являются добровольными и, вероятно, будут приняты только компаниями, уже приверженными этическим практикам ИИ», — предупреждает эксперт.

Парламентам следует «активно участвовать в обсуждении создания постоянной структуры, обеспечивающей защиту потребителей», отмечает эксперт. По его словам, эта структура должна «укреплять общественное доверие к системам ИИ и обеспечивать регуляторную определенность, необходимую компаниям для их дорожных карт продуктов». «Учитывая, что ИИ может повлиять на нашу экономику, национальную безопасность и общество в целом, нельзя терять время», — предупреждает эксперт.
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".