Статья
2447 10 июня 2022 15:59

Закон об искусственном интеллекте в ЕС: как он будет работать

Закон Евросоюза об искусственном интеллекте будет иметь ограниченный «эффект Брюсселя», считает научный сотрудник американского аналитического центра Brookings Institution Алекс Энглер. «Эффект Брюсселя» — это фактическое принятие правовых норм, регулирующих мер и стандартов Европейского союза за пределами внутреннего европейского рынка, особенно на транснациональных рынках. 

Глобальное влияние европейского закона будет ограниченным. Хотя некоторые компоненты европейского закона окажут важное влияние на мировые рынки, Европа сама по себе не будет устанавливать всеобъемлющий новый международный стандарт для ИИ, говорится в докладе Алекса Энглера. Закон будет способствовать увеличению уже имеющегося значительного глобального влияния ЕС на некоторые онлайн-платформы, но в то же время он может лишь умеренно влиять на международное регулирование. 

«Брюссельский эффект» проявляется в двух связанных формах, «де-факто» и «де-юре». Эти формы можно различить на примере правил ЕС о конфиденциальности данных, в частности, Общего регламента по защите данных (GDPR) и Директивы о конфиденциальности. Вместо того чтобы разрабатывать отдельные нормы, многие мировые веб-сайты приняли требования ЕС, чтобы запрашивать у пользователей согласие на обработку персональных данных и использование файлов cookie, подчеркивает автор доклада. Это отражает де-факто эффект Брюсселя, когда компании повсеместно следуют правилам ЕС, чтобы стандартизировать продукт или услугу, упрощая свои бизнес-процессы. За этим часто следует эффект Брюсселя де-юре, когда в других странах принимается официальное законодательство, соответствующее законодательству ЕС. Отчасти это происходит потому, что многонациональные компании решительно выступают против правил, которые могут создать конфликты с их недавно стандартизированными процессами. 

Новые правила повлияют на уже регулируемые продукты. При этом многие иностранные компании, уже продающие товары в ЕС, будут внимательно следить за соблюдением этих правил. Сюда входят крупные экспортеры в ЕС, например, медицинских приборов из США, роботов-манипуляторов из Японии, транспортных средств из Китая и многое другое. Эти крупные международные компании не будут регулироваться за пределами ЕС без права голоса по этому вопросу, но будут активно участвовать, чтобы правила не ущемляли их долю на рынке. Этим компаниям поможет интеграция органов по стандартизации ЕС в глобальные организации по стандартизации. Закон не устанавливает напрямую конкретные стандарты для множества продуктов, использующих ИИ, поскольку широко известно, что это было бы невозможно сделать ни одному законодательному органу. Скорее, он делегирует значительные полномочия европейским организациям по стандартизации для выполнения этой задачи. 

Некоторые системы ИИ представляют высокий социальный риск. Они не вписываются в ранее существовавшую нормативную базу ЕС. Иногда называемые «автономными» системами ИИ, они включают приложения ИИ в частном секторе при найме, управлении персоналом, доступе к образованию и оценке кредитоспособности, а также ИИ, используемый правительствами для доступа к государственным услугам, правоохранительным органам, пограничному контролю, коммунальным услугам и принятию судебных решений. Автор доклада обращает внимание на то, что предложенные Европарламентом законодательные изменения могут добавить в этот список страхование, медицинскую сортировку и системы искусственного интеллекта, которые взаимодействуют с детьми. Требования к использованию ИИ государством будут важны для Европы (где взломанный алгоритм мошенничества с социальным обеспечением привел к отставке правительства Нидерландов), но в лучшем случае послужит источником вдохновения для остального мира, а не новыми правилами. 

Крупные компании могут сопротивляться дополнительным законодательным требованиям в отношении ИИ. Это, в свою очередь, снижает вероятность их принятия — явное проявление эффекта Брюсселя как де-факто, так и де-юре. Например, многие из алгоритмов LinkedIn* могут подпадать под категорию высокого риска, согласно разрабатываемому закону, говорится в докладе. Речь идёт о системах для размещения объявлений о вакансиях и рекомендательных системах для поиска кандидатов на работу. Эти системы искусственного интеллекта используют данные из сети пользователей LinkedIn, а это означает, что трудно изолировать модели в каком-либо четком географическом смысле. Таким образом, LinkedIn будет очень сложно соответствовать стандартам ЕС и гипотетическому другому набору правил другой страны. Любые конфликты создадут немедленную проблему для LinkedIn, возможно, потребовав от них создания различных процессов управления рисками, попыток свести к минимуму различные показатели предвзятости. 

* На территории РФ соцсеть заблокирована по требованию Роскомнадзора из-за нарушения законодательства о персональных данных
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".