Статья
1682
28 апреля 2023 13:06
Разработка стандартов безопасности: роль G7 в регулировании ИИ
Страны G7 в рамках форума в Хиросиме 19-21 мая могут предоставить международному сообществу площадку для совместной разработки набора основополагающих концепций ИИ, говорится в докладе группы экспертов американского аналитического центра Center for Strategic and International Studies (CSIS). В частности, «Большая семерка» может помочь в улучшении координации разработки технических стандартов ИИ и принципах регулирования.Ранее «Большая семерка» уже успешно обеспечивала многосторонний форум для сотрудничества в области управления технологиями, в том числе в области ИИ, говорится в докладе. «Группа выпустила стратегические документы, в которых изложены общие принципы и общее видение будущего ИИ, инициировала создание ориентированного на исследования Глобального партнерства в области ИИ и сыграла важную роль в разработке принципов ИИ Организацией экономического сотрудничества и развития. Действия „Большой семерки“ в отношении стандартов ИИ укрепят и придадут многосторонний характер работе других международных организаций для создания четкого и четко определенного соглашения об общих основополагающих стандартах ИИ», — отмечается в докладе.
«Группа семи» уже проводит согласование практики регулирования ИИ в рамках инициативы Data Free Flow with Trust (DFFT). «DFFT сыграл ключевую роль на последних трех саммитах G7 и заручился согласием G7 на расширение сотрудничества и оперативной совместимости по ключевым мерам управления данными. Япония первоначально представила DFFT на Всемирном экономическом форуме в 2019 году и с тех пор является чрезвычайно эффективным сторонником этого направления. „Большая семерка“ является идеальным форумом для обеспечения политической приверженности сотрудничеству в области разработки стандартов», — пишут авторы доклада.
Обязательство G7 повлияет на повышение качества нового регулирования ИИ во всем мире. «Политики во всем мире работают над необходимым и неизбежным регулированием и руководством в области ИИ, которые поддерживают ответственные инновации и минимизируют потенциальные вредные последствия систем ИИ с помощью мер управления и мер безопасности. Например, Европейский союз разрабатывает свой закон об искусственном интеллекте, Национальный институт стандартов и технологий США опубликовал свою концепцию управления рисками ИИ в 2023 году, Великобритания недавно опубликовала первый проект своего подхода к регулированию ИИ», — говорится в докладе.
Среди компаний, внедряющих ИИ, 84% считают, что ответственный ИИ (RAI) является приоритетом высшего руководства, но только 24% сообщили, что их организация разработала зрелую программу RAI, сообщают авторы доклада. «Зрелые механизмы RAI снижают затраты и репутационные риски. Наличие программы RAI поможет фирмам выявлять пробелы в управлении ИИ и устранять сбои системы ИИ до того, как они усугубятся. Необходима работа по сбору существующих передовых методов управления ИИ для формирования зрелого и широко распространенного набора стандартов. Это может помочь снизить стоимость и сложность управления ИИ», — утверждают авторы доклада. По их словам, «не существует изначального компромисса между снижением рисков ИИ и ускорением внедрения».
3 мая 2023
Главное
Регулирование ИИ: риски и ограничения
Конгрессмен США Иветт Кларк подготовила
законопроект, который потребует раскрытия контента, созданного ИИ, в политической рекламе. По ее словам, «действующее законодательство США не защищает американский народ от быстрого развертывания ИИ, который может разрушить общество».
КомментарийКомментарий
политологГлеб Кузнецов
КомментарийКомментарий
политологГлеб Кузнецов


