Новость
1281
11 апреля 2025 10:00
ИИ с «угрожающим уровнем риска» запретят
Группа российских юристов, представителей консалтинговых компаний и участников рынка, развивающих ИИ, разработала законопроект «О регулировании систем искусственного интеллекта (ИИ) в России», который направлен на регулирование таких технологий.Законопроект предлагает ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека), понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.), а также понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя указанные технологии), разработчика, оператора и пользователя подобных систем и др.
Также законопроект предусматривает введение требований к маркировке систем ИИ, то есть обязательному информационному обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой». Ее должен обеспечить оператор системы ИИ до каждого случая взаимодействия с пользователем. Требование не будет распространяться на системы ИИ, используемые в закрытых технологических процессах и для внутренней автоматизации организаций.
Кроме того, предлагается ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска, а также запретить в России разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина. Для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) предлагается ввести обязательную госрегистрацию и сертификацию. Для систем с ограниченным уровнем риска, — системы внутреннего контроля качества и добровольную сертификацию. Помимо этого, документ предполагает введение ответственности за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и использовании систем искусственного интеллекта. При этом в документе уточняется, что разработчик не будет нести ответственность, если принял все необходимые меры для предотвращения причинения вреда или если вред возник из-за нарушения правил эксплуатации системы. Оператор систем ИИ будет освобожден от ответственности, если докажет, что вред возник по вине разработчика в результате нарушения пользователем правил использования системы и др. Также предлагается ввести обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.
Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека (определял ли человек параметры и критерии создания результата, делал ли творческий отбор и доработку, принимал ли творческие решения в процессе создания). Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку. Если этого вклада не было, то право на результат должно принадлежать оператору системы ИИ в течение 50 лет.
В пояснительной записке к проекту отмечается, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года, которая была утверждена в феврале 2024 года.
Если документ будет принят в нынешнем виде, операторы и разработчики систем ИИ должны будут выполнить требования документа в течение года после его вступления в силу, а системы ИИ с высоким уровнем риска, которые были созданы до принятия проекта, должны будут пройти обязательную сертификацию в течение двух лет.
Сейчас российские компании внедряют меры по саморегулированию, используют маркировку ИИ-сгенерированного контента и действуют на основе отраслевых стандартов по ответственному развитию технологий искусственного интеллекта, отмечают источники. При этом чрезмерное и поспешное регулирование, по их словам, приведет к замедлению развития стратегически важной для экономики страны отрасли, ограничит возможности и пользу технологий для пользователей и бизнеса, приведет к технологическому отставанию отечественных игроков. Кроме того, поспешное регулирование ИИ оказало негативное влияние на европейские компании: закон об ИИ в ЕС привел к тому, что лидеры рынка сокращают присутствие в регионе, а собственные конкурентоспособные решения не появляются.
КомментарийКомментарий
аналитик Виктория Совгирь
23 апреля 2025
Новость
Иностранные компании активно нанимают российских айтишников
В 2024 году иностранные компании вдвое увеличили
найм российских IT-специалистов — до 5 тыс. человек против 2,5 тыс. в 2023-м.
КомментарийКомментарий
политологМихаил Карягин

