Статья
1409
8 августа 2023 11:56
ИИ-контроль: роль государства
Начало 2023 года ознаменовало «бум» генеративных нейронных сетей — большие языковые и text2image модели проявили себя как эффективные инструменты для решения широкого ряда задач.За ростом массового внимания к Искусственному Интеллекту (ИИ) последовал новый тренд — AI Alignment, или проблема согласованности ИИ с целями и ценностями общества. Ученые не только обратили внимание на угрозу безработицы и социального неравенства, но и на потенциал языковых моделей для генерирования дезинформации и даже создания биологического оружия. Работа над предотвращением потенциально деструктивного влияния нейронных сетей стала не менее важным процессом, чем совершенствование функционала моделей.
В контексте осуществления контроля, одним из самых влиятельных акторов остается власть. Именно на роли государства и надгосударственных структур фокусируются многочисленные доклады «фабрик мысли», посвященные проблеме AI Alignment.
История
Еще в апреле 2021 года, комиссия Европейского Союза (ЕС) опубликовал проект AI Act — документа, регулирующего использование ИИ. Главный недостаток документа — фокус комиссии на моделях с точно определенной вредоносной целью. Современные разработки, наподобие ChatGPT, бросают вызов этой концепции, представляя собой «базисные модели» (foundation models) — они созданы для решения широкого ряда задач, и деструктивное влияние может быть не намеренным, а «побочным» эффектом.
Эксперты брюссельской «фабрики мысли» Bruegel приводят в пример такие примеры вреда современных языковых моделей, как дезинформация, оскорбление меньшинств, трансляция различных видов предрассудков и стереотипов, нарушение авторского права, рост безработицы в ряде секторов, повышенное потребление энергии.
Bruegel: «ЕС, вероятно, станет крупным поставщиком генеративного ИИ»
На данном этапе Европейский парламент уже предложил несколько нововведений в AI Act: например, обязывать создателей ИИ регулярно оценивать потенциальные риски их разработок, подготавливать подробную документацию с нормативными требованиями использования модели.
Brugel также предлагает ЕС ряд поправок в документ:
- Следует различать крупных производителей ИИ (Google, OpenAI, Anthropic) и небольшие компании — первые имеют широкую аудиторию и необходимые ресурсы для компенсации потенциального ущерба. Именно на них должен ложиться основной пласт обязательств (например, инвестиции в безопасность разработок) по обеспечению AI Alignment.
- Необходимо регулировать выплату «роялти» за использование чужой интеллектуальной собственности в ответах ИИ
- Важно закреплять международные технические стандарты функционирования моделей
- Требуется организация надзора «третьей стороны» (экспертного сообщества) за работой компаний.
Участие ЕС в разработке подобного регуляторного механизма потенциально делает союз «главным игроком» на этом рынке и позволяет обеспечить развитие технологии в соответствии с ценностями ЕС.
Carnegie Endowment: «Национальный реестр крупных моделей ИИ»
Американская «фабрика мысли» Carnegie Endowment for International Peace (CEIP) призывает национальные правительства принять участие в контроле над ИИ.
Эксперты «фабрики» критикуют AI Act, презентованный ЕС, за требование к производителям публиковать информацию о моделях в публичных базах данных. В условиях рыночной конкуренции, это может быть серьезной проблемой для компаний. Вместо этого, государства должны создавать собственный реестр с ограниченным доступом, для которого производители ИИ будут обязаны поставлять информацию о своих разработках.
Компании, впрочем, не обязаны находится под полным контролем власти. Их задача — предоставлять государству сведения о размере их моделей, методах тренировки, описание тренировочных данных и границ применения их разработок. Отказ компаний от сотрудничества или нарушение правил влечет за собой отсутствие регистрации и, соответственно, запрет на «развертывание» моделей.
Регистрация моделей ИИ схожа с необходимостью лицензирования больниц для приема пациентов, страховых компаний для предоставления страховки, юристов для оказания юридических услуг.
RAND: «Обучение пользователя — ключевой аспект»
Министерство обороны США имеет подразделение, ответственное за адаптацию современных data-driven решений для решения государственных задач — Chief Digital and Artificial Intelligence Office, или CDAO. По утверждению RAND, данные, аналитика и ИИ, помогают министерству принимать решения как на внутренних заседаниях, так и на поле боя.
Согласно главе CDAO, подразделение не создает новые разработки, а адаптирует существующие под национальные нужны. Она также признает, что современный ИИ несёт за собой ряд рисков и проблем — например, «галлюцинации», ложные и, вероятно, вредоносные рекомендации.
Тем не менее в контексте решения существующих проблем глава CDAO акцентирует внимание не на работе непосредственно с моделями или разработчиками, а на работе с пользователями: «Обучение пользователя — ключевой аспект». По её утверждению, все системы, «разворачиваемые» со стороны CDAO, сопровождаются информацией о том, как и в каких условиях их нужно использовать.
Кто будет контролировать ИИ (и будет ли)?
Несмотря на различные точки зрения относительно будущего и потенциала ИИ, все «фабрики мысли» сходятся на необходимости контроля над моделями и их использованием в той или иной степени. Сегодня столкновение трендов на развитие функционала моделей и обеспечение соответствия их работы с общественными ценностями — актуальная проблема на стыке политики и ИИ как науки.
Тем не менее будущая степень контроля и определение акторов, ответственных за это, — дискуссионный вопрос. Наиболее вероятными представляются три сценария развития событий:
- Полное отсутствие контроля над ИИ.
Несмотря на призывы «фабрик» к регулированию этой сферы, некоторые группы не признают существование угрозы со стороны генеративных моделей.
Центр Information Technology & Innovation Foundation, например, утверждает, что страхи «алармистов» преувеличены и практическим безосновательны. Похожий тезис упоминают эксперты CEIP — «Silicon Valley hype» просто отвлекает внимание общественности от настоящих проблем, наподобие социальной несправедливости и неравенства.
Потенциал ИИ для решения ряда задач действительно большой, однако общественная угроза с его стороны — пока лишь гипотетическая.
Главный контраргумент относительно этой позиции — об опасности развитого ИИ говорят не только сторонние наблюдатели, но и СЕО технологических компаний, ответственных за разработку моделей (например, глава OpenAI Сэм Альтман).
- Контроль над ИИ со стороны государств или надгосударственных структур — но не в консолидированном виде.
Главы государств вне зависимости от политической системы страны сходятся на необходимости регулирования ИИ. Впрочем, проблема контроля в данном контексте — отсутствие общих целей.
Коммунистическая Партия Китая, например, заинтересована в ограничении деятельности чатботов, которые не сонастроены с политическим курсом партии. Великобритания стремится занять место ключевого игрока в сфере контроля над ИИ, чтобы актуализировать свою роль на международной арене после выхода из ЕС.
Проблема усугубляется, во-первых, асимметрией информации — элиты не имеют точного представления о возможностях разрабатываемых технологических решений. Во-вторых, ИИ — это относительно новый феномен, и государства не имеют работающих инструментов для его контроля. Несмотря на заявления стран, конкретных и эффективных шагов в сторону регулирования этой сферы на сегодняшний день предпринято не было. Разработка эффективного механизма — это вопрос долгого времени, а единственное доступное на сегодня решение — это формулирование стандартов и рекомендаций.
- Ответственность за регулирование возьмут сами компании.
В конце июля, крупнейшие корпорации в сфере ИИ OpenAI, Anthropic, Google и Microsoft организовали Frontier Model Forum (FMF), орган, контролирующий безопасное и ответственное развитие передовых моделей. Задача FMF — развитие стандартов, критериев оценки безопасности, публикация наилучших решений в этом направлении.
Именно контроль со стороны технологических компаний, хоть и условный, выглядит наиболее вероятной перспективой. Во-первых, это решает проблему асимметрии информации — производители знают больше о своих разработках, чем государства. Во-вторых, объединение сразу нескольких корпораций «под эгидой» AI Alignment — признак консолидации задействованных акторов, в отличие от правительственных амбиций. В-третьих, несмотря на то, что FMF объединяет только создателей передовых моделей (небольшие компании фактически исключены из повестки), это обстоятельство способствует эффективному контролю над рынком — именно передовые модели потенциально представляют наибольшую угрозу.
Все три сценария являются равновероятными, и выбор сценария во многом будет зависеть от национальных особенностей той или иной страны, так как на данный момент создание наднационального регулятора не представляется возможным.
Павел Иванов, аналитик Центра политической конъюнктуры
КомментарийКомментарий
политологГлеб Кузнецов
8 сентября 2023
Новости
Астротурфинг: американские эксперты об угрозе со стороны Китая
Манипулирование общественным мнением
в соцсетях при помощи генеративного ИИ (в частности, астротурфинг) представляет «угрозу демократическим ценностям» США, которая исходит прежде всего от Китая, говорится в докладе экспертов американского аналитического центра RAND. «Актуальные комментарии» подготовили обзор доклада.
1 сентября 2023
Новости
Риски ИИ для сферы цифровых новостей: обзор доклада американского центра
Журналистская, редакционная и новостная
сферы испытывают кризис, так как многие издания перешли к включению генеративного искусственного интеллекта в производство своего контента, говорится в докладе, подготовленном научным сотрудником программы стратегических технологий Центра стратегических и международных исследований (CSIS) Кейтлин Чин. В работе рассмотрены риски, которые представляет ИИ для новостной ниши, и способы их снижения.
