Статья
1136 29 августа 2023 16:24

«Коллапс моделей» и «габсбургский ИИ»: новые опасности в сфере технологий

Исследователи предупреждают о новых опасностях в сфере искусственного интеллекта, таких как «коллапс моделей», «габсбургский ИИ» и «модельное расстройство аутофагии», пишет Axios. Эксперты отмечают, что понимание происхождения и достоверности контента имеет крайне важное значение для общества.

Через несколько лет контент, созданный искусственным может составить до 90% информации в Интернете, говорится в публикации. При этом человечество еще не придумало, как надежно маркировать результаты, созданные ИИ, и отличать их от контента, созданного человеком. «Опасность для человеческого общества представляет собой знакомая теперь проблема информационной перегрузки и деградации», — отмечается в статье.

Одна из опасностей заключается в «коллапсе моделей». Так группа исследователей Корнелльского университета называет то, что происходит с генеративными моделями ИИ, такими как GPT-3 и GPT-4 от OpenAI, когда они обучаются с использованием данных, созданных другими ИИ, а не людьми. «Если снабдить модель достаточным количеством этих „синтетических“ данных, качество ответов ИИ может быстро ухудшиться, поскольку системы фиксируют наиболее вероятные варианты слов и отбрасывают другие варианты, которые делают их результаты интересными», — пишут авторы статьи.

Еще две опасности — «модельное расстройство аутофагии» и «габсбургский ИИ». «Модельное расстройство аутофагии» — так группа исследователей из университетов Райса и Стэнфорда назвала результат потребления ИИ своих собственных продуктов. «Габсбургский ИИ» — еще одно понятие, введенное учеными, означающее «систему, которая настолько тщательно обучается на результатах других генеративных ИИ, что становится инбредным мутантом, вероятно, с преувеличенными, гротескными характеристиками».

Понимание происхождения и достоверности контента имеет важное значение, считает отраслевой аналитик Рэй Ванг. Издание приводит слова эксперта, который отметил, что медиа-компании и другие поставщики качественной информации, опасаясь, что их ценный контент будет украден компаниями, занимающимися искусственным интеллектом, могут начать хранить большую часть своего контента в оффлайне или в платном доступе, что усложнит доступ общественности к необходимой информации. 

Сайты, использующие тексты, написанные ИИ, лишают оригинальные публикации трафика и могут усложнить поиск реальных журналистских материалов. Авторы статьи привели в пример прецедент, когда принадлежащий Microsoft сайт MSN, который в значительной степени полагается на контент, создаваемый искусственным интеллектом, опубликовал текст, в котором порекомендовал продовольственный банк Оттавы как «хорошее место для туристов на голодный желудок». Microsoft, со своей стороны, утверждает, что неконтролируемый искусственный интеллект не виноват в этом. Сейчас эта публикация удалена. «Появилось множество новостных сайтов, которые, судя по всему, занимаются не более чем прогонкой написанных человеком новостных материалов через систему искусственного интеллекта и размещением результатов в Интернете. Компания NewsGuard, которая оценивает достоверность новостных и информационных веб-сайтов и отслеживает дезинформацию в Интернете, в своем отчете за прошлую неделю выявила более 400 таких сайтов», — резюмируют авторы статьи.
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".