Статья
995 22 августа 2024 15:05

Робот-ученый: ИИ меняет науку

Японская компания Sakana AI в сотрудничестве с Оксфордским университетом и Университетом Британской Колумбии представила систему искусственного интеллекта под названием AI Scientist — генеративную модель, которая, как утверждают авторы, способна автоматизировать весь жизненный цикл научных исследований в области машинного обучения, начиная с генерации новых идей, написания необходимого кода и выполнения экспериментов, заканчивая обобщением результатов, их визуализацией в виде графиков и написанием научной статьи со ссылками. Стоить все это будет $15, как утверждают в компании.

Отзывы о результатах работы AI Scientist неоднозначны, отмечает декан факультета вычислительных технологий Университета RMIT Карин Верспур. «Некоторые описывают эти результаты как „бесконечный научный мусор“. Вероятно, ситуация улучшится по мере развития технологии, но вопрос о том, насколько ценны автоматизированные научные работы, остается открытым. В науке уже есть недобросовестные участники, в том числе „бумажные фабрики“, выпускающие фальшивые статьи. Эта проблема только усугубится, когда научную статью можно будет подготовить за $15. Необходимость проверять ошибки в огромном количестве автоматически сгенерированных исследований может быстро превысить возможности настоящих ученых. Система экспертной оценки, вероятно, уже сломана, и вброс в нее новых исследований сомнительного качества не исправит ситуацию».

Исследования ИИ могут усугубить существующие проблемы, подчеркивает Карин Верспур. «Хотя Sakana AI заявляет, что не видит снижения роли ученых-людей, существование „полностью управляемой ИИ научной экосистемы“ будет иметь серьезные последствия для науки. Одно из опасений заключается в том, что, если созданные ИИ статьи заполонят научную литературу, будущие системы ИИ могут быть обучены на результатах ИИ и потерпеть крах модели. Это означает, что они могут стать неэффективными в плане инноваций».

До революции в науке еще далеко, считает эксперт по продуктам генеративных моделей искусственного интеллекта Эрик Хэл Шварц. «Программное обеспечение ИИ — это предел его возможностей, а для расширения его возможностей на другие научные дисциплины потребуется еще много работы. Как и в любой другой модели ИИ, могут возникнуть неточности, а значит, исследования будут неверными или откровенно бессмысленными и бесполезными для науки. Компания Sakana не уникальна в своем видении того, как ИИ может в будущем проводить собственные исследования. Ажиотажные слухи вокруг готовящегося проекта OpenAI наводят на мысль, что у создателя ChatGPT тоже появятся свои модели ИИ, способные самостоятельно проводить исследования».
2 сентября 2024 Колонки
Силиконовая долина приходит в госуправление
 Силиконовая долина приходит в госуправление Ярослав Барыкин о цифровизации систем государственного управления
30 августа 2024 Новости
Ответственность разработчиков: эксперты о технологиях ИИ
 Ответственность разработчиков: эксперты о технологиях ИИ Разработчики ИИ не могут нести полную ответственность за последствия использования их продукта, считают западные эксперты. Они также указывают, что многие аспекты современных конфликтов определяются интернетом и цифровыми технологиями.
26 августа 2024 Новости  Государство, технологии и риски вмешательства Технологические изменения последних лет повысили чувствительность государств к вызовам со стороны мессенджеров, цифровых платформ и IT-гигантов. Публикуем отрывок о характере этих процессов из статьи Алексея Чеснакова и Даниила Паренькова «Ощетинившиеся акторы» в журнале «Россия в глобальной политике».
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".