Комментарий
2479 3 мая 2023 9:50

Риски внедрения ИИ

Глеб Кузнецов политологГлеб Кузнецов

Глеб Кузнецов
политологГлеб Кузнецов
Не успел написать про «марксистское измерение» проблемы ИИ, как вчера — новость: один из главных теоретиков этого дела Джефри Хинтон покидает Гугл по этическим соображениям. И описывает риски значительно шире, чем что кто-то там потеряет работу. 

Итак, помимо рынка труда, риски повсеместного и бесконтрольного внедрения ИИ, по мнению эксперта, такие:

  • Принципиальная невозможность верификации данных. Ну, то есть установить правда-неправда относительно любой информации — что «общественно-политической» что вполне себе научной, окажется невозможным;
  • Принципиальное отсутствие этической рамки во всей этой ветке развития. Технология неизбежно может и будет использоваться во зло и вред как отдельным людям, так и их сообществам и группам;
  • Масштаб этого зла и вреда невозможно оценить и осмыслить, компании-разработчики старательно уходят от обсуждения и осмысления угроз и благодаря своему лоббистскому потенциалу, фактически запрещают это делать регуляторам (тут кейс Италии, которая сначала запретила ChatGP, а потом, получив внушение от ЕС, снова разрешила);
  • Сам себе хозяин. Хинтон говорит о том, что полбеды в том, что какой-нибудь очень плохой человек будет пользоваться инструментом для цензуры, обмана и так далее. Беда в том, что инструмент уже сегодня сам пишет код, успешно заменяя программистов, и с высочайшей долей вероятности придет к тому, что будет сам контролировать себя через создание автономных программ, о которых человечество узнает, только когда они будут введены в действие.


Проблема, то есть не в том, что условному Гитлеру в руки инструмент попадет (обязательно попадет, кстати), проблема в том, что сам инструмент может реализовать себя в качестве хоть Гитлера, хоть Пол Пота, хоть кого. Ну и отдельно прекрасно, что в то, чтобы не было никакой рамки ответственности и анализа как близких, так и отдаленных последствий внедрения ChatGP и аналогов, еще и большие отдельные деньги вкладываются. 

Сам Хинтон — один из авторов технологии глубокого обучения нейросетей на секундочку — сравнивает историю с гонкой за ядерным оружием во время WWII. Расстраивается от того, что человечество за сто лет не усвоило ни одного урока вообще и отказывается в этом участвовать. 

При этом отмечает, что компании конкурируют между собой в пространстве, где нет даже отдаленных представлений о регуляции, правилах и «общественном интересе». Исходя из простой логики — раз можем, значит, сделаем и продадим. Основной и единственный «страх» это не последствия те самые, а что сосед по рынку что-то там сделает и продаст быстрее тебя. 

Как по мне, это все напоминает не столько гонку за создание ядерной бомбы, сколько историю с опиоидной эпидемией, так называемой, в США. Уже и все всё поняли, фильмы сняты, книги написаны, на обещании прекратить это дело политические карьеры сделаны, и даже отдельные участники назначены виновными и наказаны, но число смертей от передозировки аптечными опиоидами только растет. Нет методов, в общем, чтобы остановить продажи препаратов с такой прибылью в современном мире. А фарма, облизываясь, только обещает вкладывать деньги в реабилитацию зависимых. 

Может, хотя бы голоса трезвых взрослых людей из IT-сектора позволят хоть как-то начать обсуждать социальные последствия ИИ-истерии, хоть как-то перебив вой жизнерадостных свидетелей прогресса за деньги, которые стремятся задавить любое серьезное обсуждение темы воем про «прогресс не остановить» и «вы просто не принимаете в силу дикости ничего нового».

Источник
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".