Hitech logo

искусственный интеллект

Сооснователь OpenAI: «Генеративные модели в какой-то момент станут опасны»

TODO:
Георгий Голованов16 марта 2023 г., 17:23

Появление GPT-4 разочаровало многих экспертов, и не своими техническими усовершенствованиями, а отсутствием информации о внутреннем устройстве генеративной модели. Вопреки своим принципам, OpenAI выпустила не открытую языковую модель, а «черный ящик», скрыв практически все интересные для ИИ-сообщества технические подробности. Руководство компании объясняет это конкуренцией и желанием защитить людей от появления неконтролируемого и опасного универсального искусственного интеллекта. При этом сооснователь компании признался, что считает GPT-4 способной вырасти до универсального ИИ и даже назвал сроки — опасность инструмента станет всем очевидна уже через пару лет.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

OpenAI представила пользователям большое количество результатов испытаний GPT-4 и показала интригующие примеры возможностей GPT-4, но дала минимум информации о данных, использовавшихся для обучения системы, о расходах электроэнергии и о специфическом оборудовании или методах создания языковой модели. Многие в ИИ-сообществе выступили с критикой такого решения, отмечая, что оно идет вразрез с фундаментальной этикой компании и принципами, на которых она была некогда основана. С практической точки зрения такая закрытость усложняет разработку мер противодействия угрозам обществу, которые могут представлять системы вроде GPT-4.

В интервью Verge Илия Суцкевер, сооснователь и главный ученый OpenAI заявил, что причины такого решения руководства компании «очевидны»: все дело в конкуренции. «GPT-4 непросто разрабатывать, — пояснил он. — Ее создание на протяжении очень долгого времени отнимало и по-прежнему отнимает почти все силы OpenAI. И существует много компаний, которые хотят того же, так что с точки зрения конкуренции это можно воспринимать как зрелось индустрии».

По словам Суцкевера, вопрос безопасности GPT-4 не такой существенный, как проблема конкуренции. Но со временем это изменится. «Эти модели очень способные, и становятся все более способными. В какой-то момент будет очень просто, при желании, причинить большой вред с помощью этих моделей. А поскольку их возможности растут, имеет смысл не разглашать их», — сказал он.

Такой закрытый подход в корне отличается от принципов, на которых OpenAI была основана в 2015 году небольшой группой энтузиастов. Помимо Суцкевера в нее входил нынешний гендиректор Сэм Альтман и Илон Маск, покинувший совет директоров в 2018-м из-за разногласий. Поначалу это была некоммерческая организация, но позже стала «ограниченно коммерческой», чтобы удобнее было привлекать миллиардные инвестиции, прежде всего — от Microsoft.

На вопрос, почему OpenAI изменила свою позицию и перестала раскрывать технические подробности своих моделей, Суцкевер признался: «Мы ошибались. Честно говоря, мы ошибались. Если вы считаете, как и мы, что на каком-то этапе ИИ — универсальный ИИ — станет крайне, невообразимо могучим, то попросту не разумно раскрывать подробности. Это плохая идея… Я полностью уверен, что через пару лет всем станет совершенно очевидно, что открывать источники ИИ не умно».

Еще одна причина, по которой компания не раскрывает детали своей технологии, может заключаться в юридическом аспекте. Языковые модели обучаются на основе огромного количества текстов, собранных по всему интернету. Среди этих текстов, вполне вероятно, попадаются защищенные авторским правом.