OpenAI представила пользователям большое количество результатов испытаний GPT-4 и показала интригующие примеры возможностей GPT-4, но дала минимум информации о данных, использовавшихся для обучения системы, о расходах электроэнергии и о специфическом оборудовании или методах создания языковой модели. Многие в ИИ-сообществе выступили с критикой такого решения, отмечая, что оно идет вразрез с фундаментальной этикой компании и принципами, на которых она была некогда основана. С практической точки зрения такая закрытость усложняет разработку мер противодействия угрозам обществу, которые могут представлять системы вроде GPT-4.
В интервью Verge Илия Суцкевер, сооснователь и главный ученый OpenAI заявил, что причины такого решения руководства компании «очевидны»: все дело в конкуренции. «GPT-4 непросто разрабатывать, — пояснил он. — Ее создание на протяжении очень долгого времени отнимало и по-прежнему отнимает почти все силы OpenAI. И существует много компаний, которые хотят того же, так что с точки зрения конкуренции это можно воспринимать как зрелось индустрии».
По словам Суцкевера, вопрос безопасности GPT-4 не такой существенный, как проблема конкуренции. Но со временем это изменится. «Эти модели очень способные, и становятся все более способными. В какой-то момент будет очень просто, при желании, причинить большой вред с помощью этих моделей. А поскольку их возможности растут, имеет смысл не разглашать их», — сказал он.
Такой закрытый подход в корне отличается от принципов, на которых OpenAI была основана в 2015 году небольшой группой энтузиастов. Помимо Суцкевера в нее входил нынешний гендиректор Сэм Альтман и Илон Маск, покинувший совет директоров в 2018-м из-за разногласий. Поначалу это была некоммерческая организация, но позже стала «ограниченно коммерческой», чтобы удобнее было привлекать миллиардные инвестиции, прежде всего — от Microsoft.
На вопрос, почему OpenAI изменила свою позицию и перестала раскрывать технические подробности своих моделей, Суцкевер признался: «Мы ошибались. Честно говоря, мы ошибались. Если вы считаете, как и мы, что на каком-то этапе ИИ — универсальный ИИ — станет крайне, невообразимо могучим, то попросту не разумно раскрывать подробности. Это плохая идея… Я полностью уверен, что через пару лет всем станет совершенно очевидно, что открывать источники ИИ не умно».
Еще одна причина, по которой компания не раскрывает детали своей технологии, может заключаться в юридическом аспекте. Языковые модели обучаются на основе огромного количества текстов, собранных по всему интернету. Среди этих текстов, вполне вероятно, попадаются защищенные авторским правом.