OpenAI привлекла уже более $12 млрд инвестиций, однако до сих пор не может объяснить, как именно работают её технологии. Спустя несколько дней после анонса начала разработки GPT-5 Сэм Альтман выступил на конференции «ИИ во благо» в Женеве, где признался, что большие языковые модели понятны разработчикам не более, чем человеческий мозг нейроученым.
Альтман сообщил, что его компания определённо не решила вопрос интерпретируемости — в сфере ИИ так называют понимание того, как нейросети принимают решения. Ведущий спросил, безопасно ли выпускать новые, более мощные модели, если принцип работы даже их предшественников не понятен производителям. Глава OpenAI ответил уклончиво, однако он считает, что ИИ достаточно безопасен и надёжен, чтобы и дальше развивать его.
Разработчикам известно, что модели семейства GPT создают новый контент на основе известных данных и со временем могут обучаться. БЯМ OpenAI, вероятно, не обладают эмоциональным интеллектом и человеческим сознанием, но всё равно похожи на мозг homo sapiens — тяжело понять, как они приходят к своим выводам.
Потенциальный вред продуктов OpenAI давно вызывает тревогу у общественности. Недавно компания распустила свою прошлую команду по безопасности, которую возглавлял Илья Суцкевер, и сформировала новую под руководством самого Альтмана.
Бывшие члены правления OpenAI Хелен Тонер и Таша МакКоли прокомментировали это решение для журнала Economist и сказали, что в первую очередь руководство стремится к прибыльности, а не к безопасности продуктов. Альтман с этим мнением не согласен: он считает, что только разработка новых мощных моделей ИИ позволит понять и «приручить» эту технологию.