По данным Axios, ChatGPT сейчас обрабатывает более 2,5 млрд запросов в день, из них 330 млн — от пользователей в США. В год это более 900 млрд запросов. Хотя это пока меньше, чем 5 трлн поисковых запросов в Google, темпы роста ChatGPT впечатляют: только за три месяца активная аудитория сервиса выросла с 300 до 500 млн человек в неделю.
Обслуживание такого количества пользователей требует огромных ресурсов. Сэм Альтман в своём посте на X заявил, что компания готовится ввести в эксплуатацию более 1 млн GPU до конца 2025 года. Это в пять раз больше, чем у конкурента — xAI Илона Маска, чья новая модель Grok 4 работает примерно на 200 тыс. процессоров Nvidia H100. Но и этого Альтману мало. Он добавил: «Очень горжусь командой…, но теперь им лучше поработать над тем, как в 100 раз больше, лол». За этой «шуткой» стоит вполне реальное стремление — обеспечить техническую базу для создания общего искусственного интеллекта (AGI).
Цель в 100 млн GPU пока выглядит утопичной. При нынешних ценах одна только закупка такого количества чипов обойдётся примерно в $3 трлн — почти как годовой ВВП Великобритании. К тому же, ни один производитель, включая Nvidia, не сможет обеспечить такие объёмы в обозримом будущем. Также остаются нерешенными вопросы энергоснабжения, охлаждения и размещения такого оборудования.
В феврале Альтман признал, что запуск GPT‑4.5 пришлось задержать, потому что у компании «буквально не осталось графических процессоров». Это стало тревожным сигналом, особенно на фоне дефицита чипов Nvidia, и с тех пор OpenAI сделала ставку на расширение инфраструктуры.
Сейчас компания строит огромный дата-центр в Техасе, который уже потребляет 300 МВт — достаточно, чтобы обеспечить энергией средний город. А к 2026 году планируется выйти на уровень 1 ГВт. Инфраструктура такого масштаба вызывает тревогу у сетевых операторов. Они предупреждают, что для стабильной работы объекта понадобится срочная и дорогая модернизация энергосистемы — настолько сложная, что с ней не смогут справиться даже государственные службы. Параллельно OpenAI расширяет сотрудничество с Microsoft, Oracle, тестирует ускорители TPU от Google и, по слухам, разрабатывает собственные ИИ-чипы.
Слова Альтмана — явное свидетельство того, как стремительно развивается индустрия. Год назад 10 000 графических процессоров звучали как огромное преимущество, а теперь миллион кажется лишь очередным шагом к чему-то гораздо большему. Развитие инфраструктуры для OpenAI — это не просто ускорение обучения или более плавное внедрение моделей, это способ закрепить долгосрочное лидерство в отрасли, где вычислительные мощности остаются главным узким местом.