Cocoon позиционируется как альтернатива централизованным облачным провайдерам, таким как Amazon и Microsoft, которые выступают посредниками, повышают стоимость вычислений и ограничивают уровень конфиденциальности. Новая сеть решает эти проблемы за счет распределенной архитектуры: обработка запросов происходит не в облаках крупных корпораций, а в сети независимых GPU-узлов. Это позволяет пользователям запускать ИИ-модели, не раскрывая свои данные сторонним компаниям.
Платформа связывает владельцев графических ускорителей с разработчиками ИИ-приложений через доверенные среды выполнения (TEE). Все запросы и ответы шифруются и доступны только клиенту, а выполнение задач происходит внутри защищенных модулей, недоступных даже владельцам серверов.
Архитектура Cocoon состоит из трех компонентов: клиента (Client), прокси-узла (Proxy) и рабочего узла (Worker). Клиент оплачивает запросы и отправляет их в сеть, Proxy выбирает подходящего исполнителя, а Worker выполняет вычисления на GPU.
Владельцы GPU могут подключить свои устройства (уровня Nvidia H100 и выше) и получать вознаграждение в токенах TON за выполнение задач Cocoon. Можно сказать, что они «майнят» TON, предоставляя сети вычислительную мощность. Разработчики при этом получают доступ к GPU-ресурсам по цене ниже, чем в традиционных облачных сервисах.
Дуров отметил, что запуск — лишь начало масштабирования сети. В ближайшие недели команда планирует подключить больше GPU-поставщиков и расширить набор приложений, использующих Cocoon. Telegram, по его словам, уже готовит новые функции с применением ИИ, которые будут работать полностью конфиденциально.
«Cocoon вернёт контроль и приватность пользователям. Мы увеличиваем предложение GPU, расширяем спрос со стороны разработчиков и строим новые ИИ-функции для Telegram — всё это со100% конфиденциальностью», — подчеркнул Дуров.

