Решение было представлено на Форуме по разработке и применению финансовых ИИ-технологий, прошедшем в Шанхае. Система UCM распределяет данные по разным типам памяти в зависимости от требований к задержке, включая сверхбыструю HBM, стандартную оперативную память и твердотельные накопители. Такой подход, по заявлению Huawei, снижает задержку вывода моделей ИИ до 90% и увеличивает пропускную способность системы в 22 раза.
Это пример того, как китайские компании компенсируют ограниченный доступ к передовым аппаратным компонентам за счёт программных инноваций. Ранее подобную стратегию продемонстрировал стартап DeepSeek, создавший мощные модели при ограниченных ресурсах чипов.
Huawei планирует в сентябре открыть исходный код UCM сначала для своего онлайн-сообщества разработчиков, а затем для всей отрасли. Это может снизить зависимость Китая от зарубежных поставщиков HBM, среди которых — южнокорейские SK Hynix и Samsung Electronics, а также американская Micron Technology, контролирующие основную часть мирового рынка.
HBM — это многослойная высокоскоростная память, обеспечивающая высокую пропускную способность и низкую задержку при работе с большими массивами данных. Она играет ключевую роль в запуске сложных ИИ-моделей, особенно тех, что связаны с логическими рассуждениями. По прогнозам Yole Group, в 2024 году мировой рынок HBM почти удвоится и достигнет $34 млрд, а к 2030 году — $98 млрд.
В условиях ограниченного доступа к современным HBM Китай остаётся зависимым от импорта, поскольку местные производители, например, Yangtze Memory Technologies и Changxin Memory Technologies, пока уступают зарубежным конкурентам по технологическим характеристикам. Программные решения вроде UCM могут частично нивелировать этот разрыв, позволяя эффективнее использовать имеющееся оборудование.