Hitech logo

Кейсы

Технология NVIDIA может уменьшить объем памяти ИИ-моделей в 20 раз

TODO:
Екатерина ШемякинскаяСегодня, 10:39 AM

NVIDIA нашла способ радикально ускорить работу ИИ-систем с длинными диалогами. Новая технология KVTC сокращает время задержки до восьми раз и уменьшает потребление памяти до 20 раз. Это решение критически важно для корпоративных сценариев — аналитики, программирования и агентных систем, где длинный контекст создает серьезную нагрузку на GPU. Тесты на моделях до 70 млрд параметров показали, что даже при 32-кратном сжатии точность остается приемлемой.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Метод KV Cache Transform Coding (KVTC) уменьшает объем так называемого кэша «ключ-значение» (KV-кэш) — механизма, который хранит информацию о предыдущих сообщениях в диалоге. По сути, это скрытые числовые представления для каждого предыдущего токена в диалоге. Именно этот кэш позволяет моделям не «перечитывать» всю историю общения с нуля. Проблема заключается в том, что он быстро разрастается до гигабайтов, создавая нагрузку на GPU и увеличивая задержки.

В корпоративных сценариях, где используются ИИ-агенты и длинные цепочки рассуждений, это становится серьезным узким местом. Ограничения по памяти видеокарт зачастую сильнее влияют на масштабирование, чем сами вычислительные ресурсы, что напрямую сказывается на стоимости инфраструктуры и скорости отклика систем. Большинство существующих методов сжатия KV-кэша либо слабые, либо требуют ресурсоемких вычислений в реальном времени.

Новая технология решает проблему за счет подходов сжатия из мультимедийных форматов, таких как JPEG.

Вместо изменения самой модели KVTC работает на уровне обработки данных, поэтому метод совместим с существующими системами без необходимости их переработки. В основе подхода лежит концепция трансформационного кодирования: кэш уменьшается с помощью быстрого многоэтапного процесса, выполняемого между фазами вывода, чтобы не замедлять генерацию токенов.

Ключевым элементом технологии стал анализ главных компонентов (PCA), который позволяет выделить наиболее важные данные в кэше и сократить избыточную информацию. Далее применяется алгоритм, распределяющий точность хранения: значимые компоненты сохраняются с высокой точностью, а менее важные сжимаются или отбрасываются.

Тестирование показало, что при сжатии до 20 раз KVTC сохраняет точность моделей с падением менее чем на 1 процентный пункт на широком наборе бенчмарков — от математических задач (MATH-500) и программирования (LiveCodeBench) до сценариев с длинным контекстом.

Метод проверяли на моделях от 1,5 до 70 млрд параметров, включая Mistral NeMo и Qwen 2.5. Так, потребление памяти Qwen 2.5 1.5B удалось снизить с 29 КБ до 3,2 КБ на токен при 8-кратном сжатии, а падение точности составило всего 0,3 процентного пункта. Даже при экстремальном сжатии в 32–64 раза KVTC демонстрировала устойчивые результаты, тогда как альтернативные подходы заметно теряли точность уже при пятикратном сжатии.

Дополнительным преимуществом стало резкое снижение задержек: время до генерации первого токена может сокращаться до восьми раз. Например, при запросе на 8000 токенов стандартной 12-битной модели на Nvidia H100 пересчет истории с нуля занимает около трех секунд.

Разработчики отмечают, что технология лучше всего подходит для задач с длинным контекстом — программирования, аналитики или агентных систем. В перспективе KVTC может стать стандартным слоем оптимизации в инфраструктуре ИИ, подобно тому как сжатие видео стало неотъемлемой частью современных потоковых сервисов.