Для того чтобы не потратить даром ни капли энергии, каждый из 256 «суперчипов» компьютера, состоит из процессора Grace и графической карты H100 Tensor Core. Они собраны вместе, чтобы обмениваться данными между собой в семь раз быстрее, чем по протоколу PCI Express, расходуя в пять раз меньше электричества. Все они соединяются через систему NVLink Switch System, чтобы работать как один большой графический процессор.
После сборки суперкомпьютер DGX GH200 будет применяться для обучения генеративных моделей искусственного интеллекта следующего поколения. ChatGPT и другие известные языковые модели тоже были обучены на суперкомпьютере, который Microsoft построила из десятков тысяч видеокарт Nvidia A100, пишет New Atlas.
Компания собирается не только строить суперкомпьютеры для заказчиков, но и собрать собственный, даже имя придумала — «Гелиос». Запустить его планируют в 2023 году. Он будет состоять из четырех систем DGX GH200 bkb 1024 суперчипов GH200. Таким образом, его производительность вроде как составит 4 эксафлопса.
Однако, есть нюанс. На сегодня самый производительный суперкомпьютер — американский «Фронтир» с 1,194 эксафлопса. На первый взгляд кажется, что «Гелиос» превосходит его почти в четыре раза, но это не так. Nvidia использует менее точный метод измерения FP8, тогда как суперкомпьютеры обычно тестируют при помощи более точного FP64. И если преобразовать показатели «Гелиоса» в FP64, они составят около 0,036 эксафлопса. Что, конечно, тоже очень неплохой результат.
Китай намерен создать «интернет суперкомпьютеров», которых у него несколько сотен, к концу 2025 года. Сеть соединит подобные машины по всей стране, что позволит эффективно использовать их совместные вычислительные мощности «для содействия инновациям и социально-экономическому развитию». Китайские товарищи уверены, что такой интернет поспособствует достижению множества прорывов в науке и технике.