NVIDIA DGX GB200

SKU
DGX GB200
Запросити ціну
EAN: 24790
Состояние: Новый
Статус: Доступен под заказ
Lead time: 14-21 день

The NVIDIA DGX GB200 is a cutting-edge, rack-scale AI infrastructure designed to handle the most demanding generative AI workloads, including training and inference of trillion-parameter models. Each liquid-cooled rack integrates 36 NVIDIA GB200 Grace Blackwell Superchips—comprising 36 Grace CPUs and 72 Blackwell GPUs—interconnected via fifth-generation NVLink to deliver up to 1.8 TB/s of GPU-to-GPU bandwidth.

Оборудование NVIDIA представляет собой высокопроизводительные платформы для обработки данных, построенные с учётом современных требований к вычислительным системам в области искусственного интеллекта, научных вычислений, промышленной автоматизации и корпоративной аналитики. Используемые архитектуры — Hopper, Grace Hopper, Blackwell — обеспечивают высокую плотность вычислений, энергоэффективность и масштабируемость.

Оборудование NVIDIA ориентировано на комплексную поддержку задач обучения и инференса нейросетей, включая большие языковые модели, генеративные ИИ-системы, компьютерное зрение, обработку естественного языка, моделирование и виртуализацию процессов.

Ключевые особенности платформ:

  • Поддержка архитектур Hopper, Grace, Blackwell и Orin

  • Использование графических процессоров с интерфейсом NVLink/NVSwitch для ускоренного взаимодействия между GPU

  • Поддержка памяти HBM3 или HBM3e с высокой пропускной способностью

  • Возможность построения масштабируемых кластеров, объединённых в единый вычислительный узел

  • Совместимость с NVIDIA AI Enterprise, CUDA, Triton Inference Server, TensorRT, RAPIDS и другими библиотеками

Применение оборудования NVIDIA:

  • Обучение и инференс моделей машинного обучения и ИИ

  • Моделирование и симуляция процессов в научных и инженерных задачах

  • Автоматизация промышленных процессов и робототехнические комплексы

  • Построение цифровых двойников объектов и технологических цепочек

  • Обработка больших массивов данных и высоконагруженные аналитические вычисления

  • Графический рендеринг, 3D-моделирование, симуляция физики и визуализация

Краткий обзор основных линеек оборудования:

  • HGX — серверные платформы для центров обработки данных, используемые при построении масштабируемой инфраструктуры ИИ. Предназначены для интеграции в стоечные решения и применения в дата-центрах.

  • DGX — готовые решения NVIDIA для ИИ-вычислений. Представляют собой предварительно сконфигурированные системы с максимальной производительностью для обучения больших моделей. Используются в лабораториях, ИИ-центрах и корпоративной аналитике.

  • IGX Orin — платформа промышленного уровня для встраиваемых ИИ-решений. Применяется в медицине, автоматизации, транспортных системах и системах мониторинга.

  • GH200 / GB200 / GB300 — суперчипы, объединяющие CPU и GPU в единый вычислительный модуль с когерентной памятью. Используются в составе крупномасштабных систем для работы с LLM, цифровыми двойниками и облачными платформами.

  • RTX Workstation — профессиональные графические процессоры для рабочих станций. Предназначены для специалистов в области дизайна, графики, 3D, CAD и визуализации. Обеспечивают ускоренную работу с профессиональными приложениями и ИИ-инструментами.

  • GeForce RTX для ноутбуков — мобильные GPU, ориентированные на высокопроизводительные задачи: игры, моделирование, рендеринг, ИИ-приложения на пользовательском уровне.

Преимущества использования оборудования NVIDIA:

  • Максимальная производительность для задач искусственного интеллекта и машинного обучения

  • Оптимизация инфраструктуры для работы с моделями нового поколения (в том числе многотриллионными параметрами)

  • Высокая масштабируемость от одного узла до ИИ-кластера

  • Совместимость с ведущими фреймворками и программным обеспечением

  • Поддержка корпоративных решений и инфраструктур (в том числе через NVIDIA AI Enterprise)

  • Перспективность при построении дата-центров и периферийных ИИ-вычислений

Технические характеристики NVIDIA DGX GB200:

Component Specification
Superchips per Rack 36 NVIDIA GB200 Grace Blackwell Superchips
CPU 36 NVIDIA Grace CPUs
GPU 72 NVIDIA Blackwell GPUs
GPU Memory Up to 13.4 TB HBM3e
GPU Memory Bandwidth 576 TB/s
CPU Memory Up to 17 TB LPDDR5X
CPU Memory Bandwidth 18.4 TB/s
GPU-to-GPU Interconnect Fifth-generation NVLink, 1.8 TB/s per GPU
Total NVLink Bandwidth 130 TB/s
Performance (FP8) Up to 720 PFLOPS
Performance (FP4) Up to 1,440 PFLOPS
Networking NVIDIA Quantum InfiniBand, up to 800 Gb/s per port
Cooling Liquid-cooled rack-scale system
Management Intelligent control plane with predictive analytics
Scalability Connect multiple racks to scale to hundreds of thousands of GB200 Superchips

Код товара24790
ManufacturerNvidia
Ваша оценка