NVIDIA DGX GB200

SKU
DGX GB200
Запросити ціну
EAN: 24790
Cтан: Новий
Статус: Доступний під замовлення
Термін поставки: 14-21 день

The NVIDIA DGX GB200 is a cutting-edge, rack-scale AI infrastructure designed to handle the most demanding generative AI workloads, including training and inference of trillion-parameter models. Each liquid-cooled rack integrates 36 NVIDIA GB200 Grace Blackwell Superchips—comprising 36 Grace CPUs and 72 Blackwell GPUs—interconnected via fifth-generation NVLink to deliver up to 1.8 TB/s of GPU-to-GPU bandwidth.

Обладнання NVIDIA — це високопродуктивні платформи для обробки даних, розроблені відповідно до сучасних вимог до обчислювальних систем у сферах штучного інтелекту, наукових досліджень, промислової автоматизації та корпоративної аналітики. Використовувані архітектури — Hopper, Grace Hopper, Blackwell — забезпечують високу щільність обчислень, енергоефективність і масштабованість.

Рішення NVIDIA орієнтовані на комплексну підтримку задач навчання та інференсу нейронних мереж, зокрема великих мовних моделей, генеративного штучного інтелекту, комп’ютерного зору, обробки природної мови, моделювання та віртуалізації процесів.

Ключові особливості платформ:

  • Підтримка архітектур Hopper, Grace, Blackwell і Orin

  • Застосування графічних процесорів з інтерфейсами NVLink/NVSwitch для прискореної взаємодії між GPU

  • Пам’ять HBM3 або HBM3e з високою пропускною здатністю

  • Можливість побудови масштабованих кластерів, об’єднаних у єдиний обчислювальний вузол

  • Сумісність з NVIDIA AI Enterprise, CUDA, Triton Inference Server, TensorRT, RAPIDS та іншими бібліотеками

Сфери застосування обладнання NVIDIA:

  • Навчання та інференс моделей машинного навчання й штучного інтелекту

  • Моделювання та симуляція процесів у наукових та інженерних задачах

  • Автоматизація виробничих процесів і робототехнічні комплекси

  • Створення цифрових двійників об'єктів та технологічних ланцюгів

  • Обробка великих масивів даних і високонавантажені аналітичні обчислення

  • Графічний рендеринг, 3D-моделювання, симуляція фізичних процесів та візуалізація

Короткий огляд основних лінійок обладнання:

  • HGX — серверні платформи для центрів обробки даних, призначені для побудови масштабованої інфраструктури штучного інтелекту. Використовуються в стоєчних рішеннях і дата-центрах.

  • DGX — готові системи NVIDIA для AI-обчислень. Це попередньо сконфігуровані рішення з максимальною продуктивністю для навчання великих моделей. Застосовуються у наукових центрах, лабораторіях, корпоративному секторі.

  • IGX Orin — платформа промислового рівня для вбудованих систем штучного інтелекту. Використовується в медицині, автоматизації, транспорті, системах безпеки.

  • GH200 / GB200 / GB300 — суперчипи нового покоління, які поєднують CPU і GPU в єдиний обчислювальний модуль із когерентною пам’яттю. Застосовуються в AI-кластерах, хмарних рішеннях, LLM-моделях та цифрових двійниках.

  • RTX Workstation — професійні графічні процесори для робочих станцій. Призначені для фахівців з дизайну, графіки, 3D, CAD і візуалізації. Забезпечують прискорену обробку професійних додатків та AI-завдань.

  • GeForce RTX для ноутбуків — мобільні графічні процесори, призначені для ресурсомістких задач: ігор, рендерингу, моделювання, застосування AI на рівні користувача.

Переваги використання обладнання NVIDIA:

  • Максимальна продуктивність для задач штучного інтелекту та машинного навчання

  • Оптимізація інфраструктури для роботи з моделями нового покоління

  • Висока масштабованість — від одного вузла до ІІ-кластера

  • Сумісність із провідними фреймворками та програмним забезпеченням

  • Підтримка корпоративних рішень і ІТ-інфраструктур

  • Перспективність для побудови сучасних дата-центрів і периферійних обчислень

Технічні характеристики NVIDIA DGX GB200:

Component Specification
Superchips per Rack 36 NVIDIA GB200 Grace Blackwell Superchips
CPU 36 NVIDIA Grace CPUs
GPU 72 NVIDIA Blackwell GPUs
GPU Memory Up to 13.4 TB HBM3e
GPU Memory Bandwidth 576 TB/s
CPU Memory Up to 17 TB LPDDR5X
CPU Memory Bandwidth 18.4 TB/s
GPU-to-GPU Interconnect Fifth-generation NVLink, 1.8 TB/s per GPU
Total NVLink Bandwidth 130 TB/s
Performance (FP8) Up to 720 PFLOPS
Performance (FP4) Up to 1,440 PFLOPS
Networking NVIDIA Quantum InfiniBand, up to 800 Gb/s per port
Cooling Liquid-cooled rack-scale system
Management Intelligent control plane with predictive analytics
Scalability Connect multiple racks to scale to hundreds of thousands of GB200 Superchips

Код товару24790
ВиробникNvidia