The NVIDIA DGX B200 is a high-performance AI system designed for enterprise workloads, integrating eight NVIDIA B200 GPUs with a total of 1,440 GB GPU memory.It delivers up to 72 petaFLOPS for training and 144 petaFLOPS for inference.The system features dual Intel Xeon Platinum 8570 processors, up to 4 TB of system memory, and advanced networking capabilities with NVIDIA ConnectX-7 and BlueField-3 DPUs.
The NVIDIA DGX B300 is a next-generation AI system powered by NVIDIA Blackwell Ultra GPUs, delivering up to 72 PFLOPS of FP8 performance for training and 144 PFLOPS of FP4 for inference. It features 2.3 TB of total GPU memory, dual Intel Xeon processors, and high-speed networking with 8x ConnectX-8 VPI and 2x BlueField-3 DPU interfaces supporting up to 800Gb/s.
The NVIDIA DGX GB200 is a cutting-edge, rack-scale AI infrastructure designed to handle the most demanding generative AI workloads, including training and inference of trillion-parameter models.Each liquid-cooled rack integrates 36 NVIDIA GB200 Grace Blackwell Superchips—comprising 36 Grace CPUs and 72 Blackwell GPUs—interconnected via fifth-generation NVLink to deliver up to 1.8 TB/s of GPU-to-GPU bandwidth.
The NVIDIA DGX GB300 is a rack-scale AI supercomputer designed for enterprise-scale AI workloads.It integrates 72 NVIDIA Blackwell Ultra GPUs and 36 Grace CPUs, delivering up to 1,400 petaFLOPS of FP4 AI performance.The system features 20.1 TB of HBM3e GPU memory and a total of 37.9 TB of fast memory.Each GPU is connected via NVIDIA ConnectX-8 VPI networking, providing 800 Gb/s InfiniBand connectivity.
The NVIDIA DGX H200 is a state-of-the-art AI system engineered for large-scale generative AI and high-performance computing (HPC) workloads.It integrates eight NVIDIA H200 Tensor Core GPUs, each equipped with 141 GB of HBM3e memory, totaling 1,128 GB of GPU memory.This configuration delivers up to 32 petaFLOPS of FP8 performance.The system is powered by dual Intel Xeon Platinum 8480C processors, offering 112 cores in total, and supports 2 TB of DDR5 system memory.
The NVIDIA DGX Spark is a compact AI supercomputer powered by the NVIDIA GB10 Grace Blackwell Superchip.It delivers up to 1,000 AI TOPS (Tera Operations Per Second) of FP4 performance, making it suitable for tasks such as fine-tuning, inference, and prototyping of large AI models with up to 200 billion parameters.The system features 128 GB of unified LPDDR5x memory with a 256-bit interface and 273 GB/s memory bandwidth.Storage options include 1 TB or 4 TB NVMe M.2 SSDs with self-encryption
The NVIDIA DGX Station is a powerful AI workstation designed to bring data center-level AI performance to office environments.It features four NVIDIA Tesla V100 GPUs, each with 16GB of HBM2 memory, providing a total of 64GB of GPU memory.The system is powered by an Intel Xeon E5-2698 v4 processor with 20 cores, delivering exceptional computational capabilities.With 256GB of DDR4 system memory and a storage configuration of 3x 1.92TB SSDs in RAID 0 for data and 1x 1.92TB SSD for the operating system, the DGX Station ensures fast data access and processing.
The NVIDIA GB200 Grace Blackwell Superchip integrates two Blackwell B200 Tensor Core GPUs with a Grace CPU via a 900 GB/s NVLink-C2C interconnect.This configuration delivers up to 40 PFLOPS of FP4 AI performance, 20 PFLOPS of FP8/FP6, and 10 PFLOPS of FP16/BF16, with 384 GB of HBM3e GPU memory offering 16 TB/s bandwidth.The Grace CPU, featuring 72 Arm Neoverse V2 cores, supports up to 480 GB of LPDDR5X memory with 512 GB/s bandwidth.
The NVIDIA GB200 NVL72 is a rack-scale, liquid-cooled AI supercomputer that integrates 36 Grace CPUs and 72 Blackwell GPUs, interconnected via fifth-generation NVLink, delivering 130 TB/s of GPU communication bandwidth.It provides up to 1,440 PFLOPS of FP4 AI performance and supports up to 13.5 TB of HBM3e GPU memory with 576 TB/s bandwidth.
The NVIDIA GB300 NVL72 is a fully liquid-cooled, rack-scale AI supercomputer that integrates 72 NVIDIA Blackwell Ultra GPUs and 36 NVIDIA Grace CPUs.This configuration delivers up to 1,400 PFLOPS of FP4 AI performance, with 21 TB of HBM3e GPU memory providing 576 TB/s bandwidth.
Обладнання NVIDIA — це високопродуктивні платформи для обробки даних, розроблені відповідно до сучасних вимог до обчислювальних систем у сферах штучного інтелекту, наукових досліджень, промислової автоматизації та корпоративної аналітики. Використовувані архітектури — Hopper, Grace Hopper, Blackwell — забезпечують високу щільність обчислень, енергоефективність і масштабованість.
Рішення NVIDIA орієнтовані на комплексну підтримку задач навчання та інференсу нейронних мереж, зокрема великих мовних моделей, генеративного штучного інтелекту, комп’ютерного зору, обробки природної мови, моделювання та віртуалізації процесів.
Короткий огляд основних лінійок обладнання:
HGX— серверні платформи для центрів обробки даних, призначені для побудови масштабованої інфраструктури штучного інтелекту. Використовуються в стоєчних рішеннях і дата-центрах.
DGX— готові системи NVIDIA для AI-обчислень. Це попередньо сконфігуровані рішення з максимальною продуктивністю для навчання великих моделей. Застосовуються у наукових центрах, лабораторіях, корпоративному секторі.
IGX Orin— платформа промислового рівня для вбудованих систем штучного інтелекту. Використовується в медицині, автоматизації, транспорті, системах безпеки.
GH200 / GB200 / GB300— суперчипи нового покоління, які поєднують CPU і GPU в єдиний обчислювальний модуль із когерентною пам’яттю. Застосовуються в AI-кластерах, хмарних рішеннях, LLM-моделях та цифрових двійниках.
RTX Workstation— професійні графічні процесори для робочих станцій. Призначені для фахівців з дизайну, графіки, 3D, CAD і візуалізації. Забезпечують прискорену обробку професійних додатків та AI-завдань.
GeForce RTX для ноутбуків— мобільні графічні процесори, призначені для ресурсомістких задач: ігор, рендерингу, моделювання, застосування AI на рівні користувача.