NVIDIA H100 SXM5 96 GB vs NVIDIA RTX PRO 6000 Blackwell

Сравнение NVIDIA H100 SXM5 96 GB с 96 Гб HBM3 и 16 896 ядрами против NVIDIA RTX PRO 6000 Blackwell с 96 Гб GDDR7 и 24 064 ядрами.

Загружаемся...

Оценка производительности

H200 H200
MI325X MI325X
A100 A100

NVIDIA H100 SXM5 96 GB

NVIDIA H100 SXM5 96 GB

RX 7900 XTX RX 7900 XTX
Instinct MI300X Instinct MI300X
MI250 MI250

NVIDIA RTX PRO 6000 Blackwell

NVIDIA RTX PRO 6000 Blackwell

Содержание:

Память ML-производительность Вычислительная мощность Архитектура и совместимость Программная поддержка ML Частоты и производительность Энергопотребление Рендеринг Бенчмарки Дополнительно

Память

Объем памяти

96 GB 96 GB

Тип памяти

HBM3 GDDR7

Пропускная способность памяти

3.36 TB/s 1.79 TB/s

Ширина шины памяти

5 120 бит 512 бит

ML-производительность

FP16 (half)

267,6 TFLOPS 126,0 TFLOPS

BF16

Нет Нет

TF32

Нет Нет

Вычислительная мощность

FP32 (float)

66,91 TFLOPS 126,0 TFLOPS

FP64 (double)

33,45 TFLOPS 1,968 TFLOPS

CUDA ядра

16 896 24 064

RT ядра

Нет 188

Архитектура и совместимость

Архитектура GPU

Hopper Blackwell 2.0

SM (Streaming Multiprocessor)

132 188

PCIe версия

PCIe 5.0 x16 PCIe 5.0 x16

Программная поддержка ML

CUDA версия

9.0
🔥 12.0

Частоты и производительность

Base Clock

1 350 1 590

Boost Clock

1 980 2 617

Memory Clock

1 313 1 750

Энергопотребление

TDP/TGP

700 W
🔥 -14% 600 W

Рекомендуемый БП

1100 W
🔥 -9% 1000 W

Разъём питания

8-pin EPS 1x 16-pin

Рендеринг

Текстурные блоки (TMU)

528 752

ROP

Нет 188

L2 Cache

50 MB 128 MB

Бенчмарки

llama.cpp, llama 7B Q4_0

🔥 +138% 248.8 tokens/s
104.4 tokens/s

llama.cpp, llama-2-7b-Q4_0

🔥 +169% 280.7 tokens/s
104.4 tokens/s

Geekbench AI, FP16

54 886 points

Geekbench AI, INT8

28 552 points

Geekbench AI, FP32

38 105 points

Дополнительно

Слоты

SXM Module Dual-slot

Дата выпуска

21 марта 2023 г. 18 марта 2025 г.

Дисплейные порты

No outputs
4x DisplayPort 2.1b

Арендовать дешевле, чем покупать