NVIDIA RTX PRO 6000 Blackwell Server vs NVIDIA Tesla P100 PCIe 12 GB

Сравнение NVIDIA RTX PRO 6000 Blackwell Server с 96 Гб GDDR7 и 24 064 ядрами против NVIDIA Tesla P100 PCIe 12 GB с 12 Гб HBM2 и 3 584 ядрами.

Загружаемся...

Оценка производительности

H200 H200
MI325X MI325X
A100 A100

NVIDIA RTX PRO 6000 Blackwell Server

NVIDIA RTX PRO 6000 Blackwell Server

RX 7900 XTX RX 7900 XTX
MI250 MI250
Instinct MI300X Instinct MI300X

NVIDIA Tesla P100 PCIe 12 GB

9,6

NVIDIA Tesla P100 PCIe 12 GB

9,6

Содержание:

Память ML-производительность Вычислительная мощность Архитектура и совместимость Программная поддержка ML Частоты и производительность Энергопотребление Рендеринг Бенчмарки Дополнительно

Память

Объем памяти

96 GB 12 ГБ

Тип памяти

GDDR7 HBM2

Пропускная способность памяти

1.79 TB/s 549.1 GB/s

Ширина шины памяти

512 бит 3 072 бит

ML-производительность

FP16 (half)

126,0 TFLOPS 19,05 TFLOPS

BF16

Нет Нет

TF32

Нет Нет

Вычислительная мощность

FP32 (float)

126,0 TFLOPS 9,526 TFLOPS

FP64 (double)

1,968 TFLOPS 4,763 TFLOPS

CUDA ядра

24 064 3 584

RT ядра

188 Нет

Архитектура и совместимость

Архитектура GPU

Blackwell 2.0 Pascal

SM (Streaming Multiprocessor)

188 56

PCIe версия

PCIe 5.0 x16 PCIe 3.0 x16

Программная поддержка ML

CUDA версия

🔥 12.0
6.0

Частоты и производительность

Base Clock

1 590 1 190

Boost Clock

2 617 1 329

Memory Clock

1 750 715

Энергопотребление

TDP/TGP

600 W
🔥 -58% 250 W

Рекомендуемый БП

1000 W
🔥 -40% 600 W

Разъём питания

1x 16-pin 1x 8-pin

Рендеринг

Текстурные блоки (TMU)

752 224

ROP

188 Нет

L2 Cache

128 MB 3 MB

Бенчмарки

MLPerf, llama2-70b-99.9 (fp4)

3 250 tokens/s

MLPerf, llama3.1-8b (fp4)

5 758 tokens/s

Geekbench AI, FP16

53 322 points

Geekbench AI, INT8

28 264 points

Geekbench AI, FP32

37 299 points

MLPerf, mixtral-8x7b (fp8)

3 767 tokens/s

Дополнительно

Слоты

Dual-slot Dual-slot

Дата выпуска

18 марта 2025 г. 20 июня 2016 г.

Дисплейные порты

4x DisplayPort 2.1b
No outputs

Арендовать дешевле, чем покупать