NVIDIA A100 PCIe 80 GB vs NVIDIA RTX PRO 6000 Blackwell

Сравнение NVIDIA A100 PCIe 80 GB с 80 Гб HBM2e и 6 912 ядрами против NVIDIA RTX PRO 6000 Blackwell с 96 Гб GDDR7 и 24 064 ядрами.

Загружаемся...

Оценка производительности

H200 H200
MI325X MI325X
A100 A100

NVIDIA A100 PCIe 80 GB

NVIDIA A100 PCIe 80 GB

RX 7900 XTX RX 7900 XTX
Instinct MI300X Instinct MI300X
MI250 MI250

NVIDIA RTX PRO 6000 Blackwell

NVIDIA RTX PRO 6000 Blackwell

Содержание:

Память ML-производительность Вычислительная мощность Архитектура и совместимость Программная поддержка ML Частоты и производительность Энергопотребление Рендеринг Бенчмарки Дополнительно

Память

Объем памяти

80 GB 96 GB

Тип памяти

HBM2e GDDR7

Пропускная способность памяти

1.94 TB/s 1.79 TB/s

Ширина шины памяти

5 120 бит 512 бит

ML-производительность

FP16 (half)

77,97 TFLOPS 126,0 TFLOPS

BF16

311,84 TFLOPS Нет

TF32

155,92 Нет

Вычислительная мощность

FP32 (float)

19,49 TFLOPS 126,0 TFLOPS

FP64 (double)

9,746 TFLOPS 1,968 TFLOPS

CUDA ядра

6 912 24 064

RT ядра

Нет 188

Архитектура и совместимость

Архитектура GPU

Ampere Blackwell 2.0

SM (Streaming Multiprocessor)

108 188

PCIe версия

PCIe 4.0 x16 PCIe 5.0 x16

Программная поддержка ML

CUDA версия

8.0
🔥 12.0

Частоты и производительность

Base Clock

1 065 1 590

Boost Clock

1 410 2 617

Memory Clock

1 512 1 750

Энергопотребление

TDP/TGP

🔥 -50% 300 W
600 W

Рекомендуемый БП

🔥 -30% 700 W
1000 W

Разъём питания

8-pin EPS 1x 16-pin

Рендеринг

Текстурные блоки (TMU)

432 752

ROP

Нет 188

L2 Cache

80 MB 128 MB

Бенчмарки

llama.cpp, llama 7B Q4_0

104.4 tokens/s

llama.cpp, llama-2-7b-Q4_0

104.4 tokens/s

Geekbench AI, FP16

54 886 points

Geekbench AI, INT8

28 552 points

Geekbench AI, FP32

38 105 points

Дополнительно

Слоты

Dual-slot Dual-slot

Дата выпуска

28 июня 2021 г. 18 марта 2025 г.

Дисплейные порты

No outputs
4x DisplayPort 2.1b

Арендовать дешевле, чем покупать