NVIDIA A10 PCIe vs NVIDIA H200 SXM 141 GB

Сравнение NVIDIA A10 PCIe с 24 Гб GDDR6 и 9 216 ядрами против NVIDIA H200 SXM 141 GB с 141 Гб HBM3e и 16 896 ядрами.

Загружаемся...

Оценка производительности

H200 H200
MI325X MI325X
A100 A100

NVIDIA A10 PCIe

NVIDIA A10 PCIe

RX 7900 XTX RX 7900 XTX
Instinct MI300X Instinct MI300X
MI250 MI250

NVIDIA H200 SXM 141 GB

NVIDIA H200 SXM 141 GB

Содержание:

Память ML-производительность Вычислительная мощность Архитектура и совместимость Программная поддержка ML Частоты и производительность Энергопотребление Рендеринг Бенчмарки Дополнительно

Память

Объем памяти

24 GB 141 GB

Тип памяти

GDDR6 HBM3e

Пропускная способность памяти

600.2 GB/s 4.89 TB/s

Ширина шины памяти

384 бит 6 144 бит

ML-производительность

FP16 (half)

31,24 TFLOPS 267,6 TFLOPS

BF16

Нет Нет

TF32

Нет Нет

Вычислительная мощность

FP32 (float)

31,24 TFLOPS 66,91 TFLOPS

FP64 (double)

0,9763 TFLOPS 33,45 TFLOPS

CUDA ядра

9 216 16 896

RT ядра

72 Нет

Архитектура и совместимость

Архитектура GPU

Ampere Hopper

SM (Streaming Multiprocessor)

72 132

PCIe версия

PCIe 4.0 x16 PCIe 5.0 x16

Программная поддержка ML

CUDA версия

8.6
🔥 9.0

Частоты и производительность

Base Clock

885 1 500

Boost Clock

1 695 1 980

Memory Clock

1 563 1 593

Энергопотребление

TDP/TGP

🔥 -79% 150 W
700 W

Рекомендуемый БП

🔥 -59% 450 W
1100 W

Разъём питания

1x 8-pin 8-pin EPS

Рендеринг

Текстурные блоки (TMU)

288 528

ROP

72 Нет

L2 Cache

6 MB 50 MB

Бенчмарки

MLPerf, llama2-70b-99.9 (UNSET)

3 534 tokens/s

MLPerf, llama2-70b-99.9 (fp16)

3 553 tokens/s

MLPerf, llama2-70b-99.9 (fp8)

2 444 tokens/s

MLPerf, llama3.1-405b (fp16)

40.8 tokens/s

MLPerf, llama3.1-405b (fp8)

25.3 tokens/s

MLPerf, llama3.1-8b (fp8)

5 161 tokens/s

MLPerf, deepseek-r1 (fp8)

1 113 tokens/s

MLPerf, mixtral-8x7b (fp8)

7 132 tokens/s

Дополнительно

Слоты

Single-slot SXM Module

Дата выпуска

12 апреля 2021 г. 18 ноября 2024 г.

Дисплейные порты

No outputs
No outputs

Арендовать дешевле, чем покупать