Intel Data Center GPU Max NEXT vs NVIDIA A100 PCIe 80 GB

Сравнение Intel Data Center GPU Max NEXT с 128 Гб HBM2e и 20 480 ядрами против NVIDIA A100 PCIe 80 GB с 80 Гб HBM2e и 6 912 ядрами.

Загружаемся...

Оценка производительности

H200 H200
MI325X MI325X
A100 A100

Intel Data Center GPU Max NEXT

Intel Data Center GPU Max NEXT

RX 7900 XTX RX 7900 XTX
Instinct MI300X Instinct MI300X
MI250 MI250

NVIDIA A100 PCIe 80 GB

NVIDIA A100 PCIe 80 GB

Содержание:

Память ML-производительность Вычислительная мощность Архитектура и совместимость Программная поддержка ML Частоты и производительность Энергопотребление Рендеринг Бенчмарки Дополнительно

Память

Объем памяти

128 GB 80 GB

Тип памяти

HBM2e HBM2e

Пропускная способность памяти

3.21 TB/s 1.94 TB/s

Ширина шины памяти

8 192 бит 5 120 бит

ML-производительность

FP16 (half)

65,54 TFLOPS 77,97 TFLOPS

BF16

Нет 311,84 TFLOPS

TF32

Нет 155,92

Вычислительная мощность

FP32 (float)

65,54 TFLOPS 19,49 TFLOPS

FP64 (double)

65,54 TFLOPS 9,746 TFLOPS

CUDA ядра

20 480 6 912

RT ядра

160 Нет

Архитектура и совместимость

Архитектура GPU

Generation 12.5 Ampere

SM (Streaming Multiprocessor)

Нет 108

PCIe версия

PCIe 5.0 x16 PCIe 4.0 x16

Программная поддержка ML

CUDA версия

Нет 8.0

Частоты и производительность

Base Clock

900 1 065

Boost Clock

1 600 1 410

Memory Clock

1 565 1 512

Энергопотребление

TDP/TGP

800 W
🔥 -62% 300 W

Рекомендуемый БП

1200 W
🔥 -42% 700 W

Разъём питания

8-pin EPS 8-pin EPS

Рендеринг

Текстурные блоки (TMU)

1 280 432

ROP

160 Нет

L2 Cache

408 MB 80 MB

Бенчмарки

MLPerf, llama2-70b-99.9 (UINT4)

527.5 tokens/s

MLPerf, llama3.1-8b (UINT4)

1 337 tokens/s

MLPerf, llama3.1-8b-edge (UINT4)

1 652 tokens/s

llama.cpp, llama-2-7b-Q4_0

8.21 tokens/s

Дополнительно

Слоты

OAM Module Dual-slot

Дата выпуска

Нет 28 июня 2021 г.

Дисплейные порты

No outputs
No outputs

Арендовать дешевле, чем покупать