NVIDIA A100 PCIe 80 GB vs NVIDIA B200

Сравнение NVIDIA A100 PCIe 80 GB с 80 Гб HBM2e и 6 912 ядрами против NVIDIA B200 с 90 Гб HBM3e и 18 944 ядрами.

Загружаемся...

Оценка производительности

NVIDIA B200 опережает NVIDIA A100 PCIe 80 GB на 156,77% в суммарном рейтинге производительности GPU ARK

A100 A100
H200 H200
MI325X MI325X

NVIDIA A100 PCIe 80 GB

25,6

NVIDIA A100 PCIe 80 GB

25,6
RX 7900 XTX RX 7900 XTX
MI250 MI250
Instinct MI300X Instinct MI300X

NVIDIA B200

65,8

NVIDIA B200

65,8

Экспертное сравнение

NVIDIA A100 PCIe 80 GB имеет меньшее количество ядер и памяти, но выше частоту и пропускную способность, что делает его более эффективным для вычислений в облаке и научных вычислений. NVIDIA B200 же с большим количеством ядер и высокой пропускной способностью подходит лучше для больших параллельных вычислений и обработки больших объемов данных, хотя и потребляет больше энергии.

Содержание:

Память ML-производительность Вычислительная мощность Архитектура и совместимость Программная поддержка ML Частоты и производительность Энергопотребление Рендеринг Бенчмарки Дополнительно

Память

Объем памяти

80 GB
🔥 +12% 90 ГБ ×2 (180 ГБ)

Тип памяти

HBM2e HBM3e

Пропускная способность памяти

1.94 TB/s
🔥 +111% 4.10 TB/s ×2 (8.2 TB/s)

Ширина шины памяти

5 120 бит 4 096 бит ×2 (8192 бит)

ML-производительность

FP16 (half)

🔥 +6 446% 77,97 TFLOPS
1,1912 TFLOPS

BF16

🔥 311,84 TFLOPS
Нет

TF32

🔥 155,92
Нет

Вычислительная мощность

FP32 (float)

19,49 TFLOPS
🔥 +282% 74,45 TFLOPS

FP64 (double)

9,746 TFLOPS
🔥 +282% 37,22 TFLOPS

CUDA ядра

6 912
🔥 +174% 18 944 ×2 (37888)

RT ядра

Нет Нет

Архитектура и совместимость

Архитектура GPU

Ampere Blackwell

SM (Streaming Multiprocessor)

108
🔥 +37% 148

PCIe версия

PCIe 4.0 x16 PCIe 5.0 x16

Программная поддержка ML

CUDA версия

8.0
🔥 10.0

CUDA Toolkit (начало поддержки)

v11 v12

Статус CUDA Toolkit

Поддерживается Поддерживается

Частоты и производительность

Base Clock

🔥 +52% 1 065
700

Boost Clock

1 410
🔥 +39% 1 965

Memory Clock

1 512
🔥 +32% 2 000

Энергопотребление

Рекомендуемый БП

🔥 -50% 700 W
1400 W

Разъём питания

8-pin EPS Нет

TDP/TGP

🔥 -70% 300 W
1000 W

Рендеринг

Текстурные блоки (TMU)

432
🔥 +37% 592 ×2 (1184)

ROP

Нет Нет

L2 Cache

🔥 +60% 80 MB
50 MB

Бенчмарки

llama.cpp, llama 7B Q4_0

315.9 tokens/s

Дополнительно

Слоты

Dual-slot
🔥 SXM Module

Дата выпуска

28 июня 2021 г. 13 марта 2024 г.

Дисплейные порты

No outputs
No outputs

Арендовать в Intelion Cloud

Tesla A100 (80GB)

Доступна в аренде в Intelion Cloud

от 200,89 руб/час Арендовать
Посекундная тарификация
Цены включают НДС 22%
ЭДО и закрывающие документы
Сервер готов за 3 минуты
Техподдержка на русском
Картой, СБП или по счёту