Lors de l’événement ISC 2021 de cette année, NVIDIA a annoncé une version mise à jour de son accélérateur A100. La carte NVIDIA A100 PCIe est toujours basée sur son GPU GA100, après une version au form factor SXM2 dotée de jusqu’à 80 Go de mémoire HBM2E voici la même chose, mais sous forme d’une carte PCIe double slot. Le GPU GA100 bénéficie du processus de gravure TSMC en 7 nm. On retrouve 6192 cœurs CUDA et 432 Tensor Cores.
La carte pro NVIDIA A100 PCIe change de form factor avec 80 Go de mémoire HBM2E
Le TDP a été grandement amélioré, passant de 400 W pour la version SXM2 à « seulement » 250 W. Cette carte graphique A100 PCIe destinée aux professionnels est destinée aux calculs haute performance pour accélérer la formation d’algorithmes deeplearning.
Elle dispose d’une énorme quantité de mémoire avec 80 Go de mémoire HBM2E. La bande passante de cette dernière atteint 2039 Go/s (Vitesse effective de 3186 Gbps), soit 484 Go/s de plus que la A100 40 Go.
Dans le même temps, NVIDIA a également annoncé NVIDIA GPUDirect Storage, une technologie similaire à la technologie Microsoft DirectStorage. Cela permet aux applications d’accéder directement aux 80 Go de mémoire.
NVIDIA Compute Accelerator Series (Formely Tesla) | |||||
---|---|---|---|---|---|
A100 PCIe | A100 SXM | Tesla V100s | Tesla V100 | Tesla P100 | |
GPU | 7nm GA100 | 7nm GA100 | 12nm GV100 | 12nm GV100 | 16nm GP100 |
Die Size | |||||
Transistors | |||||
SMs | |||||
CUDA Cores | |||||
Tensor Cores | NA | ||||
FP16 Compute | |||||
FP32 Compute | |||||
FP64 Compute | |||||
Boost Clock | |||||
Bandwidth | |||||
Eff. Memory Clock | |||||
Memory Config. | |||||
Memory Bus | |||||
TDP | |||||
Form Factor | PCIe 4.0 | SXM4 | PCIe 3.0 | SXM2 / PCIe 3.0 | SXM |