Accueil NVIDIA H100 PCIe 96 GB

NVIDIA H100 PCIe 96 GB

"Il s'agit d'un GPU fabriqué avec un procédé 4nm de TSMC et sorti en mars 2023 , basé sur l'architecture Hopper de Nvidia. Il comprend 80 milliards de transistors, 16896 coeurs CUDA et 96GB de mémoire HBM3, avec une mémoire cache L2 de 50MB, avec une performance théorique de 62.08TFLOPS, avec une consommation électrique totale de 700W.

Carte graphique

[Signaler des Problèmes]
Date de sortie
mars 2023
Génération
Tesla Hopper
Type
AI GPU
Interface de bus
PCIe 5.0 x16

Vitesses d'horloge

[Signaler des Problèmes]
Horloge de base
1665 MHz
Horloge Boost
1837 MHz
Horloge Mémoire
1313 MHz

Mémoire

[Signaler des Problèmes]
Taille de Mémoire
96GB
Type de Mémoire
HBM3
Bus de Mémoire
5120bit
Bande Passante
1681GB/s

Config de rendu

[Signaler des Problèmes]
Nombre de SM
132
Unités d'Ombrage
16896
TMUs
528
ROPs
24
Cœurs de Tensor
528
Cache L1
256 KB (per SM)
Cache L2
50 MB

Performance théorique

[Signaler des Problèmes]
Taux de Pixel
44.09 GPixel/s
Taux de Texture
969.9 GTexel/s
FP16 (demi)
248.3 TFLOPS
FP32 (flottant)
62.08 TFLOPS
FP64 (double précision)
31.04 TFLOPS

Processeur graphique

[Signaler des Problèmes]
Nom du GPU
GH100
Architecture
Hopper
Fonderie
TSMC
Taille de processus
4 nm
Transistors
80 milliard
Taille de Die
814 mm²

Conception de carte

[Signaler des Problèmes]
TDP
700W
Alimentation suggérée
1100 W
Sorties
No outputs
Connecteurs d'alimentation
8-pin EPS

Fonctions graphiques

[Signaler des Problèmes]
DirectX
N/A
OpenGL
N/A
OpenCL
3.0
Vulkan
N/A
CUDA
9.0
Modèle de shader
N/A

Classements

[Signaler des Problèmes]
FP32 (flottant)
65.28 TFLOPS
64.51 TFLOPS
62.08 TFLOPS
62.08 TFLOPS
62.08 TFLOPS
61.39 TFLOPS
61.32 TFLOPS

Comparaisons connexes

© 2024 - TopCPU.net   Contactez-nous Politique de confidentialité