Startseite NVIDIA H100 CNX

NVIDIA H100 CNX

Dies ist eine GPU mit TSMC 4nm-Technologie, basierend auf der Hopper-Architektur von Nvidia mit dem Markteinführungsdatum Mär 2023. Es hat 80 Milliarden Transistoren und 14592 CUDA-Kerne und 80GB HBM2e Grafikspeicher, mit 50MB Level-2-Cache, theoretische Leistung 53.84TFLOPS, Gesamtleistungsaufnahme 350 W aufweisen.

Grafikkarte

[Fehler melden]
Veröffentlichungsdatum
Mär 2023
Generation
Tesla Hopper
Typ
AI GPU
Bus-Schnittstelle
PCIe 5.0 x16

Taktraten

[Fehler melden]
Basis-Takt
690 MHz
Boost-Takt
1845 MHz
Speichertakt
1593 MHz

Speicher

[Fehler melden]
Speichergröße
80GB
Speichertyp
HBM2e
Speicherbus
5120bit
Bandbreite
2039GB/s

Render-Konfiguration

[Fehler melden]
SM-Anzahl
114
Shading-Einheiten
14592
TMUs
456
ROPs
24
Tensor-Kerne
456
L1-Cache
256 KB (per SM)
L2-Cache
50 MB

Theoretische Leistung

[Fehler melden]
Pixeltakt
44.28 GPixel/s
Texture-Takt
841.3 GTexel/s
FP16 (halbe Genauigkeit)
215.4 TFLOPS
FP32 (Gleitkommazahl)
53.84 TFLOPS
FP64 (Doppelte Gleitkommazahl)
26.92 TFLOPS

Grafikprozessor

[Fehler melden]
GPU-Name
GH100
Architektur
Hopper
Foundry
TSMC
Prozessgröße
4 nm
Transistoren
80000 million
Die-Größe
814 mm²

Board-Design

[Fehler melden]
TDP (Thermal Design Power)
350W
Empfohlene PSU (Stromversorgung)
750 W
Ausgänge
No outputs
Stromanschlüsse
8-pin EPS

Grafikfunktionen

[Fehler melden]
DirectX
N/A
OpenGL
N/A
OpenCL
3.0
Vulkan
N/A
CUDA
9.0
Shader-Modell
N/A

Ranking

[Fehler melden]
FP32 Gleitkomma-Performance
NVIDIA L20 48 GB GDDR6
59.35 TFLOPS
NVIDIA H800 SXM5 80 GB HBM3
59.3 TFLOPS
54.19 TFLOPS
NVIDIA H100 CNX 80 GB HBM2e
53.84 TFLOPS
52.43 TFLOPS
52.43 TFLOPS
52.22 TFLOPS

Vergleich

© 2024 - TopCPU.net   Kontaktieren Sie uns. Datenschutzrichtlinie