Strona główna NVIDIA H100 CNX

NVIDIA H100 CNX

To jest GPU wyprodukowane przez TSMC w procesie technologicznym 4nm, oparty na architekturze Nvidia Hopper i wydane w Mar 2023. Zawiera 80 miliardów tranzystorów, 14592 rdzeni CUDA oraz 80GB pamięci HBM2e, z 50MB pamięci podręcznej L2, teoretyczna wydajność wynosi 53.84TFLOPS, z całkowitym zużyciem energii wynoszącym 350W.

Karta graficzna

[Zgłoś problem]
Data wydania
mar 2023
Generacja
Tesla Hopper
Typ
GPU AI
Interfejs magistrali
PCIe 5.0 x16

Taktowanie zegara

[Zgłoś problem]
Zegar podstawowy
690 MHz
Zegar turbo
1845 MHz
Zegar pamięci
1593 MHz

Pamięć

[Zgłoś problem]
Rozmiar pamięci
80GB
Typ pamięci
HBM2e
Magistrala pamięci
5120bit
Przepustowość
2039GB/s

Konfiguracja renderowania

[Zgłoś problem]
Liczba SM
114
Jednostki cieniowania
14592
TMUs
456
ROPs
24
Rdzenie tensorowe
456
Pamięć podręczna L1
256 KB (per SM)
Pamięć podręczna L2
50 MB

Wydajność teoretyczna

[Zgłoś problem]
Przepustowość pikseli
44.28 GPixel/s
Przepustowość tekstur
841.3 GTexel/s
FP16 (połowa)
215.4 TFLOPS
FP32 (float)
53.84 TFLOPS
FP64 (double)
26.92 TFLOPS

Procesor graficzny

[Zgłoś problem]
Nazwa GPU
GH100
Architektura
Hopper
Fabryka
TSMC
Rozmiar procesu
4 nm
Transistory
80 miliard
Rozmiar układu
814 mm²

Projekt płyty

[Zgłoś problem]
TDP
350W
Zalecane PSU
750 W
Wyjścia
No outputs
Złącza zasilania
8-pin EPS

Funkcje graficzne

[Zgłoś problem]
DirectX
N/A
OpenGL
N/A
OpenCL
3.0
Vulkan
N/A
CUDA
9.0
Model cieniowania
N/A

Rankingi

[Zgłoś problem]
FP32 (float)
NVIDIA GeForce RTX 5080
56.28 TFLOPS
NVIDIA GeForce RTX 5080 SUPER
56.28 TFLOPS
NVIDIA RTX PRO 4500 Blackwell
54.94 TFLOPS
NVIDIA H100 CNX
NVIDIA H100 CNX 80 GB HBM2e
53.84 TFLOPS
Intel Data Center GPU Max 1550
52.43 TFLOPS
Intel Data Center GPU Max Subsystem
52.43 TFLOPS
NVIDIA GeForce RTX 4080 SUPER
52.22 TFLOPS
© 2025 - TopCPU.net