Strona główna NVIDIA H100 PCIe

NVIDIA H100 PCIe

To jest GPU wyprodukowane przez TSMC w procesie technologicznym 4nm, oparty na architekturze Nvidia Hopper i wydane w Mar 2022. Zawiera 80 miliardów tranzystorów, 14592 rdzeni CUDA oraz 80GB pamięci HBM2e, z 50MB pamięci podręcznej L2, teoretyczna wydajność wynosi 51.22TFLOPS, z całkowitym zużyciem energii wynoszącym 350W.

Karta graficzna

[Zgłoś problem]
Data wydania
mar 2022
Generacja
Tesla Hopper
Typ
GPU AI
Interfejs magistrali
PCIe 5.0 x16

Taktowanie zegara

[Zgłoś problem]
Zegar podstawowy
1095 MHz
Zegar turbo
1755 MHz
Zegar pamięci
1593 MHz

Pamięć

[Zgłoś problem]
Rozmiar pamięci
80GB
Typ pamięci
HBM2e
Magistrala pamięci
5120bit
Przepustowość
2039GB/s

Konfiguracja renderowania

[Zgłoś problem]
Liczba SM
114
Jednostki cieniowania
14592
TMUs
456
ROPs
24
Rdzenie tensorowe
456
Pamięć podręczna L1
256 KB (per SM)
Pamięć podręczna L2
50 MB

Wydajność teoretyczna

[Zgłoś problem]
Przepustowość pikseli
42.12 GPixel/s
Przepustowość tekstur
800.3 GTexel/s
FP16 (połowa)
204.9 TFLOPS
FP32 (float)
51.22 TFLOPS
FP64 (double)
25.61 TFLOPS

Procesor graficzny

[Zgłoś problem]
Nazwa GPU
GH100
Architektura
Hopper
Fabryka
TSMC
Rozmiar procesu
4 nm
Transistory
80 miliard
Rozmiar układu
814 mm²

Projekt płyty

[Zgłoś problem]
TDP
350W
Zalecane PSU
750 W
Wyjścia
No outputs
Złącza zasilania
1x 16-pin

Funkcje graficzne

[Zgłoś problem]
DirectX
N/A
OpenGL
N/A
OpenCL
3.0
Vulkan
N/A
CUDA
9.0
Model cieniowania
N/A

Rankingi

[Zgłoś problem]
FP32 (float)
NVIDIA GeForce RTX 4080 SUPER
52.22 TFLOPS
AMD Radeon RX 7900 XT
51.48 TFLOPS
NVIDIA H100 PCIe
NVIDIA H100 PCIe 80 GB HBM2e
51.22 TFLOPS
NVIDIA H100 PCIe 80 GB
51.22 TFLOPS
NVIDIA H800 PCIe 80 GB
51.22 TFLOPS
NVIDIA GeForce RTX 4080 16 GB
48.74 TFLOPS
NVIDIA GeForce RTX 4080
48.74 TFLOPS
Blender
NVIDIA RTX A6000
NVIDIA RTX A6000 48 GB GDDR6
5387
NVIDIA H100 PCIe
NVIDIA H100 PCIe 80 GB HBM2e
4845
NVIDIA RTX A5000
NVIDIA RTX A5000 24 GB GDDR6
4829
AMD Radeon RX 7900 XTX
4680
© 2025 - TopCPU.net