ホーム GPU比較 NVIDIA H100 PCIe vs AMD Radeon Instinct MI100

NVIDIA H100 PCIe vs AMD Radeon Instinct MI100

AI GPU 私たちは向けの80GBのメモリを搭載した H100 PCIe と プロフェッショナル市場向けの32GBのメモリを搭載した Radeon Instinct MI100 を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

NVIDIA H100 PCIe の利点
リリースが1年 と 4 ヶ月 遅れました
最大ブーストクロックは 17% 向上しました (1755MHz と 1502MHz)
より大きな VRAM (80GB vs 32GB)
より大きなメモリ帯域幅 (2039GB/s vs 1229GB/s)
追加されたレンダリングコア数は 6912個です
AMD Radeon Instinct MI100 の利点
より低いTDP電力 (300W と 350W)

スコア

ベンチマーク

FP32 (浮動小数点)
H100 PCIe +122%
51.22 TFLOPS
Radeon Instinct MI100
23.07 TFLOPS
VS

グラフィックスカード

2022年3月
リリース日
2020年11月
Tesla Hopper
世代
Radeon Instinct
AI GPU
タイプ
プロフェッショナル
PCIe 5.0 x16
バスインターフェース
PCIe 4.0 x16

クロック速度

1095 MHz
ベースクロック
1000 MHz
1755 MHz
ブーストクロック
1502 MHz
1593 MHz
メモリクロック
1200 MHz

メモリ

80GB
メモリサイズ
32GB
HBM2e
メモリタイプ
HBM2
5120bit
メモリバス
4096bit
2039GB/s
帯域幅
1229GB/s

レンダリング設定

-
計算ユニット
120
114
SM数
-
14592
シェーディングユニット
7680
456
TMU
480
24
ROP
64
456
テンソルコア
-
-
-
-
256 KB (per SM)
L1キャッシュ
16 KB (per CU)
50 MB
L2キャッシュ
8 MB
-
-
-

理論的な性能

42.12 GPixel/s
ピクセルレート
96.13 GPixel/s
800.3 GTexel/s
テクスチャレート
721.0 GTexel/s
204.9 TFLOPS
FP16 (半精度)
184.6 TFLOPS
51.22 TFLOPS
FP32 (単精度)
23.07 TFLOPS
25.61 TFLOPS
FP64 (倍精度)
11.54 TFLOPS

ボード設計

350W
TDP
300W
750 W
推奨PSU
700 W
No outputs
出力
No outputs
1x 16-pin
電源コネクタ
2x 8-pin

グラフィックスプロセッサ

GH100
GPU名
Arcturus
-
GPUバリアント
Arcturus XL
Hopper
アーキテクチャ
CDNA 1.0
TSMC
ファウンドリ
TSMC
4 nm
プロセスサイズ
7 nm
800 億
トランジスタ
256 億
814 mm²
ダイサイズ
750 mm²

グラフィックス機能

N/A
DirectX
N/A
N/A
OpenGL
N/A
3.0
OpenCL
2.1
N/A
Vulkan
N/A
9.0
CUDA
-
N/A
シェーダモデル
N/A

関連GPU比較

関連ニュース

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー