ホーム GPU比較 AMD Instinct MI300X vs NVIDIA A100 SXM4 80 GB

AMD Instinct MI300X vs NVIDIA A100 SXM4 80 GB

AI GPU 私たちはプロフェッショナル市場向けの192GBのメモリを搭載した AMD Instinct MI300X と 向けの80GBのメモリを搭載した A100 SXM4 80 GB を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

AMD Instinct MI300X の利点
リリースが3年 と 1 ヶ月 遅れました
最大ブーストクロックは 49% 向上しました (2100MHz と 1410MHz)
より大きな VRAM (192GB vs 80GB)
より大きなメモリ帯域幅 (5300GB/s vs 2039GB/s)
追加されたレンダリングコア数は 12544個です
NVIDIA A100 SXM4 80 GB の利点
より低いTDP電力 (400W と 750W)

スコア

ベンチマーク

FP32 (浮動小数点)
AMD Instinct MI300X +738%
163.4 TFLOPS
A100 SXM4 80 GB
19.49 TFLOPS
VS

グラフィックスカード

2023年12月
リリース日
2020年11月
Instinct
世代
Tesla Ampere
プロフェッショナル
タイプ
AI GPU
PCIe 5.0 x16
バスインターフェース
PCIe 4.0 x16

クロック速度

1000 MHz
ベースクロック
1275 MHz
2100 MHz
ブーストクロック
1410 MHz
5200 MHz
メモリクロック
1593 MHz

メモリ

192GB
メモリサイズ
80GB
HBM3
メモリタイプ
HBM2e
8192bit
メモリバス
5120bit
5300GB/s
帯域幅
2039GB/s

レンダリング設定

304
計算ユニット
-
-
SM数
108
19456
シェーディングユニット
6912
880
TMU
432
0
ROP
160
-
テンソルコア
432
-
-
-
16 KB (per CU)
L1キャッシュ
192 KB (per SM)
16 MB
L2キャッシュ
40 MB
-
-
-

理論的な性能

0 MPixel/s
ピクセルレート
225.6 GPixel/s
1496 GTexel/s
テクスチャレート
609.1 GTexel/s
1300 TFLOPS
FP16 (半精度)
77.97 TFLOPS
163.4 TFLOPS
FP32 (単精度)
19.49 TFLOPS
81.7 TFLOPS
FP64 (倍精度)
9.746 TFLOPS

ボード設計

750W
TDP
400W
1000 W
推奨PSU
800 W
No outputs
出力
No outputs
None
電源コネクタ
None

グラフィックスプロセッサ

MI300
GPU名
GA100
-
-
-
CDNA 3.0
アーキテクチャ
Ampere
TSMC
ファウンドリ
TSMC
5 nm
プロセスサイズ
7 nm
1460 億
トランジスタ
542 億
1017 mm²
ダイサイズ
826 mm²

グラフィックス機能

N/A
DirectX
N/A
N/A
OpenGL
N/A
3.0
OpenCL
3.0
N/A
Vulkan
N/A
-
CUDA
8.0
N/A
シェーダモデル
N/A

関連GPU比較

関連ニュース

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー