ホーム GPU比較 AMD Radeon Instinct MI300 vs NVIDIA Tesla V100 SXM2 32 GB

AMD Radeon Instinct MI300 vs NVIDIA Tesla V100 SXM2 32 GB

私たちは2つのプロフェッショナル市場向けのGPU:128GBのメモリを搭載した Radeon Instinct MI300 と 32GBのメモリを搭載した Tesla V100 SXM2 32 GB を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

AMD Radeon Instinct MI300 の利点
リリースが4年 と 10 ヶ月 遅れました
最大ブーストクロックは 11% 向上しました (1700MHz と 1530MHz)
より大きな VRAM (128GB vs 32GB)
より大きなメモリ帯域幅 (3277GB/s vs 897.0GB/s)
追加されたレンダリングコア数は 8960個です
NVIDIA Tesla V100 SXM2 32 GB の利点
より低いTDP電力 (250W と 600W)

スコア

ベンチマーク

FP32 (浮動小数点)
Radeon Instinct MI300 +205%
47.87 TFLOPS
Tesla V100 SXM2 32 GB
15.67 TFLOPS
VS

グラフィックスカード

2023年1月
リリース日
2018年3月
Radeon Instinct
世代
Tesla
プロフェッショナル
タイプ
プロフェッショナル
PCIe 5.0 x16
バスインターフェース
PCIe 3.0 x16

クロック速度

1000 MHz
ベースクロック
1290 MHz
1700 MHz
ブーストクロック
1530 MHz
1600 MHz
メモリクロック
876 MHz

メモリ

128GB
メモリサイズ
32GB
HBM3
メモリタイプ
HBM2
8192bit
メモリバス
4096bit
3277GB/s
帯域幅
897.0GB/s

レンダリング設定

220
計算ユニット
-
-
SM数
80
14080
シェーディングユニット
5120
880
TMU
320
0
ROP
128
880
テンソルコア
640
-
-
-
16 KB (per CU)
L1キャッシュ
128 KB (per SM)
16 MB
L2キャッシュ
6 MB
-
-
-

理論的な性能

0 MPixel/s
ピクセルレート
195.8 GPixel/s
1496 GTexel/s
テクスチャレート
489.6 GTexel/s
383.0 TFLOPS
FP16 (半精度)
31.33 TFLOPS
47.87 TFLOPS
FP32 (単精度)
15.67 TFLOPS
47.87 TFLOPS
FP64 (倍精度)
7.834 TFLOPS

ボード設計

600W
TDP
250W
1000 W
推奨PSU
600 W
No outputs
出力
No outputs
2x 8-pin
電源コネクタ
None

グラフィックスプロセッサ

Aqua Vanjaram
GPU名
GV100
-
-
-
CDNA 3.0
アーキテクチャ
Volta
TSMC
ファウンドリ
TSMC
5 nm
プロセスサイズ
12 nm
1530 億
トランジスタ
211 億
1017 mm²
ダイサイズ
815 mm²

グラフィックス機能

N/A
DirectX
12 (12_1)
N/A
OpenGL
4.6
3.0
OpenCL
3.0
N/A
Vulkan
1.3
-
CUDA
7.0
N/A
シェーダモデル
6.6

関連GPU比較

関連ニュース

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー