ホーム GPU比較 NVIDIA Tesla V100 SXM2 32 GB vs AMD Radeon Instinct MI300

NVIDIA Tesla V100 SXM2 32 GB vs AMD Radeon Instinct MI300

私たちは2つのプロフェッショナル市場向けのGPU:32GBのメモリを搭載した Tesla V100 SXM2 32 GB と 128GBのメモリを搭載した Radeon Instinct MI300 を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

NVIDIA Tesla V100 SXM2 32 GB の利点
より低いTDP電力 (250W と 600W)
AMD Radeon Instinct MI300 の利点
リリースが4年 と 10 ヶ月 遅れました
最大ブーストクロックは 11% 向上しました (1700MHz と 1530MHz)
より大きな VRAM (128GB vs 32GB)
より大きなメモリ帯域幅 (3277GB/s vs 897.0GB/s)
追加されたレンダリングコア数は 8960個です

スコア

ベンチマーク

FP32 (浮動小数点)
Tesla V100 SXM2 32 GB
15.67 TFLOPS
Radeon Instinct MI300 +205%
47.87 TFLOPS
VS

グラフィックスカード

2018年3月
リリース日
2023年1月
Tesla
世代
Radeon Instinct
プロフェッショナル
タイプ
プロフェッショナル
PCIe 3.0 x16
バスインターフェース
PCIe 5.0 x16

クロック速度

1290 MHz
ベースクロック
1000 MHz
1530 MHz
ブーストクロック
1700 MHz
876 MHz
メモリクロック
1600 MHz

メモリ

32GB
メモリサイズ
128GB
HBM2
メモリタイプ
HBM3
4096bit
メモリバス
8192bit
897.0GB/s
帯域幅
3277GB/s

レンダリング設定

-
計算ユニット
220
80
SM数
-
5120
シェーディングユニット
14080
320
TMU
880
128
ROP
0
640
テンソルコア
880
-
-
-
128 KB (per SM)
L1キャッシュ
16 KB (per CU)
6 MB
L2キャッシュ
16 MB
-
-
-

理論的な性能

195.8 GPixel/s
ピクセルレート
0 MPixel/s
489.6 GTexel/s
テクスチャレート
1496 GTexel/s
31.33 TFLOPS
FP16 (半精度)
383.0 TFLOPS
15.67 TFLOPS
FP32 (単精度)
47.87 TFLOPS
7.834 TFLOPS
FP64 (倍精度)
47.87 TFLOPS

ボード設計

250W
TDP
600W
600 W
推奨PSU
1000 W
No outputs
出力
No outputs
None
電源コネクタ
2x 8-pin

グラフィックスプロセッサ

GV100
GPU名
Aqua Vanjaram
-
-
-
Volta
アーキテクチャ
CDNA 3.0
TSMC
ファウンドリ
TSMC
12 nm
プロセスサイズ
5 nm
211 億
トランジスタ
1530 億
815 mm²
ダイサイズ
1017 mm²

グラフィックス機能

12 (12_1)
DirectX
N/A
4.6
OpenGL
N/A
3.0
OpenCL
3.0
1.3
Vulkan
N/A
7.0
CUDA
-
6.6
シェーダモデル
N/A

関連GPU比較

関連ニュース

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー