ホーム GPU比較 NVIDIA Tesla V100 PCIe 32 GB vs AMD Radeon Instinct MI6

NVIDIA Tesla V100 PCIe 32 GB vs AMD Radeon Instinct MI6

私たちは2つのプロフェッショナル市場向けのGPU:32GBのメモリを搭載した Tesla V100 PCIe 32 GB と 8GBのメモリを搭載した Radeon Instinct MI6 を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

NVIDIA Tesla V100 PCIe 32 GB の利点
リリースが1年 と 3 ヶ月 遅れました
最大ブーストクロックは 12% 向上しました (1380MHz と 1233MHz)
より大きな VRAM (32GB vs 8GB)
より大きなメモリ帯域幅 (897.0GB/s vs 224.0GB/s)
追加されたレンダリングコア数は 2816個です
AMD Radeon Instinct MI6 の利点
より低いTDP電力 (150W と 250W)

スコア

ベンチマーク

FP32 (浮動小数点)
Tesla V100 PCIe 32 GB +148%
14.13 TFLOPS
Radeon Instinct MI6
5.682 TFLOPS
VS

グラフィックスカード

2018年3月
リリース日
2016年12月
Tesla
世代
Radeon Instinct
プロフェッショナル
タイプ
プロフェッショナル
PCIe 3.0 x16
バスインターフェース
PCIe 3.0 x16

クロック速度

1230 MHz
ベースクロック
1120 MHz
1380 MHz
ブーストクロック
1233 MHz
876 MHz
メモリクロック
1750 MHz

メモリ

32GB
メモリサイズ
8GB
HBM2
メモリタイプ
GDDR5
4096bit
メモリバス
256bit
897.0GB/s
帯域幅
224.0GB/s

レンダリング設定

-
計算ユニット
36
80
SM数
-
5120
シェーディングユニット
2304
320
TMU
144
128
ROP
32
640
テンソルコア
-
-
-
-
128 KB (per SM)
L1キャッシュ
16 KB (per CU)
6 MB
L2キャッシュ
2 MB
-
-
-

理論的な性能

176.6 GPixel/s
ピクセルレート
39.46 GPixel/s
441.6 GTexel/s
テクスチャレート
177.6 GTexel/s
28.26 TFLOPS
FP16 (半精度)
5.682 TFLOPS
14.13 TFLOPS
FP32 (単精度)
5.682 TFLOPS
7.066 TFLOPS
FP64 (倍精度)
355.1 GFLOPS

ボード設計

250W
TDP
150W
600 W
推奨PSU
450 W
No outputs
出力
No outputs
2x 8-pin
電源コネクタ
1x 6-pin

グラフィックスプロセッサ

GV100
GPU名
Ellesmere
-
GPUバリアント
Ellesmere XT
Volta
アーキテクチャ
GCN 4.0
TSMC
ファウンドリ
GlobalFoundries
12 nm
プロセスサイズ
14 nm
211 億
トランジスタ
57 億
815 mm²
ダイサイズ
232 mm²

グラフィックス機能

12 (12_1)
DirectX
12 (12_0)
4.6
OpenGL
4.6
3.0
OpenCL
2.1
1.3
Vulkan
1.2
7.0
CUDA
-
6.6
シェーダモデル
6.4

関連GPU比較

関連ニュース

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー