ホーム GPU比較 AMD Radeon Instinct MI100 vs NVIDIA Tesla M40 24 GB

AMD Radeon Instinct MI100 vs NVIDIA Tesla M40 24 GB

私たちは2つのプロフェッショナル市場向けのGPU:32GBのメモリを搭載した Radeon Instinct MI100 と 24GBのメモリを搭載した Tesla M40 24 GB を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

AMD Radeon Instinct MI100 の利点
リリースが5年遅れました
最大ブーストクロックは 35% 向上しました (1502MHz と 1112MHz)
より大きな VRAM (32GB vs 24GB)
より大きなメモリ帯域幅 (1229GB/s vs 288.4GB/s)
追加されたレンダリングコア数は 4608個です
NVIDIA Tesla M40 24 GB の利点
より低いTDP電力 (250W と 300W)

スコア

ベンチマーク

FP32 (浮動小数点)
Radeon Instinct MI100 +237%
23.07 TFLOPS
Tesla M40 24 GB
6.832 TFLOPS
VS

グラフィックスカード

2020年11月
リリース日
2015年11月
Radeon Instinct
世代
Tesla Maxwell
プロフェッショナル
タイプ
プロフェッショナル
PCIe 4.0 x16
バスインターフェース
PCIe 3.0 x16

クロック速度

1000 MHz
ベースクロック
948 MHz
1502 MHz
ブーストクロック
1112 MHz
1200 MHz
メモリクロック
1502 MHz

メモリ

32GB
メモリサイズ
24GB
HBM2
メモリタイプ
GDDR5
4096bit
メモリバス
384bit
1229GB/s
帯域幅
288.4GB/s

レンダリング設定

120
計算ユニット
-
-
-
-
7680
シェーディングユニット
3072
480
TMU
192
64
ROP
96
-
-
-
-
-
-
16 KB (per CU)
L1キャッシュ
48 KB (per SMM)
8 MB
L2キャッシュ
3 MB
-
-
-

理論的な性能

96.13 GPixel/s
ピクセルレート
106.8 GPixel/s
721.0 GTexel/s
テクスチャレート
213.5 GTexel/s
184.6 TFLOPS
FP16 (半精度)
-
23.07 TFLOPS
FP32 (単精度)
6.832 TFLOPS
11.54 TFLOPS
FP64 (倍精度)
213.5 GFLOPS

ボード設計

300W
TDP
250W
700 W
推奨PSU
600 W
No outputs
出力
No outputs
2x 8-pin
電源コネクタ
8-pin EPS

グラフィックスプロセッサ

Arcturus
GPU名
GM200
Arcturus XL
GPUバリアント
GM200-895-A1
CDNA 1.0
アーキテクチャ
Maxwell 2.0
TSMC
ファウンドリ
TSMC
7 nm
プロセスサイズ
28 nm
256 億
トランジスタ
80 億
750 mm²
ダイサイズ
601 mm²

グラフィックス機能

N/A
DirectX
12 (12_1)
N/A
OpenGL
4.6
2.1
OpenCL
3.0
N/A
Vulkan
1.3
-
CUDA
5.2
N/A
シェーダモデル
6.7

関連GPU比較

関連ニュース

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー