ホーム GPU比較 AMD Instinct MI300A vs NVIDIA Tesla P100 PCIe 16 GB

AMD Instinct MI300A vs NVIDIA Tesla P100 PCIe 16 GB

私たちは2つのプロフェッショナル市場向けのGPU:128GBのメモリを搭載した AMD Instinct MI300A と 16GBのメモリを搭載した Tesla P100 PCIe 16 GB を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

AMD Instinct MI300A の利点
リリースが7年 と 6 ヶ月 遅れました
最大ブーストクロックは 58% 向上しました (2100MHz と 1329MHz)
より大きな VRAM (128GB vs 16GB)
より大きなメモリ帯域幅 (5300GB/s vs 732.2GB/s)
追加されたレンダリングコア数は 11008個です
NVIDIA Tesla P100 PCIe 16 GB の利点
より低いTDP電力 (250W と 760W)

スコア

ベンチマーク

FP32 (浮動小数点)
AMD Instinct MI300A +1187%
122.6 TFLOPS
Tesla P100 PCIe 16 GB
9.526 TFLOPS
VS

グラフィックスカード

2023年12月
リリース日
2016年6月
Instinct
世代
Tesla
プロフェッショナル
タイプ
プロフェッショナル
PCIe 5.0 x16
バスインターフェース
PCIe 3.0 x16

クロック速度

1000 MHz
ベースクロック
1190 MHz
2100 MHz
ブーストクロック
1329 MHz
5200 MHz
メモリクロック
715 MHz

メモリ

128GB
メモリサイズ
16GB
HBM3
メモリタイプ
HBM2
8192bit
メモリバス
4096bit
5300GB/s
帯域幅
732.2GB/s

レンダリング設定

228
計算ユニット
-
-
SM数
56
14592
シェーディングユニット
3584
880
TMU
224
0
ROP
96
-
-
-
-
-
-
16 KB (per CU)
L1キャッシュ
24 KB (per SM)
16 MB
L2キャッシュ
4 MB
-
-
-

理論的な性能

0 MPixel/s
ピクセルレート
127.6 GPixel/s
1496 GTexel/s
テクスチャレート
297.7 GTexel/s
980.6 TFLOPS
FP16 (半精度)
19.05 TFLOPS
122.6 TFLOPS
FP32 (単精度)
9.526 TFLOPS
61.3 TFLOPS
FP64 (倍精度)
4.763 TFLOPS

ボード設計

760W
TDP
250W
1000 W
推奨PSU
600 W
No outputs
出力
No outputs
None
電源コネクタ
1x 8-pin

グラフィックスプロセッサ

MI300
GPU名
GP100
-
GPUバリアント
GP100-893-A1
CDNA 3.0
アーキテクチャ
Pascal
TSMC
ファウンドリ
TSMC
5 nm
プロセスサイズ
16 nm
1460 億
トランジスタ
153 億
1017 mm²
ダイサイズ
610 mm²

グラフィックス機能

N/A
DirectX
12 (12_1)
N/A
OpenGL
4.6
3.0
OpenCL
3.0
N/A
Vulkan
1.3
-
CUDA
6.0
N/A
シェーダモデル
6.4

関連GPU比較

関連ニュース

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー