ホーム GPU比較 NVIDIA L40 CNX vs AMD Radeon Instinct MI100

NVIDIA L40 CNX vs AMD Radeon Instinct MI100

私たちは2つのプロフェッショナル市場向けのGPU:24GBのメモリを搭載した L40 CNX と 32GBのメモリを搭載した Radeon Instinct MI100 を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

NVIDIA L40 CNX の利点
リリースが1年 と 11 ヶ月 遅れました
最大ブーストクロックは 65% 向上しました (2475MHz と 1502MHz)
追加されたレンダリングコア数は 10496個です
AMD Radeon Instinct MI100 の利点
より大きな VRAM (32GB vs 24GB)
より大きなメモリ帯域幅 (1229GB/s vs 864.0GB/s)

スコア

ベンチマーク

FP32 (浮動小数点)
L40 CNX +289%
89.97 TFLOPS
Radeon Instinct MI100
23.07 TFLOPS
VS

グラフィックスカード

2022年10月
リリース日
2020年11月
Tesla Ada
世代
Radeon Instinct
プロフェッショナル
タイプ
プロフェッショナル
PCIe 4.0 x16
バスインターフェース
PCIe 4.0 x16

クロック速度

1005 MHz
ベースクロック
1000 MHz
2475 MHz
ブーストクロック
1502 MHz
2250 MHz
メモリクロック
1200 MHz

メモリ

24GB
メモリサイズ
32GB
GDDR6
メモリタイプ
HBM2
384bit
メモリバス
4096bit
864.0GB/s
帯域幅
1229GB/s

レンダリング設定

-
計算ユニット
120
142
SM数
-
18176
シェーディングユニット
7680
568
TMU
480
192
ROP
64
568
テンソルコア
-
142
RTコア
-
128 KB (per SM)
L1キャッシュ
16 KB (per CU)
48 MB
L2キャッシュ
8 MB
-
-
-

理論的な性能

475.2 GPixel/s
ピクセルレート
96.13 GPixel/s
1406 GTexel/s
テクスチャレート
721.0 GTexel/s
89.97 TFLOPS
FP16 (半精度)
184.6 TFLOPS
89.97 TFLOPS
FP32 (単精度)
23.07 TFLOPS
1406 GFLOPS
FP64 (倍精度)
11.54 TFLOPS

ボード設計

300W
TDP
300W
700 W
推奨PSU
700 W
1x HDMI 2.1 3x DisplayPort 1.4a
出力
No outputs
1x 16-pin
電源コネクタ
2x 8-pin

グラフィックスプロセッサ

AD102
GPU名
Arcturus
AD102-???-A1
GPUバリアント
Arcturus XL
Ada Lovelace
アーキテクチャ
CDNA 1.0
TSMC
ファウンドリ
TSMC
4 nm
プロセスサイズ
7 nm
763 億
トランジスタ
256 億
608 mm²
ダイサイズ
750 mm²

グラフィックス機能

12 Ultimate (12_2)
DirectX
N/A
4.6
OpenGL
N/A
3.0
OpenCL
2.1
1.3
Vulkan
N/A
8.9
CUDA
-
6.6
シェーダモデル
N/A

関連GPU比較

関連ニュース

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー