ホーム GPU比較 NVIDIA Tesla V100 SXM2 32 GB vs NVIDIA L40 CNX

NVIDIA Tesla V100 SXM2 32 GB vs NVIDIA L40 CNX

私たちは2つのプロフェッショナル市場向けのGPU:32GBのメモリを搭載した Tesla V100 SXM2 32 GB と 24GBのメモリを搭載した L40 CNX を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

NVIDIA Tesla V100 SXM2 32 GB の利点
より大きな VRAM (32GB vs 24GB)
より大きなメモリ帯域幅 (897.0GB/s vs 864.0GB/s)
より低いTDP電力 (250W と 300W)
NVIDIA L40 CNX の利点
リリースが4年 と 7 ヶ月 遅れました
最大ブーストクロックは 62% 向上しました (2475MHz と 1530MHz)
追加されたレンダリングコア数は 13056個です

スコア

ベンチマーク

FP32 (浮動小数点)
Tesla V100 SXM2 32 GB
15.67 TFLOPS
L40 CNX +474%
89.97 TFLOPS
VS

グラフィックスカード

2018年3月
リリース日
2022年10月
Tesla
世代
Tesla Ada
プロフェッショナル
タイプ
プロフェッショナル
PCIe 3.0 x16
バスインターフェース
PCIe 4.0 x16

クロック速度

1290 MHz
ベースクロック
1005 MHz
1530 MHz
ブーストクロック
2475 MHz
876 MHz
メモリクロック
2250 MHz

メモリ

32GB
メモリサイズ
24GB
HBM2
メモリタイプ
GDDR6
4096bit
メモリバス
384bit
897.0GB/s
帯域幅
864.0GB/s

レンダリング設定

-
-
-
80
SM数
142
5120
シェーディングユニット
18176
320
TMU
568
128
ROP
192
640
テンソルコア
568
-
RTコア
142
128 KB (per SM)
L1キャッシュ
128 KB (per SM)
6 MB
L2キャッシュ
48 MB
-
-
-

理論的な性能

195.8 GPixel/s
ピクセルレート
475.2 GPixel/s
489.6 GTexel/s
テクスチャレート
1406 GTexel/s
31.33 TFLOPS
FP16 (半精度)
89.97 TFLOPS
15.67 TFLOPS
FP32 (単精度)
89.97 TFLOPS
7.834 TFLOPS
FP64 (倍精度)
1406 GFLOPS

ボード設計

250W
TDP
300W
600 W
推奨PSU
700 W
No outputs
出力
1x HDMI 2.1 3x DisplayPort 1.4a
None
電源コネクタ
1x 16-pin

グラフィックスプロセッサ

GV100
GPU名
AD102
-
GPUバリアント
AD102-???-A1
Volta
アーキテクチャ
Ada Lovelace
TSMC
ファウンドリ
TSMC
12 nm
プロセスサイズ
4 nm
211 億
トランジスタ
763 億
815 mm²
ダイサイズ
608 mm²

グラフィックス機能

12 (12_1)
DirectX
12 Ultimate (12_2)
4.6
OpenGL
4.6
3.0
OpenCL
3.0
1.3
Vulkan
1.3
7.0
CUDA
8.9
6.6
シェーダモデル
6.6

関連GPU比較

関連ニュース

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー