NVIDIA、次世代Rubinアクセラレータを9月に発売予定

kyojuro 2025年6月10日火曜日

NVIDIAは、市場において驚くべき速度で進化を続けています。特に注目すべきは、ブラックウェール・ウルトラの発売からわずか6カ月後の9月に次世代のRubin AIアクセラレータの顧客向けサンプル出荷を開始予定であることです。Rubin R100 GPUと新しいVera CPUは、TSMCの3nmプロセス技術を活用し、HBM4メモリを組み込み、Chiplet設計を採用しています。これにより、パフォーマンス、電力効率、およびアーキテクチャの包括的なアップグレードが実現します。

Rubin R100 GPUs

Rubin R100 GPUは、ブラックウェール・アーキテクチャの後継であり、データセンターの増大する計算需要に応えるため設計されました。TSMCのN3P(3nm性能強化)プロセスを基に構築されたR100は、ブラックウェールB100で使用される4nmプロセスと比較して、トランジスタ密度を20%向上させ、消費電力を25〜30%削減し、性能を10〜30%向上させます。この技術的進歩により、R100の電力効率が大幅に向上し、集中型AIトレーニングおよび推論タスクに適しています。特に、R100はチップレット設計を導入し、複数の小型チップモジュールを統合することで製造歩留まりとアーキテクチャの柔軟性を向上させます。4倍のレチクル設計は、ブラックウェールの3.3倍のレチクルと比較してチップ面積を増やし、より多くの計算ユニットとメモリインターフェースを組み込むことができます。

メモリに関しては、R100は8つのHBM4スタックを持ち、総容量288GBで、最大13TB/秒の帯域幅を達成します。これはブラックウェールB100のHBM3Eの約8TB/秒を大幅に改善しています。HBM4は12層または16層のスタッキング技術を採用し、シングルスタック容量は24Gbまたは32Gbで、大規模な言語モデルや複雑なAI推論に不可欠な堅牢なメモリサポートを提供します。さらに、R100はTSMCのCoWoS-Lパッケージング技術を利用し、100x100mmの基板と最大12台のHBM4スタックを収容し、Rubin Ultraのさらなる拡張のための強固な基盤を形成しています。I/OチップはN5B(5nm強化)プロセスを使用して、データ転送効率をさらに最適化します。

Vera CPU and Rubin Integration

Rubin GPUと共にあるVera CPUは、88コアと176スレッドを持つカスタムARM Olympusコアをベースにしており、Grace CPUの全面的なオーバーホールを表しています。これは72コアと144スレッドを持つGraceよりも大幅に改善されています。Veraのメモリ帯域幅は1.8TB/秒で、Graceの2.4倍であり、メモリ容量は4.2倍に増加し、データ処理能力が大きく向上しました。VeraはNVLink-C2C高速インターコネクトを介してRubin GPUとシームレスに接続し、1.8TB/秒の帯域幅を誇るため、効率的なチップ間通信を可能にします。その性能は本質的にGraceの2倍で、AI推論、データ前処理、マルチスレッドタスクに非常に適しています。NVIDIAはARM命令セットとマイクロアーキテクチャを最適化し、VeraをAIワークロードのバックエンドニーズに特化させました。

Computex 2024でRubinアーキテクチャを発表して以来、NVIDIAは製品ロードマップを着実に進化させてきました。Rubin R100は2025年第4四半期に量産を開始し、関連するDGXおよびHGXシステムは2026年上半期に展開される予定です。NVIDIAは2026年後半までに、144のRubin GPUと数多くのVera CPUを液冷Oberonラックに統合し、600kWの電力を消費するVera Rubin NVL144プラットフォームを打ち出す予定です。このセットアップにより、FP4の推論性能は3.6exaFLOPS、FP8のトレーニング性能は1.2exaFLOPSで、ブラックウェールGB300 NVL72よりも3.3倍改善されます。2027年までに、Rubin Ultra NVL576プラットフォームは、16のHBM4eスタックと最大1TBのメモリを含む576のRubin Ultra GPUをホストする予定です。このプラットフォームは、FP4の推論性能15exaFLOPS、FP8のトレーニング性能5exaFLOPSを提供することが予測され、GB300よりも14倍の改善が見られます。また、NVLink7インターコネクトとConnectX-9 NIC(1.6Tbps)を搭載し、システムのスケーラビリティを高めます。

Rubinの迅速な立ち上げを保証するため、NVIDIAはTSMCやSK Hynixなどの主要なサプライチェーンパートナーとのコラボレーションを強化しました。TSMCはRubinとAppleのM5 SoCの需要に応えるため、2025年第4四半期までにCoWoSパッケージング能力を月間80,000枚に増強する計画です。SK Hynixは2024年10月にHBM4フローを完了し、NVIDIAに12層HBM4サンプルを納入し、2025年に量産を予定しています。Rubin GPUとVera CPUの最初のパイロット生産サンプルは2025年6月にTSMCで完了し、9月に生産サンプリングを開始し、2026年初頭に量産を予定しています。

データセンター内の電力需要の高まりは、設計におけるエネルギー効率に焦点を当てることにつながっています。Rubin R100は3nmプロセスとHBM4メモリによって電力を節約し、液体冷却技術と高密度ラックを活用して熱管理を最適化します。Vera Rubin NVL144プラットフォームは600kWの消費電力を最大に発揮しますが、その計算密度と性能は、以前のモデルと比較して電力単位あたりの出力をはるかに上回ります。市場分析によれば、世界のAIデータセンター市場は2025年までに2,000億ドルに達し、NVIDIAのブラックウェールとRubin技術がその牽引役を果たすと予測されています。マイクロソフト、グーグル、アマゾンといった大手テック企業は、2025年末までにブラックウェールチップを予約しており、Rubinの早期導入はNVIDIAの市場支配をさらに強固なものにしています。

Future of AI with Feynman Architecture

今後、NVIDIAは2028年にファインマンアーキテクチャを発表し、偉大な科学者の名を冠したチップの伝統を引き継ぐ予定です。RubinとVeraの成功により、AI推論やトレーニング、エージェントAIといった新興アプリケーションがさらに強化され、AI技術をより汎用的なフレームワークへと導きます。2025年9月のサンプル出荷、2026年までの本番展開を通じて、NVIDIAは世界のAI市場におけるリーダーシップを維持し、データセンターおよびAIアプリケーションの進化を推進することを目指しています。

関連ニュース

© 2025 - TopCPU.net