インテルは、AI専用のGPUシステムを強化するために設計された3つの新しいXeon 6シリーズプロセッサを発表しました。これらのプロセッサは、コア周波数を動的に調整する技術であるPriority Core—ThroughputとIntel Speed Select Technology—Throughputを搭載したパフォーマンスコア(P-cores)を備え、要求の厳しいAIワークロードでGPUのパフォーマンスを最適化します。特に、Xeon 6776 PはNVIDIAの最新AIアクセラレーションシステムであるDGX B 300のホストCPUとして機能し、AIモデルとデータセットの複雑な要求に応えます。 Xeon 6シリーズプロセッサは、AIシステムのパフォーマンスを最適化する際に明確な利点を提供します。Priority Core RXテクノロジーは、実行順序を動的に優先してCPUリソースの割り当てを強化し、優先度の高いコアは高い周波数で動作し、優先度の低いコアは基礎周波数を維持します。このメカニズムは、GPUへのデータ転送を迅速化し、システム全体の効率を向上させ、シリアル処理を要するAIタスクに特に役立ちます。さらに、インテルのSST-TFテクノロジーにより、柔軟な周波数管理が可能となり、ユーザーはワークロードの需要に応じてコアパフォーマンスを調整し、パフォーマンスとエネルギー効率のバランスを達成できます。これらの新しいプロセッサは、技術仕様に優れています。各CPUは最大128のPコアをサポートし、高いコア数とシングルスレッドパフォーマンスのバランスをとり、集中的なAIタスクで効果的な負荷分散を確保します。また、Xeon 6シリーズは、多重DIMMとCompute Express Linkのサポートにより、大規模なAIモデルのストレージニーズに応えるためのメモリ帯域幅の向上により、競合他社と比較して約30%高いメモリ性能を実現しています。さらに、以前のXeonプロセッサと比較してPCIeレーンの数が20%増加し、I/O集約的なワークロードに対応するためのデータ転送レートを向上させています。さらに、Xeon 6シリーズはFP16精度の演算をサポートし、Advanced Matrix Extensionsによりデータ前処理と重要なAIタスクを高速化します。信頼性とメンテナンス性も、Xeon 6シリーズの重要な機能です。これらのプロセッサには、システムの稼働率を最大化し、ビジネス中断のリスクを最小限に抑えるための様々な機能が搭載されているため、データセンター、クラウド、高性能コンピューティング環境に最適です。AIワークロードの計算インフラへの需要が高まる中、Xeon 6シリーズは複雑なAIアプリケーションシナリオに対応するために、パフォーマンスと電力効率を最適化し、企業のデータセンターのアップグレードをサポートします。 業界の応用では、Xeon 6776 PとNVIDIA DGX B 300の統合が特に注目されています。DGX B 300は8つのNVIDIA H200 Tensor Core GPUをホストしており、Xeon 6776 Pの高性能コアと豊富なメモリ帯域幅と組み合わせることで、生成AI、大規模言語モデルのトレーニング、科学計算タスクを効率的に処理します。このシステムは、エンタープライズレベルのAIトレーニングと推論シナリオを目的に設計されており、金融、ヘルスケア、製造業など様々な分野で世界中で使用されています。インテルとNVIDIAの協業は、AIインフラストラクチャの標準化を更に進め、高性能なモジュラーソリューションを業界に提供します。Xeon 6シリーズの発売は、AIコンピューティング需要が急速に増加しているタイミングです。市場データによれば、世界のAIチップ市場は2030年までに3000億ドルを超え、データセンターCPUが中心的な役割を担うと予想されています。Xeon 6シリーズにより、インテルはAI最適化されたCPU市場における地位を確立し、エッジコンピューティングからクラウドベースのトレーニングまで、多様なニーズを満たしています。プロセッサ対応CXLテクノロジーは、将来のデータセンターアーキテクチャにおける重要なトレンドとされ、メモリとアクセラレータの動的共有を可能にし、システム効率を向上させます。
AMDの新しいZen 5 EPYCプロセッサと比較すると、IntelのXeon 6シリーズとAMDの第5世代EPYC 9005シリーズ(トリノ)はデータセンターCPU市場においてそれぞれ明確な強みを持っています。Xeon 6シリーズは、最大128個のPコアまたは144個のEコア、強力なシングルスレッドパフォーマンス、AI推論を加速させるAMX命令セット、メモリ帯域幅の30%向上、CXL 2.0のサポートを提供し、メモリ集約的なHPC、データベース、エンタープライズアプリケーションに最適です。最大500WのTDPを有しており、NGINXやMongoDBのようなタスクで優れたパフォーマンスを発揮しますが、消費電力は高めです。一方で、EPYC 9005は最大192個のZen 5コアまたは256個のZen 5cコアをサポートし、コア数でリードしており、TSMCの3nmプロセスにより16%改善されたIPC、広範なGPUスケーリングのための128個のPCIe 5.0レーン、エネルギー効率の向上、AIトレーニング、高度な並列仮想化、クラウドコンピューティングに適しており、メモリ帯域幅が僅かに低いものの、費用対効果の高い価格で提供されています。Xeon 6シリーズはAI推論と従来のアプリケーションに優れ、EPYC 9005はマルチスレッドコンピューティングとコストに敏感な環境に適しています。