Intel hat kürzlich auf dem OCP Global Summit 2025 ein innovatives Projekt vorgestellt. Dabei handelt es sich um eine hybride Rack-Level-Serverlösung, die den Gaudi 3 KI-Chip von Intel mit GPUs der Blackwell-Architektur von NVIDIA kombiniert. Diese Entwicklung markiert einen signifikanten Wandel in der KI-Hardware-Strategie von Intel, weg von einem alleinigen Konkurrenzansatz hin zu einer kooperativeren und stärker integrierten Marktpräsenz.

Das neu eingeführte System, bekannt als Gaudi 3 Rack Scale Solution, zeichnet sich durch ein Rack-montiertes Design mit mehreren Rechen- und Schaltfächern aus. Jedes Tray ist mit zwei Xeon-Prozessoren, vier Gaudi 3-Beschleunigern, vier NVIDIA ConnectX-7 400GbE-Netzwerkkarten und einer BlueField-3 DPU ausgestattet. Innerhalb des Racks sind 16 „Rechenblätter“ vollständig miteinander verbunden und bieten über Broadcom Tomahawk 5 Switches eine Netzwerkkapazität von bis zu 51,2 Tb/s. Die Architektur betont hohe Bandbreite, niedrige Latenz und Ethernet-zentrierte horizontale Skalierbarkeit und bietet eine robuste Infrastruktur, die ideal für KI-Inferenzoperationen geeignet ist.
Wesentlich ist, dass dieses System nicht auf Intels eigenes Ökosystem beschränkt ist; es integriert sich nahtlos in die Blackwell B200 GPUs von NVIDIA. Mit einer aufgabenspezifischen „decomposed inference“-Strategie für das Ausführen von KI-Modellen verwaltet Blackwell die rechenintensive „prefill“-Phase, während Gaudi 3 die weniger rechenintensive, aber latenzempfindliche „decode“-Phase übernimmt. Diese Arbeitsteilung erlaubt es beiden Architekturen, ihre Stärken zu nutzen: die außergewöhnlichen Matrizenrechenfähigkeiten von Blackwell und die überlegene Speicherbandbreite und Ethernet-Kommunikationsfähigkeiten von Gaudi 3, die gemeinsam effektiv gleichzeitige Inferenzanfragen verwalten können. SemiAnalysis berichtet, dass die vorgefüllte Leistungsdichte dieser kompakten Racks etwa 1,7 Mal höher ist als bei Konfigurationen, die nur B200 GPUs verwenden.

Strategisch gesehen hatte die alleinstehende Gaudi-Plattform in einer von NVIDIA dominierten Marktlandschaft für KI-Computing einen begrenzten Wettbewerbsraum. Durch die Einbindung der Blackwell-Plattform auf Rack-Ebene nutzt Intel NVIDIAs hochentwickeltes Software-Ökosystem, einschließlich CUDA- und NVLink-Technologien, und erweitert so die Anwendungsmöglichkeiten seiner Hardwarelösungen. Diese strategische Partnerschaft unterstreicht Intels pragmatischen Ansatz, offene Netzwerkarchitekturen und Ethernet-Verbindungen zu optimieren, um seine Position im KI-beschleunigten Ökosystem zu stärken.
Dennoch gibt es Herausforderungen. Der Software-Stack und die Entwicklungstools der Gaudi-Plattform erreichen noch nicht die Reife von CUDA, was erheblichen Entwicklungsaufwand für reale Anwendungen bedeutet. Darüber hinaus ist Gaudi 3 als Übergangsprodukt auf einem 5-nm-Prozess konzipiert, während Intels Roadmap für das kommende Jahr den Übergang zu einer neuen Architektur vorsieht. Analysten schlagen vor, dass diese hybride Racklösung primär als „Showcase-Strategie“ dient, um Intels Fähigkeit zu demonstrieren, anpassungsfähige Lösungen auf Systemebene im KI-Server-Markt anzubieten, nicht nur um auf der Chipebene wettbewerbsfähig zu sein.

NVIDIA kann erhebliche Vorteile aus dieser Zusammenarbeit ziehen, da das Gaudi 3 Rack Scale-Design zahlreiche NVIDIA-Netzwerk- und Kommunikationskomponenten wie die ConnectX-NIC-Serie und BlueField-DPUs integriert, was NVIDIAs Dominanz in high-bandwidth-Netzwerken und heterogenen Clustertechnologien weiter festigt. Für Intel wird diese Synergie voraussichtlich die Auslieferung von Gaudi-Produkten steigern und die Interoperabilität von Xeon mit KI-Beschleunigern in Multi-Node-Implementierungen unter Beweis stellen.
Da sich die KI-Hardware-Branche rasant weiterentwickelt, könnte dieses Modell der „cross-camp collaboration“ einen neuen Trend einleiten. Anstatt von einer einzigen Einheit dominiert zu werden, könnten zukünftige Rechenzentren einen hocheffizienten Rechencluster aus verschiedenen Architekturen aufbauen. Für Intel ist die Gaudi 3 Rack Scale nicht nur ein Produkt-Experiment, sondern ein strategischer Schritt, um sich in der KI-Infrastrukturlandschaft neu zu positionieren und von einem einsamen Wettbewerb zu einer Integration und Optimierung auf Systemebene überzugehen.