Als ich kürzlich NVIDIAs GTC 2025 besuchte, die weithin als „Super Bowl der KI“ bezeichnet wird, war ich beeindruckt dadurch, dass es das Ausmaß unterstreicht, in dem künstliche Intelligenz die Computertechnik neu definiert hat.
So oft hervorgehoben durch Salute, die Konvergenz von fortschrittlichen Rechenkapazitäten und die erhöhte Die durch moderne Infrastrukturdesigns bedingten Anforderungen haben den Rechenzentrumsbetrieb radikal neu definiert. Dies hat erhebliche Auswirkungen auf den Strom- und Kühlbedarf und erfordert eine präzise Planung und Ausführung dank neuartiger Innovationen wie digitaler Zwillingsumgebungen, beides entscheidend für Optimierung der Leistung im Einklang mit Nachhaltigkeitsaspekten.
Hören Sie, wie einer der zukunftsorientiertesten Branchenführer diese Themen aus erster Hand erörtert
brachte neue Klarheit über die Chancen und Herausforderungen, vor denen andere Führungskräfte stehen. Obwohl es
Ich denke, dass die folgenden Erkenntnisse aus diesem Vortrag die Zukunft des Rechenzentrums am besten widerspiegeln.
Innovation:
Agentische KI – Ein neues Kapitel und eine neue Ära
NVIDIA-CEO Jensen Huang begann seine Keynote mit einer Darstellung der Entwicklung der KI von der Wahrnehmung über die Generierung bis hin zur agentenbasierten KI. Jedes Kapitel brachte erweiterte Fähigkeiten mit sich, wobei die agentenbasierte KI eine neu entdeckte Fähigkeit zum Denken, Planen und Handeln darstellt. Durch Kontextverständnis, den Einsatz von Tools und die Bearbeitung komplexer Probleme eröffnet die agentenbasierte KI ein neues Maß an Autonomie. Dieser Funktionssprung hat jedoch seinen Preis. Konkret erfordert sie 100-mal mehr Rechenleistung als frühere Modelle. Dieser rasante Anstieg der Verarbeitungsleistung erfordert natürlich eine höhere Rechendichte, Netzwerke mit geringer Latenz und ein energieeffizientes Design.
Neudefinition der Leistung durch Architekturverbesserungen
Ein weiteres Highlight der Keynote war NVIDIAs Blackwell-Plattform, die einen grundlegenden Wandel in der Rechenzentrumsarchitektur darstellt. Jede Blackwell-GPU enthält zwei GPU-Chips und ermöglicht so eine bisher unvorstellbare Rechenleistung. Mit flüssigkeitsgekühlten Racks, die 600,000 Komponenten beherbergen, können Unternehmen nun ein Exaflop Rechenleistung in einem einzigen Rack erreichen – eine Leistung, für die zuvor über 1,400 Racks erforderlich waren. Dies wiederum ermöglichte einen Sprung der Kapazität zur KI-Token-Generierung von 300 Millionen Token in einer 100-Megawatt-Anlage auf 12 Milliarden. Jensen betonte zudem den Branchentrend hin zu Rack-Leistungsdichten von über 130 kW pro Rack (Grace Blackwell), Prognosen von 200 kW pro Rack (Rubin) und 600 kW (Feynman) in den kommenden Jahren. Es ist sicherlich keine Untertreibung zu behaupten, dass diese Fortschritte die Architektur und den Betrieb von KI-Rechenzentren weltweit grundlegend verändern werden.
KI-Fabriken und digitale Zwillinge: Planung für die Zukunft
Wie Jensen betonte, ist moderne KI-Infrastruktur keine generische Rechenumgebung mehr, sondern eine „KI-Fabrik“. Dieser Begriff beschreibt die Fähigkeit von Rechenzentren, Milliarden von Token zu verarbeiten, umfangreiches Modelltraining zu koordinieren und schlussfolgerungsbasierte Schlussfolgerungen zu ziehen. Um dies zu bewältigen, hat NVIDIA Tools wie die digitale Zwillingsplattform Omniverse und Cadence Reality eingeführt. Beide ermöglichen eine präzise Modellierung der Rechenzentrumsleistung, identifizieren so potenzielle Designfehler und optimieren Wärmeströme in Echtzeit.
Scale-Up vor Scale-Out: Das Rack neu erfinden
NVIDIAs Keynote betonte zudem einen strategischen Wandel in der Infrastrukturphilosophie: Skalierung vor Skalierung. Statt die Rechenleistung horizontal zu verteilen, steht die Maximierung der Leistung innerhalb jedes Racks im Vordergrund. Technologien wie NVLink und SpectrumX Ethernet ermöglichen eine Kommunikation zwischen GPUs mit extrem geringer Latenz und machen so Skalierung möglich und effizient. NVIDIA stellte außerdem Dynamo vor, ein neues Open-Source-Betriebssystem, das Multi-GPU-Workloads nahtlos koordiniert und so schnellere Inferenz, bessere Auslastung und geringeren Betriebsaufwand ermöglicht.
Von Newton bis zur Robotik: Die umfassenderen Auswirkungen der KI
Über Rechenzentren hinaus zeigte NVIDIA auch, wie KI die physische Welt verändert. Die Partnerschaft mit GM zur Entwicklung autonomer Fahrzeuge sowie die Einführung von Newton – einem humanoiden Roboter, der auf dem ISAAC GROOT N1-Basismodell basiert – demonstrierten die realen Anwendungen von KI-Argumentation. Da diese Systeme auf kontinuierlichem Lernen, groß angelegtem Modelltraining und sofortiger Inferenz basieren, ist natürlich eine robuste, skalierbare Infrastruktur im Hintergrund erforderlich. Salute arbeitet daran, bereitzustellen.
SaluteDer Ansatz von zur Förderung der nächsten Generation der KI-Infrastruktur
Diese Entwicklung von KI-Workloads von generativ zu agentenbasiert, vorangetrieben durch Innovationen wie Grace Blackwell, Rubin und Feynman, signalisiert einen deutlichen Wandel in den Anforderungen an Rechenzentren. Diese Plattformen treiben die Rack-Leistungsdichte weit über die Grenzen herkömmlicher luftgekühlter Umgebungen hinaus. Die skalierte Bereitstellung von Direct-to-Chip-Flüssigkeitskühlung ist daher ein entscheidender nächster Schritt für die nachhaltige Unterstützung von Hochleistungsrechnern. Wie erwartet bringt dieser Übergang erhebliche betriebliche Komplexität mit sich und erfordert eine präzise Inbetriebnahme, spezielle Schulungen und ein robustes Gebäudemanagement, das die zunehmend dichte und sensible Infrastruktur unterstützt.
Branchenweit erforschen Rechenzentrumsbetreiber aktiv die optimale Reaktion. Fragen zu Zuverlässigkeit, Leistung und Nachhaltigkeit spielen dabei eine zentrale Rolle für den Schutz von GPU-Investitionen und die Steigerung der Kapitalrendite. Die Betriebsbereitschaft hängt dabei nicht nur von der technischen Seite ab, sondern auch von Planungs- und Bereitstellungsstrategien, die eine engere Abstimmung zwischen Design- und Lieferteams, optimierte interne Prozesse und belastbare, langfristige Servicemodelle priorisieren. Kurz gesagt: Mit zunehmender Komplexität der technologischen Anforderungen müssen auch die Strategien für die Entwicklung, Bereitstellung und Instandhaltung der Infrastruktur weiterentwickelt werden.
Aus diesem Grund ist das so Salute engagiert sich mit großem Engagement für den Aufbau der notwendigen Kompetenzen, um dieses nächste Kapitel der Infrastrukturtransformation zu unterstützen. Durch den Fokus auf Beratungs-, Inbetriebnahme- und Facility-Management-Services, die auf Direct-to-Chip-Flüssigkeitskühlungsumgebungen zugeschnitten sind, richten wir unseren Ansatz aktiv auf die neuen Anforderungen von NVIDIAs KI- und anderen HPC-Workloads aus. Unser Ziel ist es, Betreibern zu helfen, diese Komplexität souverän zu meistern, indem wir Strategien entwickeln, die Skalierbarkeit unterstützen, Infrastrukturinvestitionen schützen und operative Exzellenz über den gesamten Lebenszyklus hinweg sicherstellen. Auf diese Weise wollen wir die Evolution des KI-Rechenzentrums anführen – den nächsten Schritt auf unserer bereits außergewöhnlichen Reise.
Entdecken Sie eine intelligentere Möglichkeit zur Skalierung Ihrer KI-Infrastruktur mit Salute
Mit dem Voranschreiten des KI-Zeitalters Salute steht an vorderster Front bei der Bereitstellung der dafür notwendigen physischen Infrastruktur. Mit einer globalen Präsenz mit 12 Niederlassungen, über 1,800 Mitarbeitern und Niederlassungen in über 102 Märkten – insgesamt unterstützen wir 80 % der weltweiten Rechenzentrumsbetreiber – bieten wir bewährte Expertise über den gesamten Lebenszyklus. Ob Skalierung einer KI-Fabrik, Aufrüstung für hohe Rackdichte oder Einsatz von Kühlsystemen der nächsten Generation – Salute liefert die Erkenntnisse, die Ausführung und die betriebliche Exzellenz, um sicher und effizient zu skalieren.