Vertiv und ASML: Warum der AI-Rechenzentrumsboom jetzt von Kühlung, Strom und High-NA-EUV abhängt

26.04.2026

Neue Quartalszahlen und Prognosen von Vertiv und ASML zeigen: Der AI-Boom verlagert sich von Modellen und GPUs hin zur physischen Infrastruktur. Vertiv profitiert von massiv wachsendem Auftragsbestand für Strom- und Kühllösungen, ASML hebt seine 2026‑Prognose dank EUV- und High‑NA-Nachfrage an und bleibt Engpass für modernste Chips. Für Unternehmen bedeutet das: Die eigentliche Wettbewerbskraft entsteht zunehmend über Data-Center-Design, Energieeffizienz, Standortwahl und langfristige Hardware-Partnerschaften – nicht mehr nur über Software.

Vertiv und ASML: Warum der AI-Rechenzentrumsboom jetzt von Kühlung, Strom und High-NA-EUV abhängt


Ausgangslage: AI-Boom trifft physische Grenzen

Die jüngsten Meldungen von Vertiv und ASML markieren einen Wendepunkt im globalen AI-Ausbau:

  • ASML meldet für Q1 2026 einen Umsatz von rund 8,8 Mrd. Euro, hebt den Umsatzausblick für 2026 auf 36–40 Mrd. Euro an und berichtet eine weiterhin extrem starke Nachfrage nach EUV-Lithografie, getrieben durch AI‑ und HBM‑Speicherinvestitionen. EUV‑Systeme machen bereits rund zwei Drittel der Systemumsätze aus. 2026 sollen über 60 Low‑NA‑EUV-Systeme ausgeliefert werden, 2027 steigt die Kapazität Richtung 80 Systeme.

  • Parallel dazu zeigt Vertiv – als einer der zentralen Anbieter für Rechenzentrums‑Stromversorgung und -Kühlung – einen stark wachsenden Auftragsbestand aus AI‑Data‑Center-Projekten mit mehrjähriger Visibilität. In früheren Angaben berichtete Vertiv ein Book‑to‑Bill-Verhältnis nahe 3x und einen Backlog im mittleren zweistelligen Milliardenbereich, ein Großteil davon AI‑getrieben.


Damit verfestigt sich ein Bild: Der Engpass der nächsten AI‑Ausbaustufe liegt nicht bei neuen Modellen, sondern bei physischer Infrastruktur: Kühlung, Strom, Chipproduktion und Bauzeit.


Was genau signalisiert ASML?


High-NA-EUV als Taktgeber für nächste AI‑Chip‑Generation

ASML ist faktisch Monopolist für EUV-Lithografie und einziger Anbieter von High‑NA‑Systemen. Die aktuelle Nachrichtenlage zeigt:

  • Starker Auftragseingang: Die Kombination aus AI‑GPUs und HBM‑Speicher treibt EUV‑Lagen pro Chip nach oben. Speicherhersteller melden, dass Kapazitäten für 2026 weitgehend ausverkauft sind; ASML bestätigt, dass vor allem Speicher‑Kunden EUV‑Kapazitäten bis 2026/27 weit im Voraus buchen.

  • High‑NA-Tempo mit Nuancen: ASML hat inzwischen mehrere High‑NA‑Systeme ausgeliefert; einzelne Kunden wie TSMC schieben Teile ihrer High‑NA‑Bestellungen in die Zeit um 2029. Gleichzeitig bleibt die Nachfrage nach bestehenden EUV‑Generationen hoch. Für Betreiber von AI‑Rechenzentren bedeutet das: Die Roadmap der Chipfertiger verschiebt sich taktisch, ohne den grundsätzlichen AI‑Investitionspfad zu bremsen.

  • Struktureller Engpass: ASMLs Produktionskapazität ist begrenzt und erfordert jahrelange Vorplanung. Selbst mit Kapazitätsausbau kann das Unternehmen nur eine definierte Anzahl EUV‑Systeme pro Jahr liefern. AI‑Rechenzentren sind damit indirekt von einem einzigen Ausrüster abhängig.


Implikation: Wer langfristig auf modernste AI‑Chips (z. B. Next‑Gen‑GPUs und HBM‑Generationen) angewiesen ist, muss davon ausgehen, dass die Lieferfähigkeit der Halbleiterhersteller strukturell durch ASMLs Output begrenzt bleibt. Kurzfristige Volumen‑Sprünge bei Compute sind damit nur begrenzt möglich.


Was genau signalisiert Vertiv?

Vertiv ist einer der zentralen Ausrüster für:

  • USV‑ und Stromverteilungssysteme

  • Kühlung (Luft, Flüssigkühlung, Direct‑to‑Chip, Kühlmittel‑Infrastruktur)

  • Modulrechenzentren und Infrastruktur‑Services


In den aktuellen Aussagen und Zahlen zeichnet sich ab:

  • Explodierender Auftragsbestand: AI‑spezifische Projekte treiben den Backlog auf ein Niveau, das mehrjährige Auslastung sichert. Organische AI‑bezogene Bestellungen waren zuletzt dreistellig prozentual über Vorjahr.

  • Höhere Wertschöpfung pro Rack: Durch die zunehmende Leistungsdichte (z. B. >50 kW pro Rack bei GPU‑Clustern) steigen die Anforderungen an Kühlung und Strom massiv – und damit der Umsatz pro installierter Rack‑Einheit.

  • Infrastruktur als Engpass: In Analystenkommentaren wird Vertiv zunehmend als „Hebel“ auf den AI‑Data‑Center‑Boom gesehen – nicht mehr als klassischer, austauschbarer Zulieferer. Das zeigt sich an hohen Bewertungsmultiples und der Bereitschaft der Kunden, Projekte frühzeitig zu platzieren.


Implikation: Selbst wenn Chips verfügbar sind, können Projekte an fehlenden Kühl‑ und Stromkapazitäten scheitern oder sich um Jahre verzögern.


Warum das für Unternehmen und Organisationen jetzt relevant ist


1. Compute‑Kosten werden durch Standort und Design bestimmt

Bisher stand im Fokus, welche Modelle (GPT‑Klasse, multimodal, spezialisierte LLMs) eingesetzt werden. Die neuen Signale bedeuten:

  • Energiepreis, Netzanschluss und Kühlkonzept bestimmen zunehmend die langfristigen Kosten pro Token, pro Inferenz oder pro Trainingslauf.

  • Regionen mit günstiger, stabiler Energie und schneller Genehmigung von Rechenzentren (z. B. Nordeuropa, ausgewählte US‑Bundesstaaten, Teile Kanadas) gewinnen strategisch an Bedeutung.


Praxisbeispiel:

Ein europäischer SaaS‑Anbieter plant, eigene GPU‑Cluster aufzubauen, um unabhängiger von Hyperscalern zu werden. Ohne bevorzugten Zugang zu günstiger Energie und leistungsfähigen Netzanschlüssen wird sein Cost‑per‑Compute langfristig über dem der Hyperscaler liegen – selbst bei identischer Hardware.


2. Planungszyklen strecken sich – kurzfristige Flexibilität sinkt

Durch ASML‑ und Vertiv‑Kapazitätsgrenzen verlängern sich die gesamten Lieferketten:

  • Chips und HBM sind teils bis weit in die Jahre 2026/27 hinein kontingentiert.

  • Hochdichte Kühllösungen, Stromschienen und modulare Rechenzentren werden vielfach mit mehrjährigem Vorlauf gebucht.


Für CIOs und CFOs heißt das:

  • Kapazitätsplanung muss auf 3–5 Jahre statt auf 12–18 Monate ausgelegt werden.

  • Budgetentscheidungen für AI‑Infrastruktur bekommen Portfolio‑Charakter – ähnlich wie Kraftwerks‑ oder Glasfaser‑Investitionen.


3. Abhängigkeit von Hyperscalern nimmt strukturell zu

Hyperscaler sind in der Lage, sowohl ASML‑induzierte Chipknappheit als auch Vertiv‑ähnliche Infrastrukturengpässe durch langfristige Rahmenverträge und Vorfinanzierung abzufedern.

Folge:

  • Mittelgroße Unternehmen werden es zunehmend schwer haben, eigenständige Spitzen‑Compute‑Kapazitäten aufzubauen.

  • Strategische Multi‑Cloud‑ und Colocation‑Konzepte werden wichtiger, um wenigstens teilweisen Wettbewerb zwischen Anbietern zu erhalten.


Konkrete Handlungsfelder für Unternehmen


H2: Strategische Infrastruktur- und Standortplanung

  1. Standortstrategie überprüfen


- Evaluieren Sie Standorte mit günstiger, dekarbonisierter Energie, guter Netzanbindung und genehmigungsfreundlichem Umfeld.

- Prüfen Sie Joint Ventures mit Versorgern oder Rechenzentrumsbetreibern.

  1. Langfristige Kapazitäts-Slots sichern


- Rahmenverträge mit Colocation‑Anbietern oder Hyperscalern verhandeln, die Mindest‑Compute‑Kontingente für 3–5 Jahre sichern.

- Wo Eigenbau geplant ist, frühzeitige Bindung an Infrastruktur‑Partner (Vertiv, Wettbewerber) anstoßen.


H2: Technische Architektur und Effizienz

  1. Workload‑Optimierung statt „brute force“


- Effizientere Modellarchitekturen (Distillation, sparsity, Retrieval‑Unterstützung) nutzen, um Hardwarebedarf zu senken.

- Power‑Profile typischer Workloads erfassen und in die Rechenzentrums‑Planung integrieren (z. B. Lastspitzen, simultane Trainingsfenster).

  1. Thermal Design als Wettbewerbsvorteil


- Früh den Wechsel zu Flüssigkühlung planen, wenn Leistungsdichten >30–40 kW/Rack absehbar sind.

- Kühlkonzepte mit Energie‑Rückgewinnung (Abwärmenutzung) prüfen, um OPEX und CO₂‑Bilanz zu verbessern.


H2: Governance, Risiko und Beschaffung

  1. Lieferketten‑Risiko modellieren


- Szenarien entwickeln, in denen EUV‑Kapazität, HBM‑Angebot oder Netzanschlüsse verzögert werden.

- Alternative Pfade (z. B. GPU‑Sharing, On‑Demand‑AI‑Services) in Business‑Continuity‑Pläne integrieren.

  1. Capex‑Portfolios statt Einzelprojekte


- AI‑Infrastrukturinvestitionen als Portfolio steuern, mit klaren Hürdenraten und Szenario‑Analysen.

- Frühzeitig Finanzierungsmodelle sondieren (Lease, Power‑Purchase‑Agreements, Infrastruktur‑Partnerschaften).


Fazit: Wettbewerbsvorteil verschiebt sich in Richtung Infrastrukturkompetenz

Die aktuellen Signale von Vertiv und ASML verdeutlichen: Der AI‑Rechenzentrumsboom befindet sich in einer neuen Phase, in der physische Engpässe den Takt vorgeben.

Für Unternehmen heißt das:

  • Der „Moat“ entsteht weniger über das eigentliche Modell, sondern über günstige, skalierbare Compute‑Kapazität.

  • Wer heute keine langfristige Strategie für Rechenzentrums‑Design, Energie, Kühlung und Chip‑Beschaffung entwickelt, wird mittelfristig höhere AI‑Kosten und geringere Skalierungsfähigkeit in Kauf nehmen müssen.


CIOs, CTOs und CFOs sollten die aktuellen Meldungen von Vertiv und ASML daher nicht als reine Branchen‑News abtun, sondern als Frühwarnsignal, dass AI‑Infrastrukturplanung ab sofort wie eine kritische Versorgungsinfrastruktur behandelt werden muss – mit mehrjährigem Planungshorizont, robusten Partnern und klarer Standortstrategie.


Häufig gestellte Fragen (FAQ)


Was ist die Rolle von Vertiv im aktuellen AI-Rechenzentrumsboom?

Vertiv ist ein zentraler Ausrüster für Stromversorgung, USV-Systeme und Kühlung in Rechenzentren, insbesondere für hochdichte AI‑Racks. Durch den massiven Ausbau von GPU‑Clustern wächst der Auftragsbestand stark, sodass Vertiv zunehmend zum Engpass‑ und Hebelpunkt im AI‑Infrastrukturmarkt wird.


Was macht ASML so wichtig für die nächste Generation von AI-Chips?

ASML ist faktisch Monopolist für EUV- und High‑NA‑EUV‑Lithografie und damit Schlüsselanbieter für modernste Fertigung von AI‑GPUs und HBM‑Speicher. Da die Produktionskapazität für EUV‑Systeme begrenzt ist, bestimmt ASML indirekt, wie schnell zusätzliche Spitzen‑Compute‑Kapazitäten weltweit aufgebaut werden können.


Wie beeinflussen Kühlung und Strom die Kosten von AI-Workloads?

Kühl- und Strominfrastruktur bestimmen maßgeblich die langfristigen Kosten pro Inferenz, pro Token oder pro Trainingslauf, weil sie Betriebskosten und Auslastung der Hardware direkt beeinflussen. Standorte mit günstiger, dekarbonisierter Energie, leistungsfähiger Netzanbindung und effizientem Kühlkonzept erzielen dauerhaft niedrigere Compute‑Kosten als weniger optimierte Rechenzentren.


Welche Auswirkungen haben die Kapazitätsgrenzen von ASML und Vertiv auf Unternehmen?

Die begrenzten Kapazitäten von ASML bei EUV-Systemen und von Vertiv bei Strom- und Kühllösungen verlängern die Planungs- und Lieferzeiten für AI‑Infrastruktur auf mehrere Jahre. Für Unternehmen bedeutet das, dass kurzfristige Skalierungsschritte schwieriger werden und strategische Entscheidungen früher und mit längerem Planungshorizont getroffen werden müssen.


Was ist der Unterschied zwischen Softwarefokus und Infrastrukturkompetenz im AI-Wettbewerb?

Ein reiner Softwarefokus setzt auf Modelle, Algorithmen und Anwendungen, während Infrastrukturkompetenz Energieversorgung, Kühlung, Chipbeschaffung und Rechenzentrums‑Design umfasst. Der Artikel argumentiert, dass der nachhaltige Wettbewerbsvorteil zunehmend aus günstiger, skalierbarer Compute‑Kapazität entsteht und weniger aus dem reinen Modell‑Stack.


Was sollten Unternehmen jetzt konkret tun, um sich auf die neue AI-Infrastrukturphase vorzubereiten?

Unternehmen sollten Standortstrategien prüfen, langfristige Compute‑Kontingente mit Hyperscalern oder Colocation‑Anbietern sichern und frühzeitig Partnerschaften für Kühl- und Strominfrastruktur aufbauen. Parallel dazu empfiehlt sich eine Optimierung der Workloads (z. B. effizientere Modelle, bessere Auslastung) sowie die Behandlung von AI‑Infrastrukturinvestitionen als mehrjähriges Capex‑Portfolio mit klaren Szenarien.


Wann lohnt sich für Unternehmen der Aufbau eigener AI-Rechenzentren gegenüber der Nutzung von Hyperscalern?

Eigene AI-Rechenzentren lohnen sich vor allem, wenn Unternehmen Zugang zu günstiger Energie, guten Netzanschlüssen und starken Infrastrukturpartnern haben und dauerhaft hohe, planbare Compute‑Bedarfe erwarten. In vielen Fällen bleiben Hyperscaler jedoch im Vorteil, weil sie Chipknappheit und Infrastrukturengpässe besser abfedern können; daher sind hybride Modelle aus Multi‑Cloud, Colocation und gezieltem Eigenbau oft die pragmatischste Lösung.