Delska eröffnet 10-MW-AI- und HPC-Rechenzentrum „EU North Riga LV DC1“: Was der neue Baltic-Hub für europäische Unternehmen bedeutet
15.04.2026

Mit EU North Riga LV DC1 geht in Riga eines der modernsten und nachhaltigsten AI- und HPC-Rechenzentren des Baltikums offiziell an den Start. Das 10-MW-Tier-III-Rechenzentrum ist konsequent auf GPU- und High-Density-Workloads ausgelegt, nutzt zu 100 % erneuerbare Energie und ist vollständig EU-reguliert. Der Beitrag ordnet ein, welche strategischen Optionen sich dadurch für CIOs, CDOs und Infrastrukturverantwortliche in Europa eröffnen – von AI-Act-konformen Workloads über Latenz-Optimierung bis hin zu Multi-Region- und Souveränitätsstrategien.
Delska eröffnet 10-MW-AI- und HPC-Rechenzentrum „EU North Riga LV DC1“ im Baltikum
Einordnung: Warum dieser Rechenzentrumsstart relevant ist
Am 15. April 2026 hat der baltische Rechenzentrumsbetreiber Delska in Riga offiziell das 10-Megawatt-Rechenzentrum EU North Riga LV DC1 in Betrieb genommen. Die Anlage ist konsequent auf KI- und High-Performance-Computing (HPC) ausgelegt, bietet bis zu 250 kW pro Rack und wird vollständig mit erneuerbarer Energie betrieben.
Für europäische Unternehmen ist dieses Projekt aus drei Gründen strategisch wichtig:
Zusätzliche, EU-regulierte GPU-Kapazitäten in einem bisher weniger überlasteten Markt (Baltikum statt klassischer FLAP-D-Hubs).
Souveräne, DSGVO-konforme AI-Infrastruktur unter EU-Recht – ohne direkte Abhängigkeit von außereuropäischen Hyperscalern.
Hochverdichtete, nachhaltige HPC-Infrastruktur für GPU-Cluster, die sich in bestehende Multi-Region- und Redundanzkonzepte integrieren lässt.
Technische Eckdaten: Was bietet EU North Riga LV DC1?
Design und Kapazität
Leistung: 10 MW, skalierbar auf bis zu 30 MW Campus-Leistung
Kapazität: Rund 1.000 Racks auf ca. 3.000 m² Colocation-Fläche
Leistung pro Rack:
- Standard-Setups bis ca. 20 kW
- AI/HPC-Racks bis zu 250 kW (für große GPU-Pods, DGX-/HGX-Cluster etc.)
Tier-III-Design (Uptime Institute), Facility-Zertifizierung im Anlauf
Ziel-PUE um 1,3 mit Free-Cooling, effizienter Wandkühlung und Turbocor-Chillern
Damit adressiert Delska ein Kernproblem vieler Unternehmen: In etablierten Metropolregionen (Frankfurt, Amsterdam, Paris, London) sind Strom- und Kühlkapazitäten für dichte GPU-Lasten knapp oder stark reguliert. Riga wird damit zu einem alternativen Hochleistungs-Hub mit moderner Infrastruktur.
Nachhaltigkeit und Energieversorgung
100 % Windenergie aus nordeuropäischen Quellen
Backup-Gensets mit auf erneuerbaren Rohstoffen basierendem Diesel
Geplante LEED-Gebäudezertifizierung
Für Unternehmen mit eigenen ESG-Zielen und Berichtspflichten (CSRD) ist dies relevant: Der Betrieb von AI-Workloads in einem Rechenzentrum mit nachweislich niedrigerem PUE und erneuerbaren Energien lässt sich direkt in Emissions- und Nachhaltigkeitsberichte einbinden.
Vernetzung und Latenz
EU North Riga LV DC1 ist an einen 100G-Backbone Richtung Tallinn–Riga–Vilnius–Warszawa–Berlin–Frankfurt angebunden und bietet Peering zu großen europäischen Internetknoten. Für die Praxis bedeutet das:
Latenzen im niedrigen zweistelligen Millisekundenbereich zu Kernmärkten in Mitteleuropa
Direkte Anbindung an große Cloud- und Netzwerkprovider über Internet Exchanges
Möglichkeit, Hybrid- und Multi-Cloud-Szenarien mit regionalem Data Residency Layer zu kombinieren
Implikationen für CIOs, CDOs und Infrastrukturplaner
1. Alternative zu überfüllten Hyperscaler-Regionen
Viele Unternehmen stoßen bei Hyperscalern inzwischen auf:
Wartezeiten für GPU-Kontingente
Limitierte Verfügbarkeit in bestimmten Regionen
Heterogene Vertragsmodelle in Bezug auf Datenhoheit und Auditierbarkeit
Mit EU North Riga LV DC1 entsteht eine Option, dedizierte GPU-Cluster in Colocation- oder Bare-Metal-Form zu betreiben – mit voller Kontrolle über:
Hardware-Stack (GPU-Generationen, Netzwerktopologie, Storage)
Netzsegmentierung und Mandantentrennung
Logging, Monitoring und Compliance-Ketten
Beispielszenario:
Ein europischer Finanzdienstleister mit eigenem MLOps-Stack betreibt heute Training in einer überbuchten Hyperscaler-Region. Durch Verlagerung der Trainings-Cluster in ein hochdichtes Rack-Setup in Riga gewinnt er:
Planbare GPU-Kapazitäten in dedizierten Racks
Klare physische Trennung kritischer Modelle (Risikomodelle, Fraud Detection)
Bessere Nachweisführung gegenüber Aufsicht und Prüfern, da Infrastruktur und Datenstandort eindeutig dokumentierbar sind.
2. Umsetzung des EU AI Acts und branchenspezifischer Regulierung
Mit dem EU AI Act rückt die Frage „Wo laufen Trainings- und Inferenz-Workloads tatsächlich?“ stärker in den Fokus. Für Hochrisiko-Anwendungen (z. B. im Gesundheitswesen, Finanzsektor, kritische Infrastrukturen) müssen Unternehmen u. a.:
Datenflüsse und Speicherorte transparent dokumentieren
Risiken entlang der gesamten Wertschöpfungskette bewerten
Technische und organisatorische Schutzmaßnahmen nachweisen
Ein Tier-III-Rechenzentrum unter EU-Recht, das für Audit, Zertifizierungen und technische Due Diligence ausgelegt ist, erleichtert:
saubere Data Residency-Konzepte (EU-only, ggf. regional eingeschränkt),
Trennung von Entwicklungs-, Test- und Produktionsumgebungen auf physischer und logischer Ebene,
die Integration in ISMS nach ISO 27001 und andere Governance-Frameworks.
Beispiel Healthcare:
Ein Anbieter von KI-basierten Diagnosesystemen speichert Trainingsdaten und Modellartefakte ausschließlich in EU North Riga LV DC1. Inferenzen Richtung Kliniken in Deutschland laufen über verschlüsselte Verbindungen mit enger Latenz- und Verfügbarkeitsgarantie. Der Betreiber kann gegenüber Aufsichtsbehörden belegen, dass keine Gesundheitsdaten den EU-Raum verlassen.
3. Multi-Region- und Resilienz-Strategien für AI-Workloads
Mit 10 MW Startkapazität und geplanter Erweiterbarkeit bis 30 MW eignet sich der Standort als Baustein in Multi-Region-Architekturen:
Primärbetrieb in einem Zentraleuropa-Hub,
Disaster-Recovery- oder Aktiv/Aktiv-Betrieb in Riga, etwa für Modell-Replikation, Backup-Inferenz oder Batch-Training.
Für kritische KI-Systeme – z. B. Betrugserkennung im Zahlungsverkehr oder Predictive Maintenance in der Energieversorgung – lassen sich so Regionen mit unterschiedlichem Risiko- und Kostenprofil kombinieren: höhere Dichte und Energieeffizienz im Baltikum, Nähe zu Endkunden in Mitteleuropa.
4. Kosten- und Effizienzhebel für GPU-dominierte Workloads
Der Betrieb von GPU-Clustern mit 50–250 kW pro Rack stellt viele Bestandsrechenzentren vor technische und wirtschaftliche Grenzen (Stromzuleitung, Kühlung, bauliche Lastreserven). Ein speziell dafür ausgelegtes Design bringt:
Bessere Flächeneffizienz (mehr Rechenleistung pro m²)
Geringeren Energie-Overhead je Recheneinheit (niedriger PUE)
Option auf Direct-to-Chip- oder Liquid-Cooling-Lösungen, ohne das gesamte RZ umbauen zu müssen
Für CIOs und Infrastrukturverantwortliche kann es wirtschaftlich sinnvoll sein, GPU-Workloads gezielt nach Riga auszulagern, während klassische CPU- und Storage-Lasten in bestehenden Standorten verbleiben.
Konkrete Schritte für Unternehmen
1. Standort und Anwendungsfälle bewerten
Latenzanforderungen der eigenen Anwendungen analysieren (z. B. Echtzeitanforderungen vs. Batch-Training).
Workloads identifizieren, die von hoher Dichte und günstigerem Energieprofil profitieren (z. B. Foundation-Model-Training, Vektor-Index-Builds, Simulationen).
2. Compliance- und Souveränitätsanforderungen prüfen
Anforderungen aus DSGVO, AI Act, branchenspezifischer Regulierung aufnehmen.
Prüfen, welche Teile der Daten und Modelle zwingend im EU-Rechtsraum verbleiben müssen.
3. Architektur- und Sourcing-Strategie anpassen
Hybrid-Modelle planen: Kombination aus Hyperscaler-Services und dedizierter AI-Infrastruktur in einem Rechenzentrum wie EU North Riga LV DC1.
Für kritische KI-Services Multi-Region-Setups mit mindestens einem EU-only-Standort definieren.
Fazit: Ein neuer Baustein für europäische AI-Infrastruktur
Mit EU North Riga LV DC1 entsteht im Baltikum ein spezialisiertes, nachhaltiges AI- und HPC-Rechenzentrum, das europäische Unternehmen in mehreren Dimensionen adressiert: Souveränität, Regulierung, Energieeffizienz und Verfügbarkeit von GPU-Kapazitäten. Für CIOs, CDOs und Infrastrukturplaner lohnt es sich, Riga frühzeitig in die eigene Standort- und Cloud-Strategie einzubeziehen – insbesondere, wenn hochdichte GPU-Workloads, strenge Compliance-Vorgaben und ESG-Ziele gleichzeitig erfüllt werden sollen.
Häufig gestellte Fragen (FAQ)
Was ist das Rechenzentrum EU North Riga LV DC1 von Delska?
EU North Riga LV DC1 ist ein 10-Megawatt-Tier-III-Rechenzentrum in Riga, das speziell für KI- und High-Performance-Computing-Workloads konzipiert wurde. Es bietet bis zu 250 kW Leistung pro Rack, nutzt zu 100 % erneuerbare Energie und ist vollständig unter EU-Recht reguliert.
Wie unterstützt EU North Riga LV DC1 Unternehmen bei der Einhaltung von DSGVO und EU AI Act?
Das Rechenzentrum befindet sich im EU-Rechtsraum und ist auf auditierbare, regulierungskonforme Infrastrukturen ausgelegt. Unternehmen können Datenresidenz-Konzepte wie EU-only-Hosting umsetzen, Datenflüsse klar dokumentieren und so Anforderungen aus DSGVO, EU AI Act und branchenspezifischer Aufsicht besser erfüllen.
Welche Vorteile bietet das Rechenzentrum in Riga gegenüber klassischen FLAP-D-Standorten?
Im Vergleich zu überlasteten Metropolregionen wie Frankfurt oder Amsterdam sind im Baltikum Strom- und Kühlkapazitäten für dichte GPU-Lasten besser verfügbar. Unternehmen profitieren von hochverdichteten AI/HPC-Racks, planbaren GPU-Kapazitäten und einem alternativen Standort für Multi-Region- und Resilienz-Strategien.
Wie wirkt sich EU North Riga LV DC1 auf die Nachhaltigkeit von AI-Workloads aus?
Der Standort setzt vollständig auf erneuerbare Energie (insbesondere Windstrom) und strebt einen niedrigen PUE-Wert von etwa 1,3 an. Damit können Unternehmen den CO₂-Fußabdruck ihrer KI-Workloads reduzieren und die Nutzung des Rechenzentrums direkt in ESG- und CSRD-Berichte einfließen lassen.
Für welche Anwendungsfälle eignet sich das Rechenzentrum besonders?
EU North Riga LV DC1 ist ideal für GPU-dominierte Workloads wie Training großer KI-Modelle, Simulationen, Vektorindex-Builds und anspruchsvolle HPC-Szenarien. Zudem eignet es sich als DR- oder Zweitregion in Multi-Region-Architekturen für kritische KI-Services mit hohen Verfügbarkeitsanforderungen.
Wie lässt sich EU North Riga LV DC1 in bestehende Cloud- und IT-Architekturen integrieren?
Durch eine 100G-Anbindung an zentrale Netzkorridore und Peering mit großen Internetknoten kann das Rechenzentrum nahtlos in Hybrid- und Multi-Cloud-Umgebungen eingebunden werden. Unternehmen können etwa GPU-Cluster in Riga betreiben und gleichzeitig Public-Cloud-Services in Zentraleuropa nutzen, verbunden über sichere, latenzoptimierte Verbindungen.
Was sollten CIOs und CDOs jetzt konkret tun, wenn sie EU North Riga LV DC1 prüfen möchten?
Sie sollten zunächst Latenz- und Compliance-Anforderungen ihrer wichtigsten KI- und HPC-Workloads analysieren und identifizieren, welche Lasten von hoher Rack-Dichte und erneuerbarer Energie profitieren. Anschließend empfiehlt sich ein Architektur- und Sourcing-Review, um Hybrid- und Multi-Region-Setups zu planen, bei denen Riga als dedizierter AI- und Souveränitätsstandort fungiert.