Telefónica und Mavenir starten gemeinsamen AI Innovation Hub für autonome Core-Netze
20.02.2026
Telefónica und Mavenir haben am 19. Februar 2026 ein gemeinsames AI Innovation Hub angekündigt, das speziell auf die Automatisierung von Core-Netzen ausgerichtet ist. Der Hub dient als praxisnahes Testfeld für AI-gesteuerte Orchestrierung, intent-basierte Services und neue Monetarisierungsmodelle. Für Unternehmen in Europa ist dies ein Signal, dass programmierbare, cloud-native Netze mit geringerer Latenz und höherer Verfügbarkeit schneller Realität werden – bei zugleich steigenden Anforderungen an Datensicherheit, Governance und die Steuerbarkeit von AI-basierten Netzoperationen.
Telefónica und Mavenir starten gemeinsamen AI Innovation Hub für autonome Core-Netze
Hintergrund: Was wurde konkret angekündigt?
Am 19. Februar 2026 haben Telefónica und Mavenir eine strategische Partnerschaft und ein Memorandum of Understanding (MoU) zur Gründung eines gemeinsamen AI Innovation Hub bekanntgegeben. Der Hub fokussiert sich ausdrücklich auf die Integration von KI in das Core-Netz von Telekommunikationsanbietern.
Kernelemente der Ankündigung:
Aufbau eines gemeinsamen Labors als realitätsnahes Testfeld für Core-Netz-Funktionalitäten
Einsatz von cloud-nativen Plattformen von Mavenir als technische Basis
Entwicklung und Validierung von:
- AI-gesteuerter, autonomer Netzwerk-Orchestrierung
- intent-basierten Services (Netz reagiert auf Geschäftsziele statt auf technische Parameter)
- AI-gestützten Monetarisierungs-Frameworks im Core-Netz
Vorstellung erster Use Cases und Demos auf dem Mobile World Congress 2026 in Barcelona (2.–5. März 2026)
Was ist neu an diesem AI Innovation Hub?
1. Verlagerung von KI in das Herz der Netzinfrastruktur
Bisher wurden KI-Anwendungen im Telko-Umfeld häufig in Randbereichen eingesetzt – etwa für Anomalie-Erkennung im Monitoring oder Customer Analytics. Der neue Hub zielt explizit auf das Core-Netz:
Steuerung von Session Management, Mobility, Policy und Charging mit KI-Unterstützung
Laufende Optimierung von Routing, Ressourcenzuteilung und Skalierung
Automatisierte Fehlererkennung und -behebung ohne manuelle Eingriffe
Damit verschiebt sich KI von „Support-Funktion“ hin zu einem steuernden Element der Netzlogik.
2. Von Piloten zu produktionsnahen Setups
Der Hub soll produktive Verkehrsprofile emulieren, nicht nur synthetische Testdaten. Das bedeutet:
Testen von AI-Algorithmen unter realitätsnaher Last (Spitzenzeiten, unterschiedliche Regionen, Service-Mix)
Validierung von Stabilität, Latenz und Ausfallsicherheit vor dem Rollout im Live-Netz
Möglichkeit, neue Funktionen iterativ zu erproben und bei Erfolg schnell in Betrieb zu nehmen
Für Unternehmen ist relevant: Die Wahrscheinlichkeit, dass AI-gesteuerte Funktionen stabil und vorhersagbar laufen, steigt deutlich.
3. Cloud-native und „AI-by-Design“ im Core
Mavenir bringt eine cloud-native Core-Plattform ein, die von Beginn an auf Containerisierung, Microservices und Automatisierung ausgelegt ist. KI-Funktionen werden nicht nachträglich „aufgesetzt“, sondern sind AI-by-Design integriert:
Skalierung von Rechenressourcen für KI-Modelle on demand
Nutzung offener Schnittstellen (APIs) zur Einbindung externer Systeme
Vereinfachte Integration in Multi-Cloud- und Hybrid-Cloud-Umgebungen
Für Betreiber und große Unternehmenskunden bedeutet das: Netzdienste lassen sich feingranular konfigurieren und programmatisch steuern.
Relevante Use Cases für Unternehmen
1. Intent-basierte Konnektivität für kritische Anwendungen
Statt QoS-Parameter manuell zu definieren, können Unternehmen künftig Absichten („Intents“) formulieren, z. B.:
„Sichere, latenzarme Verbindung für AR/VR-Remote-Support in Werkhalle 3“
„Bandbreitenpriorisierung für Payment-Systeme während Spitzenzeiten“
Das Core-Netz übersetzt diese Intents in konkrete Policies, reserviert Ressourcen, überwacht die Einhaltung und passt Parameter dynamisch an. Dies ist besonders relevant für:
Industrie 4.0-Umgebungen
Echtzeit-Analytik und Edge-AI-Szenarien
Remote-Operationen (z. B. Wartung, Telemedizin im B2B-Umfeld)
2. Netzwerk-Slicing mit garantierten Service-Leveln
Der AI Innovation Hub adressiert auch Netzwerk-Slicing im Core:
Dynamische Zuteilung und Anpassung von Slices je nach Auslastung und Geschäftspriorität
AI-basierte Prognosen von Traffic-Spitzen und automatisches Vorhalten von Kapazitäten
Überwachung von SLAs in Echtzeit und Self-Healing bei drohenden Verletzungen
Beispiel: Ein Logistikunternehmen kann ein dediziertes Slice für Flotten-Tracking und Sensorik anfordern, mit garantiertem Durchsatz und definierter Latenz.
3. Monetarisierung und neue Geschäftsmodelle
Die AI-gestützten Monetarisierungs-Frameworks im Core-Netz ermöglichen feinere und flexiblere Preismodelle:
Nutzungsbasierte Tarife für bestimmte Applikationen oder Slices
Kurzfristige „Boost“-Optionen (z. B. zusätzlicher Durchsatz für ein Event oder Kampagne)
Gebührenmodelle, die an Business Outcomes gekoppelt sind (z. B. garantierte Verfügbarkeit für Produktionslinien)
Für IT- und Fachbereiche bedeutet das mehr Gestaltungsspielraum – gleichzeitig aber auch die Notwendigkeit, Konnektivität strategischer in die eigene Produkt- und Serviceplanung einzubeziehen.
Strategische Implikationen für Unternehmen und Organisationen
1. Programmierbare Konnektivität als Teil der IT-Architektur
Mit einem AI-getriebenen, cloud-nativen Core-Netz wird Konnektivität programmierbar. Unternehmen sollten damit rechnen, dass Netzfunktionen künftig ähnlich wie Cloud-Ressourcen per API konsumiert werden können.
Konsequenzen:
Netzwerk- und Applikationsarchitektur enger verzahnen
DevOps-/NetDevOps-Kompetenzen im eigenen Haus aufbauen
Governance-Modelle für „Connectivity as Code“ definieren
2. Abhängigkeit von AI-gestützten Betriebsmodellen
Ein hochgradig autonomes Netz reduziert manuelle Fehler und Betriebskosten, führt aber zu einer stärkeren Abhängigkeit von KI-Entscheidungen:
Notwendigkeit klarer Fallback-Strategien bei Fehlfunktionen von Modellen
Dokumentation und Nachvollziehbarkeit von automatisierten Entscheidungen (Auditability)
Aufbau interner Kompetenz, um AI-Policies zumindest auf strategischer Ebene zu verstehen und zu bewerten
3. Daten- und Compliance-Fragen im europäischen Kontext
Da Telefónica stark im europäischen Markt verankert ist, wird der Hub sich an EU-Regularien für Datenschutz und AI-Governance orientieren müssen.
Für Unternehmenskunden bedeutet das:
Klärung von Datenflüssen zwischen Unternehmensnetz, Carrier-Netz und AI-Plattformen
Vertrags- und SLA-Regelungen zu Datenhaltung, Modelltraining und Zugriff
Einbindung von Datenschutz, Informationssicherheit und Compliance in die Auswahl neuer AI-basierter Netzservices
Konkrete Schritte für CIOs und Netzwerkentscheider
Roadmap-Abgleich: Prüfen, inwieweit geplante IoT-, Edge- oder AI-Anwendungen von intent-basierten Services und Slicing profitieren könnten.
Architektur-Review: Netz- und Anwendungsarchitektur auf Offenheit für API-gesteuerte Netzfunktionen bewerten.
Pilotprojekte planen: Frühzeitig Gespräche mit Carriern suchen, um an Pilotprogrammen für AI-basierte Core-Funktionen teilzunehmen.
Governance etablieren: Richtlinien für den Einsatz von AI-gesteuerten Netzfunktionen definieren (Risikomanagement, Monitoring, Eskalationspfade).
Fazit: Vom Netz als Infrastruktur zum Netz als Plattform
Der AI Innovation Hub von Telefónica und Mavenir markiert einen weiteren Schritt weg vom klassisch statischen Telekomnetz hin zu einem autonomen, programmierbaren Plattform-Modell. Für Unternehmen in Europa eröffnet dies neue Spielräume für zuverlässige, maßgeschneiderte Konnektivität – erfordert aber gleichzeitig eine aktivere, strategische Auseinandersetzung mit dem Thema Netz und AI im eigenen Technologieportfolio.
Häufig gestellte Fragen (FAQ)
Was ist der gemeinsame AI Innovation Hub von Telefónica und Mavenir?
Der AI Innovation Hub ist ein gemeinsames Labor von Telefónica und Mavenir, das sich auf den Einsatz von Künstlicher Intelligenz im Core-Netz von Telekommunikationsanbietern konzentriert. Er dient als praxisnahes Testfeld für autonome Orchestrierung, intent-basierte Services und neue Monetarisierungsmodelle im Kern der Netzinfrastruktur.
Wie funktioniert intent-basierte Konnektivität im Core-Netz?
Bei intent-basierter Konnektivität beschreibt das Unternehmen sein gewünschtes Geschäftsziel, etwa „niedrige Latenz für AR-Remote-Support“, statt technische Parameter wie Bandbreite oder QoS-Werte manuell zu setzen. Das KI-gestützte Core-Netz übersetzt diese Intents automatisch in Richtlinien, reserviert Ressourcen, überwacht Service-Levels und passt die Netzparameter dynamisch an.
Welche Vorteile bietet ein AI-gesteuertes, cloud-natives Core-Netz für Unternehmen?
Ein AI-gesteuertes, cloud-natives Core-Netz ermöglicht geringere Latenzen, höhere Verfügbarkeit und eine fein granulare, programmatische Steuerung von Netzfunktionen. Unternehmen profitieren von stabileren, vorvalidierten Services, die sich schneller auf neue Anwendungen wie IoT, Edge-Computing oder Echtzeit-Analytik zuschneiden lassen.
Was ist der Unterschied zwischen klassischem Netzwerkbetrieb und einem autonomen Core-Netz?
Im klassischen Betrieb werden viele Konfigurations- und Optimierungsaufgaben manuell oder regelbasiert durchgeführt, was langsam und fehleranfällig sein kann. Ein autonomes Core-Netz nutzt KI-Modelle zur kontinuierlichen Überwachung, Optimierung und Selbstheilung, wodurch Routing, Ressourcenzuteilung und Fehlerbehebung weitgehend automatisiert und geschäftsorientiert gesteuert werden.
Welche Auswirkungen hat der AI Innovation Hub auf Netzwerk-Slicing und SLAs?
Der Hub soll Netzwerk-Slicing im Core-Netz flexibler und zuverlässiger machen, indem KI Lastspitzen vorhersagt, Kapazitäten dynamisch zuweist und Slices nach Geschäftspriorität steuert. Service-Level-Agreements (SLAs) können in Echtzeit überwacht werden, während Self-Healing-Mechanismen drohende Verletzungen automatisch abfangen.
Welche Rolle spielen Datenschutz und Compliance im europäischen Kontext?
Da Telefónica im europäischen Markt tätig ist, muss die Entwicklung im AI Innovation Hub mit EU-Regularien zu Datenschutz und AI-Governance im Einklang stehen. Unternehmen sollten daher Datenflüsse, Datenhaltung, Modelltraining und Zugriffsrechte vertraglich und technisch sauber regeln und Datenschutz, Informationssicherheit sowie Compliance frühzeitig in die Planung neuer AI-basierter Netzservices einbinden.
Was sollten CIOs und Netzwerkentscheider jetzt konkret tun?
CIOs sollten prüfen, welche ihrer geplanten IoT-, Edge- oder AI-Vorhaben von intent-basierten Services und Netzwerk-Slicing profitieren können, und die eigene Architektur auf API- und Automatisierungsfähigkeit hin bewerten. Parallel empfiehlt sich der frühzeitige Einstieg in Pilotprojekte mit Carriern sowie der Aufbau klarer Governance- und Risikomanagement-Modelle für AI-gesteuerte Netzfunktionen.
