Fujitsu startet souveräne Enterprise-Plattform für generative KI: Was CIOs jetzt wissen müssen
27.01.2026

Fujitsu hat eine dedizierte Enterprise-Plattform angekündigt, mit der Unternehmen den vollständigen Lebenszyklus generativer KI-Modelle und -Agenten in einer souveränen, dedizierten Umgebung betreiben können. Der Ansatz bündelt Infrastruktur, Modellbetrieb, Security, Governance und Agenten-Framework in einem Paket und zielt auf produktiven Dauerbetrieb in Japan und Europa ab. Der Beitrag analysiert Architektur, Sicherheits- und Governance-Funktionen, konkrete Einsatzszenarien sowie strategische Implikationen für CIOs, CDOs und IT-Architekten.
Fujitsu startet souveräne Enterprise-Plattform für generative KI: Was CIOs jetzt wissen müssen
Fujitsu hat eine neue Plattform angekündigt, mit der Unternehmen generative KI-Modelle und -Agenten Ende-zu-Ende in einer dedizierten, kontrollierten Umgebung betreiben können. Sie adressiert zentrale Hürden in Enterprise-Deployments: Multi-Model-Management, Betrieb und Skalierung, Security, Governance sowie Anforderungen an digitale und Daten-Souveränität in Japan und Europa.
Für IT-Entscheider ist die Plattform relevant, weil sie generative KI von projektbezogenen Einzelinstallationen hin zu einem strukturierten, dauerhaften AI-Betriebslayer verschiebt – inklusive Infrastruktur, Modellen, Guardrails, Monitoring und Agenten-Framework. Registrierungen für Vorabtests sollen Anfang Februar 2026 starten, der produktive Launch ist für Juli 2026 vorgesehen.
Kontext: Was Fujitsu angekündigt hat – und für wen
Eckdaten der Ankündigung
Fujitsu hat Ende Januar 2026 eine dedizierte Plattform für den Betrieb generativer KI vorgestellt, die schrittweise in Japan und Europa ausgerollt werden soll. Die Lösung zielt explizit auf Unternehmen, die:
sensible Daten verarbeiten,
Anforderungen an digitale Souveränität und Datenlokalisierung erfüllen müssen,
generative KI in einer Private- oder On-Premises-Umgebung betreiben wollen,
und ihre KI-Landschaft von Einzellösungen auf einen zentralen, standardisierten AI-Layer konsolidieren möchten.
Technisch basiert die Plattform auf Fujitsus Private AI Platform on PRIMERGY sowie Private GPT und integriert unter anderem die bestehenden Kozuchi-AI-Komponenten. Als zentrales Basismodell kommt „Takane“ zum Einsatz – ein von Fujitsu gemeinsam mit Cohere entwickeltes LLM mit besonderer Stärke im Japanischen und mit Bildverarbeitungsfähigkeiten.
Zielbild: Souveräne, dedizierte KI-Umgebung
Die Plattform ist klar auf eine „souveräne“ Nutzung generativer KI ausgerichtet:
Betrieb in dedizierter, geschlossener Umgebung – im eigenen Rechenzentrum oder in Fujitsu-Rechenzentren;
kein Abfluss sensibler Daten an öffentliche Cloud-Dienste, damit geeignet für Branchen mit strengen Compliance-Vorgaben;
hersteller- und modellagnostische Architektur, die zwar mit Fujitsu-Technologien startet, aber auf offene Protokolle wie MCP (Model Context Protocol) und containerisierte Agenten setzt.
Für europäische Unternehmen ist besonders wichtig: Der Betrieb kann explizit in Europa erfolgen und soll Anforderungen an Datenlokalisierung und regulatorische Vorgaben wie DSGVO unterstützen.
Architekturelemente der neuen Plattform
1. Infrastruktur-Layer für dedizierte KI-Umgebungen
Die Infrastruktur ist auf einen langfristigen Dauerbetrieb generativer KI ausgelegt – nicht auf Pilotprojekte:
Deployment-Optionen:
- On-Premises in Kundendatacentern,
- in Fujitsu-Rechenzentren innerhalb der relevanten Rechtsräume (z. B. Europa, Japan),
- perspektivisch hybride Szenarien (Edge + Datacenter).
Ressourcen-Management für GPU/AI-Beschleuniger, inklusive Modellkomprimierung und Quantisierung, um Hardware effizienter zu nutzen.
Services entlang des Lebenszyklus: von der initialen Infrastrukturplanung über Roll-out bis hin zum laufenden Operations-Support.
Für CIOs bedeutet das: Statt selbst eine heterogene Landschaft aus GPU-Servern, Modell-Repositories, Security-Tools und Monitoring aufzubauen, wird ein vorintegriertes Set angeboten, das sich in bestehende Enterprise-Infrastrukturen einbetten lässt.
2. Sicherheits- und Vertrauens-Layer (Guardrails & Vulnerability-Scanning)
Fujitsu stellt Security und Vertrauenswürdigkeit explizit ins Zentrum der Plattform:
Vulnerability-Scanner mit mehr als 7.700 abgedeckten Schwachstypen, inklusive Fujitsu-spezifischer Kategorien.
Guardrail-Framework zur
- Erkennung und Abwehr von Prompt-Injection-Angriffen,
- Filterung unangemessener oder policy-widriger Ausgaben,
- Abwehr unerwarteter Modellverhalten (z. B. unerlaubte Datenabflüsse).
Automatisierte Policy-Ableitung: Aus erkannten Schwachstellen werden Regeln generiert, die direkt in die Guardrails einfließen und so die Schutzschicht kontinuierlich verbessern.
Geplante Erweiterungen zur Halluzinationsminderung, um die Verlässlichkeit generierter Inhalte zu erhöhen.
Damit positioniert sich die Plattform klar im Trend hin zu Zero-Trust-Ansätzen für Daten- und KI-Governance: Modellzugriffe, Eingaben und Ausgaben werden systematisch überwacht, bewertet und mit Richtlinien abgeglichen, anstatt generative KI-Services als „Black Box“ zu akzeptieren.
3. Modell-Layer: Takane, Optimierung und Komprimierung
Auf Modellseite kombiniert Fujitsu hohe Genauigkeit mit Effizienz:
Takane-LLM als zentrales Basismodell mit:
- starker Unterstützung für Japanisch,
- Bildanalysefähigkeit,
- Eignung für Enterprise-Szenarien (Dokumentenverarbeitung, Code, etc.).
Interne Fine-Tuning-Funktion:
- unternehmensspezifische Anpassung auf eigene Daten,
- kontinuierliches inkrementelles Lernen,
- Verbesserungen, ohne das Basismodell vollständig neu zu trainieren.
Modellkomprimierung und Quantisierung:
- Reduktion des Speicherbedarfs um bis zu rund 94 % (Messergebnis für Takane),
- signifikante Senkung des Compute-Bedarfs und damit der Betriebskosten,
- ermöglicht Einsatz auf kleineren, auch Edge-nahen Infrastrukturen.
Für Unternehmen heißt das: Sie können eigene, angepasste KI-Modelle im eigenen Haus betreiben, ohne Hardware-Kosten in hyperskaliger Dimension stemmen zu müssen.
4. Agenten-Framework und MCP-Unterstützung
Ein wesentlicher Baustein ist das Agenten-Framework:
Low-Code/No-Code-Ansatz zur Definition von KI-Agenten,
Unterstützung von MCP (Model Context Protocol) zur
- Einbindung interner Systeme über Tools/Connectors,
- Orchestrierung mehrerer Agenten,
- Bereitstellung kontextreicher Antworten auf Unternehmensdatenbasis.
Agentenkommunikation: Mehrere spezialisierte Agenten können kooperativ arbeiten – etwa ein Retrieval-Agent, ein Compliance-Agent und ein Aktions-Agent.
Containerisierung perspektivisch geplant: Proprietäre Fujitsu-Technologien sollen als containerisierte Agenten „on demand“ bereitgestellt werden.
Damit bewegt sich die Plattform weg von monolithischen „Chatbots“ hin zu modularen, miteinander kooperierenden Systemen, die geschäftliche Workflows automatisieren können.
Detaillierte Analyse: Auswirkungen, Risiken und Chancen
Souveränität und Compliance als Differenzierungsmerkmal
Für viele Organisationen ist die Abhängigkeit von US-Hyperscalern und deren Rechtsrahmen ein strategisches Risiko. Die Fujitsu-Plattform adressiert dieses mit:
Betriebsoptionen in europäischen Rechenzentren,
kontrollierbarer Datenhaltung,
und einem Design, das auf dedizierte, geschlossene Umgebungen ausgelegt ist.
Das erhöht die Attraktivität für:
öffentliche Auftraggeber,
kritische Infrastrukturen,
Finanz- und Gesundheitssektor,
sowie Industrieunternehmen mit sensiblen IP-Daten.
Vom Projekt zur Plattform: Konsolidierung der KI-Landschaft
In vielen Unternehmen existieren heute parallele Initiativen:
einzelne Teams nutzen verschiedene SaaS-KI-Dienste,
Pilotprojekte auf separaten GPU-Instanzen,
erste interne LLM-Deployments in Eigenregie.
Die neue Fujitsu-Plattform fungiert als AI-Layer, auf den Fachbereiche standardisiert aufsetzen können:
zentrale Policies und Guardrails,
einheitliches Monitoring,
konsistentes Identity- und Access-Management,
wiederverwendbare Agentenbausteine.
Dies reduziert Betriebsaufwand, erleichtert Audits und beschleunigt die Time-to-Production neuer KI-Anwendungen.
Risiken und Abhängigkeiten
Trotz der Vorteile sollten Unternehmen zentrale Risiken adressieren:
Vendor Lock-in:
- Auch wenn MCP und Containerisierung Offenheit fördern, bleibt Fujitsu der zentrale Plattformanbieter.
- Architektur- und Vertragsgestaltung müssen Exit-Szenarien und Daten-/Modellportabilität berücksichtigen.
Komplexität des Betriebs:
- Eine souveräne KI-Plattform ersetzt nicht die Notwendigkeit von Governance, MLOps- und Security-Kompetenz im Unternehmen.
- Ohne entsprechendes Operating Model kann die Plattform untergenutzt bleiben.
Regulatorische Dynamik:
- EU AI Act, branchenspezifische Regularien und nationale Gesetze entwickeln sich weiter.
- Unternehmen müssen sicherstellen, dass Plattform-Updates und eigene Policies synchron bleiben.
Opportunitäten: Beschleunigte Industrialisierung von KI
Richtig eingeführt, kann die Plattform:
Time-to-Production neuer KI-Anwendungen deutlich verkürzen,
Betriebskosten durch Komprimierung und effizienteres Ressourcen-Management senken,
Sicherheits- und Compliance-Risiken reduzieren,
Standardisierung über Standorte und Länder hinweg ermöglichen.
Besonders interessant ist der Agenten-Ansatz: Statt für jeden Use Case ein eigenes System zu bauen, können wiederverwendbare Agententypen geschaffen werden (z. B. „Dokumenten-Analyst“, „Code-Migrations-Assistent“, „Regelkonformitäts-Checker“), die über Konfiguration statt Neuentwicklung angepasst werden.
Praxisnahe Szenarien und Anwendungsfälle
1. Modernisierung von Legacy-Systemen
Ein naheliegender Use Case ist die Beschleunigung von Anwendungs-Modernisierungen:
Ein Agent analysiert Quellcode älterer Systeme,
identifiziert veraltete Bibliotheken und Sprachkonstrukte,
schlägt Migrationspfade auf neue Plattformen vor,
generiert teilweise neue Codeabschnitte.
In Kombination mit Vulnerability-Scanner und Guardrails lassen sich Modernisierungsprojekte systematischer und nachvollziehbarer durchführen – insbesondere in regulierten Branchen, in denen Änderungen auditierbar sein müssen.
2. Wissensmanagement und Dokumenten-Automatisierung
Unternehmen mit großem Dokumentenbestand (Verträge, technische Spezifikationen, SOPs, Handbücher) können:
interne LLMs auf diesen Daten feinjustieren,
Agenten bereitstellen, die:
- Inhalte semantisch durchsuchen,
- Auszüge mit Quellbelegen liefern,
- Drafts für Berichte, Stellungnahmen oder technische Dokumente erstellen.
Der Betrieb innerhalb einer geschlossenen, souveränen Umgebung ist für vertrauliche Inhalte entscheidend – insbesondere bei F&E-Unterlagen, IP-sensitiven Projekten oder personenbezogenen Daten.
3. KI-gestützte Service- und Betriebsprozesse
In IT- und Shared-Service-Organisationen können Agenten auf der Fujitsu-Plattform:
Tickets klassifizieren und priorisieren,
Lösungsvorschläge aus Wissensdatenbanken generieren,
Standard-Änderungen (z. B. Rechtevergaben) teilautomatisiert anstoßen,
Dokumentationen und Change-Logs automatisiert ergänzen.
Dank MCP-Unterstützung lassen sich CRM-, ITSM- und Monitoring-Systeme anbinden, ohne dass proprietäre, schwer portierbare Integrationen nötig sind.
4. Branchenspezifische Beispiel-Szenarien
Finanzsektor: Analyse regulatorischer Texte, automatisierte Befüllung von Meldeformularen, KI-Assistenz für Compliance-Teams – auf Basis interner Policies und mit strengen Guardrails.
Gesundheitswesen: Unterstützung bei der Kodierung und Dokumentation (sofern regulatorisch zulässig), Zusammenfassungen von Arztbriefen, Workflow-Assistenz in der Verwaltung – bei strenger Trennung von produktionskritischen klinischen Systemen.
Industrie & Fertigung: Auswertung von Maschinendokumentation, Erstellung von Arbeitsanweisungen, Unterstützung bei Wartung und Fehlerdiagnose durch Agenten, die technische Handbücher, Log-Daten und Ticket-Historien verbinden.
Business-Relevanz: Was Unternehmen jetzt konkret tun sollten
1. Strategische Einordnung und Zielbild definieren
Unternehmen sollten zunächst klären:
Welche Rolle soll generative KI strategisch im Geschäftsmodell spielen?
Welche Prozesse und Domänen erfordern zwingend einen souveränen KI-Betrieb (z. B. kritische IP, sensible Personendaten)?
Wo sind Public-Cloud-LLMs ausreichend – und wo nicht?
Aus dieser Analyse ergibt sich, ob eine Plattform wie die von Fujitsu ein Kernbaustein des künftigen Enterprise-IT-Target-Operating-Models sein sollte.
2. Architektur- und Governance-Konzept entwickeln
Vor einem Plattform-Roll-out sind folgende Punkte zu klären:
Zielarchitektur: Wie fügt sich die Fujitsu-Plattform in bestehende Rechenzentren, Identity-Management, Netzwerk- und Security-Architekturen ein?
Data Governance: Welche Daten dürfen in welches Modell fließen? Wie werden Klassifizierung, Maskierung und Logging umgesetzt?
Rollen & Verantwortlichkeiten: Wer verantwortet Policy-Definition, Modellfreigaben, Monitoring und Incident-Response im KI-Betrieb?
Ein klares Governance-Modell ist Voraussetzung, damit die Plattform skalierbar und revisionssicher betrieben werden kann.
3. Pilotierung entlang klar definierter Use Cases
Mit Beginn der Vorregistrierung und frühen Testphase bietet sich ein schrittweises Vorgehen an:
Auswahl von 2–3 klar umrissenen Use Cases mit hohem Mehrwert und überschaubarem Risiko (z. B. interner Support, Dokumenten-Summarisierung, Code-Analyse).
Aufbau eines Pilot-Setups auf der Plattform mit:
- definierten Policies,
- initialen Guardrails,
- erster Agenten-Konfiguration.
Messung von:
- Produktivitätsgewinnen,
- Fehlerraten und Halluzinationen,
- Nutzerakzeptanz,
- Betriebskosten.
Diese Pilotphase ermöglicht es, das Operating Model zu verfeinern, bevor weitere Geschäftsbereiche angebunden werden.
4. Kompetenzen im Unternehmen gezielt aufbauen
Auch bei einer stark vorkonfigurierten Plattform bleiben folgende Kompetenzen entscheidend:
MLOps & AIOps für den Betrieb und die Überwachung von Modellen und Agenten,
Cybersecurity & KI-Security, speziell im Umgang mit Prompt-Injection, Datenexfiltration und Modell-Missbrauch,
Regulatory & Compliance für die Interpretation aktueller Vorgaben (z. B. EU AI Act) und deren Übersetzung in Policies,
Change Management zur Einführung KI-gestützter Arbeitsweisen in Fachbereichen.
Gezielte Schulungen und der Aufbau von Center-of-Excellence-Strukturen können helfen, den Nutzen der Plattform voll auszuschöpfen.
Fazit: Strukturierter Weg zur souveränen generativen KI
Die neue Fujitsu-Plattform für generative KI markiert einen weiteren Schritt weg von isolierten Pilotprojekten hin zu unternehmensweiten, souveränen KI-Infrastrukturen. Für Organisationen mit hohen Anforderungen an Datenschutz, Regulierung und Kontrolle kann sie einen praktikablen Mittelweg zwischen Public-Cloud-LLMs und kompletter Eigenentwicklung darstellen.
Wesentlich ist jedoch: Der Mehrwert entsteht nicht allein durch die Technologie, sondern durch ihre Einbettung in eine klare Strategie, robuste Governance und ein professionelles Betriebsmodell.
Kern- Takeaways für Entscheider:
Fujitsu bündelt Infrastruktur, Modelle, Security, Guardrails und Agenten-Framework in einer dedizierten Plattform, die explizit auf souveräne Enterprise-Szenarien in Japan und Europa ausgerichtet ist.
Die Plattform unterstützt den vollständigen Lebenszyklus generativer KI – von Modellentwicklung und Fine-Tuning über Betrieb und Monitoring bis zur kontinuierlichen Verbesserung von Modellen und Agenten.
Sicherheits- und Governance-Funktionen wie Vulnerability-Scanning, Guardrails gegen Prompt-Injection und geplante Halluzinationsminderung adressieren zentrale Risiken im Enterprise-Einsatz.
Durch Modellkomprimierung und Quantisierung lassen sich Betriebskosten senken und On-Prem-/Edge-Szenarien wirtschaftlicher realisieren.
Unternehmen sollten die Plattform nicht als Einzelprojekt betrachten, sondern als Baustein eines langfristigen AI-Operating-Models mit klarer Architektur, Governance und Kompetenzaufbau.
Häufig gestellte Fragen (FAQ)
Was ist die neue souveräne Enterprise-Plattform für generative KI von Fujitsu?
Die Fujitsu-Plattform ist eine dedizierte Umgebung für den Ende-zu-Ende-Betrieb generativer KI-Modelle und -Agenten in Unternehmen. Sie bündelt Infrastruktur, Modellbetrieb, Security, Governance und ein Agenten-Framework, um generative KI als dauerhaften Enterprise-Layer statt als einzelne Pilotprojekte zu betreiben.
Wie unterstützt die Fujitsu-Plattform Anforderungen an Souveränität und Compliance in Europa und Japan?
Die Plattform kann in dedizierten Rechenzentren in den jeweiligen Rechtsräumen, etwa in Europa oder Japan, betrieben werden und vermeidet den Abfluss sensibler Daten in öffentliche Cloud-Services. Dadurch lassen sich Vorgaben zu Datenlokalisierung, DSGVO und künftigen Regulierungen wie dem EU AI Act besser erfüllen, insbesondere für regulierte Branchen und kritische Infrastrukturen.
Wie funktioniert das Sicherheits- und Governance-Konzept der Fujitsu-KI-Plattform?
Das Sicherheitskonzept kombiniert einen Vulnerability-Scanner mit Guardrails gegen Prompt-Injection, unerwünschte Ausgaben und Datenabflüsse. Erkenntnisse aus Schwachstellen fließen automatisiert in Policies ein, während Monitoring, Zero-Trust-Ansätze und geplante Halluzinationsminderung die Vertrauenswürdigkeit der generativen KI im Dauerbetrieb erhöhen.
Welche Rolle spielen Takane und das Agenten-Framework in der Architektur der Plattform?
Takane ist das zentrale von Fujitsu und Cohere entwickelte LLM, das für Enterprise-Szenarien, Japanisch und Bildverarbeitung optimiert ist und sich per Fine-Tuning an Unternehmensdaten anpassen lässt. Das Agenten-Framework ermöglicht über MCP und Low-Code/No-Code die Orchestrierung spezialisierter KI-Agenten, die Workflows automatisieren und interne Systeme sicher anbinden.
Welche geschäftlichen Vorteile bringt die Fujitsu-Plattform Unternehmen?
Unternehmen können Time-to-Production verkürzen, Betriebskosten durch Modellkomprimierung und effizientes Ressourcen-Management senken und gleichzeitig Sicherheits- sowie Compliance-Risiken reduzieren. Zudem ermöglicht ein zentraler KI-Layer die Konsolidierung verteilter KI-Initiativen und schafft wiederverwendbare Agenten-Bausteine für unterschiedliche Geschäftsbereiche.
Was sollten CIOs und CDOs jetzt konkret tun, wenn sie die Fujitsu-Plattform in Betracht ziehen?
Sie sollten zunächst klären, welche Prozesse zwingend einen souveränen KI-Betrieb erfordern und wie sich die Plattform in Zielarchitektur, Identity-Management und Security-Landschaft einfügt. Darauf aufbauend empfiehlt sich eine Pilotierung mit wenigen klar definierten Use Cases sowie der parallele Aufbau von Kompetenzen in MLOps, KI-Security, Compliance und Change Management.
Worin unterscheidet sich die Fujitsu-Plattform von Public-Cloud-LLMs und isolierten KI-Piloten?
Im Unterschied zu Public-Cloud-LLMs fokussiert Fujitsu auf dedizierte, souveräne Umgebungen mit kontrollierbarer Datenhaltung und umfassenden Governance-Mechanismen. Gegenüber isolierten Pilotprojekten bietet die Plattform einen integrierten AI-Layer mit standardisierten Policies, Monitoring, Agenten-Framework und Lebenszyklus-Services, der auf einen skalierbaren, unternehmensweiten KI-Betrieb ausgelegt ist.