Chinas neuer KI-Sicherheitsstandard GB/T 45958‑2025: Was globale Unternehmen bis Februar 2026 umsetzen müssen
01.02.2026
Zum 1. Februar 2026 tritt in China der nationale Standard GB/T 45958‑2025 „Cybersecurity Technology – Security framework for artificial intelligence computing platform“ in Kraft. Er definiert verbindliche Sicherheitsanforderungen für KI‑Rechenplattformen über den gesamten Lebenszyklus – von Hardware und Rechenzentren über Orchestrierung bis zu Betrieb und Rollenverantwortung. Der Beitrag analysiert die technischen Kernelemente, konkrete Auswirkungen auf globale Architekturen und zeigt auf, wie sich internationale Unternehmen organisatorisch und technisch vorbereiten sollten.
Chinas neuer KI-Sicherheitsstandard GB/T 45958‑2025: Was globale Unternehmen bis Februar 2026 umsetzen müssen
China hat mit GB/T 45958‑2025 „Cybersecurity technology – Security framework for artificial intelligence computing platform“ einen neuen nationalen Standard für die Sicherheit von KI‑Rechenplattformen geschaffen. Der Standard wurde am 1. August 2025 veröffentlicht und tritt am 1. Februar 2026 in Kraft. Er adressiert alle Phasen des Lebenszyklus von KI‑Computing-Plattformen: Design, Entwicklung, Aufbau, Deployment und Betrieb.
Für internationale Unternehmen mit Rechenzentren, Cloud‑Ressourcen oder KI‑Workloads in China markiert dieser Zeitpunkt einen harten regulatorischen Einschnitt. GB/T 45958‑2025 kodifiziert erstmals detailliert, wie KI‑Infrastruktur technisch und organisatorisch abzusichern ist – und macht damit viele bisher „best effort“-Ansätze de facto zu Compliance‑Pflichten.
1. Kontext: Entstehung und Einordnung von GB/T 45958‑2025
1.1 Ursprung und zeitliche Einordnung
GB/T 45958‑2025 ist ein von der chinesischen Standardisierungsbehörde für Marktregulierung und der Standardisierungsverwaltung (SAMR/SAC) verabschiedeter nationaler (empfohlener) Standard. Er wurde am 1. August 2025 veröffentlicht und tritt zum 1. Februar 2026 in Kraft.([chinesestandard.net](https://www.chinesestandard.net/AMP/English.amp.aspx/GBT45958-2025?utm_source=openai))
Inhaltlich ist der Standard dem Bereich „Cybersecurity Technology“ zugeordnet und bildet einen Baustein im wachsenden Normen-System für KI-Sicherheit in China, etwa neben:
Sicherheitsanforderungen für generative KI‑Dienste (z. B. GB/T 45654‑2025),
Spezifikationen für Trainings- und Fine‑Tuning‑Daten (GB/T 45652‑2025),
Sicherheitsvorgaben für Datenannotation (GB/T 45674‑2025).([ndls.org.cn](https://www.ndls.org.cn/standard/detail/b4619ea3d07dfcf6b5817392e12d6929?utm_source=openai))
Damit verschiebt sich der Fokus von reinen Anwendungs‑ und Inhaltsvorgaben hin zur physischen und logischen Basis der KI: den Rechenplattformen selbst.
1.2 Beteiligte Akteure und politische Zielrichtung
Der Standard wurde im Rahmen des nationalen Netzwerksicherheits-Standardisierungskomitees (TC260) entwickelt; federführend beteiligt waren u. a. Huawei sowie zahlreiche weitere Industrie‑, Forschungs‑ und Sicherheitsakteure.([stcn.com](https://stcn.com/article/detail/3125256.html?utm_source=openai))
Die politische Stoßrichtung ist klar:
Stärkung nationaler Kontrollfähigkeit über kritische KI‑Infrastruktur,
Reduzierung neuartiger KI‑spezifischer Risiken, z. B. Modell‑Diebstahl, Datenlecks aus Trainingspipelines, Angriffe über adversariale Eingaben,
Harmonisierung von Anforderungen an Hardware, Orchestrierung und Betrieb von KI‑Plattformen.
Für Unternehmen bedeutet das: KI‑Infrastruktur in China wird ausdrücklich als sicherheitskritische digitale Basisinfrastruktur behandelt – mit entsprechenden Erwartungen an Governance, Monitoring und Nachweisfähigkeit.
2. Technischer Rahmen: Was GB/T 45958‑2025 konkret verlangt
2.1 Dreiteiliger Sicherheitsrahmen
GB/T 45958‑2025 definiert einen dreidimensionalen Rahmen:([chinesestandard.net](https://www.chinesestandard.net/AMP/English.amp.aspx/GBT45958-2025?utm_source=openai))
Sicherheitsfunktionen (Security Functions)
- aufgeteilt in Ressourcen‑, Scheduling‑ und Anwendungssupport‑Ebene,
- inklusive Integritätsschutz, Isolation, Kryptografie.
Sicherheitsmanagement (Security Management)
- Identity & Access Management,
- Schlüssel‑ und Passwortmanagement,
- Log‑Management, Security Monitoring, Audit,
- Risiko‑Management und Schutz personenbezogener Daten.
Rollen und Sicherheitsverantwortung
- klare Pflichten für Plattformanbieter, Datenanbieter, Modellanbieter und Applikationsanbieter.
Damit deckt der Standard nicht nur die Technik, sondern auch Prozesse und Verantwortlichkeitsverteilung entlang der gesamten KI‑Wertschöpfungskette ab.
2.2 Ressourcenebene: Rechen-, Speicher- und Netzwerkressourcen
Auf der Ressourcenebene (compute, storage, network, virtual resources) verlangt der Standard unter anderem:
Sichere KI-Hardware
- Integritäts- und Echtheitsprüfungen für Firmware von KI‑Prozessoren und -Servern,
- Anti‑Rollback‑Mechanismen für Firmware‑Versionen,
- abgesicherte Management‑Interfaces (z. B. BMC, Out‑of‑Band‑Zugänge),
- Unterstützung von Trusted Execution Environments (TEE) und Hardware‑basierten Vertrauensankern.
Speichersicherheit
- redundante und verteilte Speicherung für Modelle, Checkpoints und Trainingsdaten,
- kryptografischer Schutz von Daten „at rest“,
- durchgängige Integritätsprüfungen, z. B. Hash‑basierte Verifikation von Modellartefakten.
Netzwerksicherheit und Isolation
- logische Isolation von Trainings‑, Test‑ und Produktivumgebungen,
- Segmentierung sensibler Komponenten (z. B. Parameter‑Server, Feature Stores),
- Kontrollierte externe Schnittstellen mit Authentifizierung, Autorisierung und Protokollierung.
Für Betreiber mit globalen GPU‑Clustern (z. B. H100‑/Ascend‑Umgebungen) ergibt sich daraus faktisch die Pflicht, Sicherheitsmechanismen direkt auf Hardware- und Fabric‑Ebene nachzuweisen.
2.3 Scheduling‑ und Orchestrierungsebene
Die Scheduling‑Ebene umfasst alles, was Ressourcen orchestriert – von Kubernetes‑Clustern über proprietäre KI‑Scheduler bis hin zu MLOps‑Pipelines. GB/T 45958‑2025 fordert hier unter anderem:([antpedia.com](https://www.antpedia.com/standard/1294771270-10.html?utm_source=openai))
Mandatensichere Mandanten‑ und Projekt‑Isolation in Multi‑Tenant‑Umgebungen,
Absicherung von Job‑Scheduling‑APIs gegen Missbrauch und unautorisierte Ressourcennutzung,
Nachweisbare Durchsetzung von Quotas und Policies (z. B. wer darf welche GPU‑Klassen nutzen),
Sicherheitskontrollen für Container‑ und VM‑Images, inklusive Integritätsprüfungen vor Deployment.
Die Orchestrierungsebene wird damit zu einem zentralen Compliance‑Anker: Wer KI‑Workloads in China betreibt, muss nicht nur „welche“ Container laufen dokumentieren, sondern auch, „wer wann warum“ Rechenkapazitäten nutzt – und auf Basis welcher autorisierten Policies.
2.4 Anwendungssupport: Daten-, Modell- und Serviceebene
Auf der Anwendungssupport‑Ebene geht es u. a. um:
Datenpipelines
- Kontrolle des Zugriffs auf Trainings‑, Validierungs- und Inferenzdaten,
- Nachvollziehbarkeit der Datenherkunft (Data Provenance),
- Schutz vor Datenlecks innerhalb von Feature Stores und Datalakes.
Modellmanagement
- Versionierung und signaturbasierte Integritätsprüfung von Modellen,
- Zugriffskontrolle auf sensitive Modelle (z. B. Domänen‑LLMs, proprietäre Risikomodelle),
- Protokollierung von Deployment‑ und Rollback‑Vorgängen.
Serving‑Infrastruktur
- Schutz von Inferenz‑APIs gegen Modell‑Extraktions‑ und Prompt‑Injection‑Angriffe,
- Ratenbegrenzung und Missbrauchserkennung,
- Logging zur späteren forensischen Analyse.
Der Standard macht damit klar: Nicht nur der Trainings‑Cluster ist kritisch, sondern ebenso die gesamte Umgebung, in der Modelle bereitgestellt, kombiniert und wiederverwendet werden.
2.5 Sicherheitsmanagement: Identitäten, Kryptografie, Logs, Risiko
GB/T 45958‑2025 präzisiert Managementanforderungen, die vielen Unternehmen aus anderen Regimen bekannt vorkommen, diese aber auf KI‑Plattformen zuschneidet:
Identitätsmanagement: Klare Zuordnung von Personen, Diensten und Maschinenidentitäten zu allen sicherheitsrelevanten Aktionen auf der Plattform.
Passwort- und Schlüsselmanagement: Umgang mit kryptografischen Schlüsseln, Zertifikaten und Zugangstokens, inklusive Rotation und HSM‑ oder vergleichbaren Schutzmechanismen.
Log‑Management und Security Monitoring: Vollständige, manipulationssichere und korrelierbare Logs für Zugriffe, Jobs, Konfigurationsänderungen und Datenbewegungen; kontinuierliche Überwachung.
Security Audit: Möglichkeit, Compliance‑Nachweise gegenüber Behörden und Prüfinstanzen zu liefern.
Risikomanagement und Schutz personenbezogener Daten: Verknüpfung mit bestehenden chinesischen Vorgaben zu Datenschutz und Cybersecurity.
2.6 Rollen und Verantwortlichkeiten
Der Standard unterscheidet mehrere zentrale Rollen:
Plattformanbieter: verantwortet Aufbau und sicheren Betrieb der KI‑Plattform,
Datenanbieter: ist für Rechtmäßigkeit, Qualität und Schutz der bereitgestellten Daten zuständig,
Modellanbieter: verantwortet Sicherheit, Integrität und Aktualität der Modelle,
Anwendungsanbieter: integriert Modelle in Geschäftsprozesse und muss Sicherheitsanforderungen bis zur Endanwendung durchziehen.
Für Konzerne mit komplexen internen Zuständigkeiten zwingt das zu einer Neujustierung der Governance: Die Verantwortlichkeiten entlang der KI‑Wertschöpfungskette müssen klar dokumentiert und nachweisbar gelebt werden.
3. Auswirkungen auf globale Unternehmen und Architekturen
3.1 De‑facto‑Pflichten für alle KI‑Infrastrukturen in China
Obwohl GB/T‑Standards formal „empfohlen“ sind, entfalten sie in China häufig faktisch verbindliche Wirkung, weil sie als Referenz für Audits, Zertifizierungen, Sicherheitsüberprüfungen oder auch Beschaffungsrichtlinien der öffentlichen Hand dienen.
Konkret bedeutet das:
Betreiber von hyperscale KI‑Clustern,
internationale Cloud‑Provider mit Regionen in China,
Finanz‑, Industrie‑, Gesundheits- und öffentliche Einrichtungen mit eigenen GPU‑Ressourcen
werden sich messen lassen müssen, inwieweit ihre Plattformen mit GB/T 45958‑2025 konform sind.
3.2 Zunehmende Divergenz zwischen chinesischen und nicht‑chinesischen KI‑Stacks
Die Anforderungen des Standards – insbesondere in Bezug auf:
eingesetzte Kryptografie (mögliche Präferenz für chinesische „Guomi“-Algorithmen),
Logging‑ und Audit‑Vorgaben,
Lokalisierung kritischer Daten und Modelle,
können dazu führen, dass sich chinesische und globale KI‑Stacks technisch auseinanderentwickeln. Unternehmen müssen entscheiden, ob sie:
einen weitgehend harmonisierten globalen Stack betreiben, der die strengsten Anforderungen (inkl. GB/T 45958‑2025) überall erfüllt, oder
separate Architekturen für China und den Rest der Welt vorhalten – mit allen Implikationen für Komplexität, Kosten und Betriebsprozesse.
3.3 Auswirkungen auf Hardware- und Rechenzentrumsstrategien
Da der Standard Sicherheitsanforderungen explizit bis auf Hardware‑ und Ressourcenebene herunterbricht, beeinflusst er:
Hardware‑Beschaffung: Auswahl von KI‑Servern, GPUs/NPUs und Netzkomponenten, die die geforderten Sicherheitsfunktionen unterstützen (Firmware‑Verifikation, TEE, sichere Management‑Interfaces).
Rechenzentrumsdesign: Netzwerksegmentierung, physische und logische Isolation von Trainings- und Inferenzzonen, Design von Bastion‑Hosts und Management‑Netzen.
Lifecycle‑Management: Pflicht zu streng kontrollierten Update‑ und Patch‑Prozessen, inklusive dokumentiertem Change Management.
Für westliche Anbieter, die ihre Hardware in China vertreiben, kann sich die Notwendigkeit ergeben, spezifische Sicherheitsfeatures zu implementieren oder nachzuweisen, um in Ausschreibungen bestehen zu können.
3.4 Compliance‑by‑Design wird zur Voraussetzung
Die wohl wichtigste Konsequenz: KI‑Projekte in China lassen sich künftig nicht mehr als „reine Use‑Case‑Themen“ behandeln. Sicherheitsarchitektur und Compliance müssen von Beginn an integraler Bestandteil jeder KI‑Initiative sein:
Security‑Artefakte (z. B. RBAC‑Policies, API‑Gateways, Audit‑Trails) werden Projekt‑Deliverables.
Betriebsprozesse (z. B. Freigabe neuer Modelle, Zugriff auf Trainingsdaten) müssen dokumentiert, versioniert und auditierbar sein.
4. Praxisnahe Szenarien: Wie sich der Standard im Alltag auswirkt
4.1 Szenario 1: Globaler Cloud‑Provider mit Region in China
Ein globaler Hyperscaler betreibt eine Region in Festlandchina und bietet dort GPU‑Cluster für Unternehmenskunden an.
Konkrete Auswirkungen:
Das interne Plattform‑Team muss nachweisen, dass orchestrierende Komponenten (z. B. Kubernetes‑basierte AI‑PaaS‑Lösungen) Mandantenisolation, API‑Absicherung und Logging gemäß GB/T 45958‑2025 unterstützen.
Hardware‑Roadmaps müssen sicherstellen, dass künftige GPU‑Server Firmware‑Integritätsprüfungen und Anti‑Rollback implementieren.
Betriebsdokumentation wird angepasst, um Rollen (Plattform vs. Kunde als Modell‑/Datenanbieter) klar zu trennen und Verantwortlichkeiten vertraglich zu fixieren.
Implikation: Ohne diesen Nachweis riskieren Cloud‑Provider regulatorische Beanstandungen und verlieren potenziell den Zugang zu regulierten Kundensegmenten (z. B. Finanzsektor) – oder werden bei staatlichen Projekten gar nicht erst berücksichtigt.
4.2 Szenario 2: Europäischer Industriekonzern mit Smart‑Factory‑KI in China
Ein deutscher Maschinenbau‑Konzern betreibt in China Produktionsstätten, in denen lokale KI‑Modelle zur Qualitätsinspektion und vorausschauenden Wartung eingesetzt werden.
Konkrete Auswirkungen:
Die lokalen Edge‑Rechenzentren müssen Netzwerk‑ und Ressourcensegmente für KI‑Workloads klar vom restlichen OT‑Netz trennen.
Zugriffe auf Trainingsdaten (z. B. Bilddaten von Produktionslinien) werden zentral im Identity Management verwaltet und protokolliert.
Modellupdates aus dem europäischen Headquarter in die chinesischen Werke benötigen abgesicherte und auditierte Delivery‑Pipelines; jede Modellversion wird kryptografisch signiert.
Implikation: Der Konzern muss eine End‑to‑End‑Sicht auf seine KI‑Plattform etablieren – vom europäischen Modelltraining bis zur Inferenz in der chinesischen Fabrik – und diese gegenüber chinesischen Prüforganen dokumentieren können.
4.3 Szenario 3: Finanzinstitut mit On‑Prem‑GPU‑Cluster in China
Eine Bank betreibt in China einen eigenen GPU‑Cluster für Kreditrisikomodelle und Fraud Detection.
Konkrete Auswirkungen:
Strikte Trennung von Datenumgebungen: Trainingsdaten mit personenbezogenen Informationen werden nur in hochisolierten Segmenten vorgehalten.
Inferenz‑APIs für Online‑Entscheidungen werden durch API‑Gateways mit Authentifizierung, Autorisierung, Rate Limiting und umfassendem Logging geschützt.
Sicherheitsmonitoring umfasst neben klassischen Indikatoren (Malware, Netzwerkangriffe) auch KI‑spezifische Metriken, z. B. ungewöhnliche Modellabfragen, die auf Modell‑Extraktion hindeuten könnten.
Implikation: Ohne ein solches Design riskiert das Institut, dass KI‑Plattformen bei Aufsichtsprüfungen als unzureichend abgesichert eingestuft werden – mit potenziellen Konsequenzen für Produktfreigaben und Kapitalanforderungen.
5. Was Unternehmen jetzt konkret tun sollten
5.1 Gap‑Analyse gegen GB/T 45958‑2025 durchführen
Unternehmen mit KI‑Rechenkapazitäten in China sollten zeitnah eine strukturierte Gap‑Analyse durchführen:
Scope klären: Welche Plattformen, Rechenzentren, Cloud‑Ressourcen und MLOps‑Pipelines in China fallen unter den Standard?
Ist‑Analyse: Wie sind Ressourcen‑, Scheduling‑ und Anwendungssupport‑Ebene heute abgesichert?
Soll‑Profil: Welche Anforderungen von GB/T 45958‑2025 sind bereits erfüllt, welche nicht?
Risiko‑ und Maßnahmenplan: Priorisierung der Lücken nach geschäftskritischer Bedeutung und Aufwand.
5.2 Governance- und Rollenmodell schärfen
Rollen klar definieren: Wer ist intern Plattformanbieter, wer Daten‑, Modell- und Applikationsanbieter?
Verantwortungen dokumentieren: In Richtlinien, Betriebsprozessen und – wo nötig – in Verträgen mit Partnern und Kunden.
Schnittstellen regeln: z. B. wie externe Datenlieferanten oder Modellpartner in das Plattform‑Sicherheitskonzept eingebunden werden.
5.3 Technische Architektur anpassen
Hardware- und Netzwerkebene: Überprüfung, ob eingesetzte KI‑Server und Netzwerkkomponenten die geforderten Sicherheitsfunktionen technisch unterstützen.
Orchestrierungsebene: Härtung von Kubernetes‑Clustern, Einführung strikter Mandantenisolation, Absicherung von Management‑APIs.
Daten- und Modellebene: Einführung oder Ausbau von Model Registries, signaturbasierten Deployments, Data‑Lineage‑ und Access‑Control‑Mechanismen.
5.4 Logging, Monitoring und Auditfähigkeit stärken
Vereinheitlichung von Log‑Formaten und ‑Pipelines über alle Ebenen der KI‑Plattform hinweg.
Aufbau eines zentralen Security Monitoring, das KI‑spezifische Signale berücksichtigt.
Vorbereitung auf mögliche Audits durch strukturierte Nachweisdokumentation (Architekturdiagramme, Prozessbeschreibungen, Policy‑Sets).
5.5 Zusammenspiel mit anderen Regimes beachten
Unternehmen müssen GB/T 45958‑2025 im Kontext anderer Regulierungen betrachten, etwa:
europäische Anforderungen an Datenschutz und KI‑Risikomanagement (z. B. EU‑KI‑Verordnung),
branchenspezifische Vorgaben (z. B. in Finanz‑ oder Gesundheitssektor),
interne globale Sicherheitsstandards (z. B. NIST‑Framework, ISO/IEC 27001).
Ziel sollte ein konsistenter globaler Mindeststandard sein, der lokale Anforderungen – einschließlich GB/T 45958‑2025 – abdeckt, ohne in jedem Markt völlig unterschiedliche Sicherheitsarchitekturen betreiben zu müssen.
6. Fazit: GB/T 45958‑2025 als Blaupause für KI‑Infrastruktur‑Sicherheit
GB/T 45958‑2025 markiert einen Wendepunkt: KI‑Computing‑Plattformen werden regulatorisch ähnlich behandelt wie klassische kritische IT‑Infrastruktur – mit klaren technischen und organisatorischen Vorgaben über den gesamten Lebenszyklus.
Für Unternehmenslenker und Technikverantwortliche bedeutet das:
KI‑Investitionen in China sind künftig untrennbar mit Infrastruktur‑Security und Compliance‑by‑Design verknüpft,
globale Architekturentscheidungen müssen die spezifischen chinesischen Anforderungen frühzeitig einplanen,
wer jetzt strukturiert vorgeht, kann GB/T 45958‑2025 als Chance nutzen, die eigene KI‑Plattform‑Security insgesamt auf ein höheres Niveau zu bringen – auch außerhalb Chinas.
Zentrale Takeaways für Entscheider
Ab 1. Februar 2026 gilt GB/T 45958‑2025 als maßgeblicher Referenzstandard für die Sicherheit von KI‑Rechenplattformen in China und beeinflusst de facto alle relevanten Betreiber.
Der Standard deckt Hardware, Orchestrierung, Daten-, Modell- und Betriebsprozesse ab und verlangt umfassende Sicherheits- und Governance‑Mechanismen.
Unternehmen müssen entscheiden, ob sie harmonisierte globale oder segmentierte KI‑Stacks betreiben wollen, um divergierende Anforderungen (China vs. Rest der Welt) zu erfüllen.
Eine frühe Gap‑Analyse und die Schärfung von Rollen, Prozessen und Architektur sind entscheidend, um Compliance‑Risiken und Umsetzungsdruck zu reduzieren.
Wer GB/T 45958‑2025 konsequent umsetzt, kann daraus einen Wettbewerbsvorteil ziehen – durch belastbare, auditierbare und global anschlussfähige KI‑Infrastruktur.
Häufig gestellte Fragen (FAQ)
Was ist der chinesische KI-Sicherheitsstandard GB/T 45958‑2025?
GB/T 45958‑2025 ist ein nationaler chinesischer Standard für die Sicherheit von KI‑Rechenplattformen. Er definiert technische und organisatorische Anforderungen über den gesamten Lebenszyklus von KI‑Infrastrukturen – von Hardware und Rechenzentrum über Orchestrierung bis zu Daten‑, Modell- und Betriebsprozessen.
Ab wann gilt GB/T 45958‑2025 und für welche Unternehmen ist er relevant?
Der Standard wurde am 1. August 2025 veröffentlicht und tritt am 1. Februar 2026 in Kraft. Er ist insbesondere relevant für internationale Unternehmen, die KI‑Workloads, Rechenzentren oder Cloud‑Ressourcen in China betreiben, darunter Hyperscaler, Industrieunternehmen, Finanzinstitute und Betreiber eigener GPU‑Cluster.
Wie ist der Sicherheitsrahmen von GB/T 45958‑2025 aufgebaut?
GB/T 45958‑2025 strukturiert Anforderungen entlang dreier Dimensionen: Sicherheitsfunktionen auf Ressourcen‑, Scheduling‑ und Anwendungssupport‑Ebene, Sicherheitsmanagement (Identitäten, Kryptografie, Logging, Risiko) sowie klar definierten Rollen und Verantwortlichkeiten. Damit werden sowohl technische Kontrollen als auch Governance und Nachweisführung abgedeckt.
Welche praktischen Auswirkungen hat GB/T 45958‑2025 auf globale KI-Architekturen?
Der Standard zwingt Unternehmen, KI‑Infrastruktur in China als sicherheitskritische Basisinfrastruktur mit strenger Segmentierung, Härtung und Auditfähigkeit zu behandeln. In der Praxis kann dies zu getrennten KI‑Stacks für China und andere Märkte führen oder dazu, dass ein global harmonisierter Stack die strengsten chinesischen Anforderungen überall erfüllt.
Worin unterscheidet sich GB/T 45958‑2025 von inhaltlichen KI-Regeln wie der EU-KI-Verordnung?
Während viele westliche Regime vor allem den Einsatz, die Risiken und Inhalte von KI‑Anwendungen regulieren, fokussiert GB/T 45958‑2025 primär auf die zugrunde liegende KI‑Infrastruktur. Er präzisiert Sicherheitsanforderungen an Hardware, Netzwerke, Orchestrierung, Daten- und Modellmanagement und ergänzt damit eher risikobasierte, anwendungszentrierte Vorgaben wie die EU‑KI‑Verordnung.
Was sollten Unternehmen mit KI-Rechenkapazitäten in China jetzt konkret tun?
Unternehmen sollten kurzfristig eine Gap‑Analyse ihrer KI‑Plattformen gegen die Anforderungen von GB/T 45958‑2025 durchführen und einen priorisierten Maßnahmenplan erstellen. Parallel sind Governance‑Strukturen, Rollenmodelle, technische Architektur (Hardware, Netzwerk, Orchestrierung) sowie Logging, Monitoring und Auditfähigkeit gezielt zu stärken.
Welche Rolle spielen Rollen- und Verantwortlichkeitsmodelle im Standard GB/T 45958‑2025?
Der Standard unterscheidet klar zwischen Plattformanbieter, Datenanbieter, Modellanbieter und Anwendungsanbieter und weist jeder Rolle spezifische Sicherheits- und Compliance‑Pflichten zu. Unternehmen müssen diese Rollen intern definieren, dokumentieren und vertraglich absichern, um entlang der gesamten KI‑Wertschöpfungskette prüfbare Verantwortlichkeiten nachweisen zu können.
