WISeKeys Human‑AI‑T Manifesto in Davos 2026: Was der neue Governance‑Rahmen für Unternehmen bedeutet

19.01.2026

WISeKey stellt beim WEF‑Rahmen in Davos 2026 das Human‑AI‑T Manifesto vor – einen global angelegten Governance‑Rahmen für vertrauenswürdige KI im Zeitalter von AGI und Quantencomputing. Der Text verankert explizit menschliche Souveränität, Nachvollziehbarkeit und Prüfmechanismen. Der Artikel analysiert, wie sich dieser industrienahe Referenzrahmen zum EU AI Act und bestehenden Standards verhält, welche Auswirkungen auf Compliance, Audits, Beschaffung und Partnerwahl zu erwarten sind und wie sich Unternehmen jetzt strategisch positionieren sollten.

WISeKeys Human‑AI‑T Manifesto in Davos 2026: Was der neue Governance‑Rahmen für Unternehmen bedeutet

Die Ankündigung von WISeKey, beim Davos‑Event 2026 das Human‑AI‑T (Human – Artificial Intelligence – Trust) Manifesto vorzustellen, fügt der globalen Debatte um vertrauenswürdige KI einen neuen, industrienahen Referenzrahmen hinzu. Der Fokus: Menschliche Souveränität, rechtlich verankerte Werte, technische Nachvollziehbarkeit und robuste Vertrauensmechanismen für KI‑, künftige AGI‑ und Quanten‑Systeme.

Für Unternehmen ist relevant, dass hier nicht nur abstrakte Ethikprinzipien formuliert werden, sondern ein Rahmen, der sich explizit auf Governance, Auditierbarkeit und Verantwortlichkeit bezieht – und damit unmittelbar anschlussfähig an Compliance‑, Beschaffungs- und Sicherheitsprozesse ist. Der folgende Beitrag ordnet ein, was vorgestellt wurde, wie sich das Manifesto zum EU AI Act und anderen Initiativen verhält und welche konkreten Handlungsoptionen sich für Organisationen ergeben.


Kontext: Was ist das Human‑AI‑T Manifesto und wer steht dahinter?


WISeKey und der Davos‑Kontext

WISeKey ist ein in der Schweiz ansässiger Anbieter von Cybersecurity‑, Digital‑Identity‑ und IoT‑Lösungen, der seit Jahren mit Root‑of‑Trust‑Infrastrukturen, PKI‑Services und Hardware-Sicherheitsmodulen im Markt aktiv ist. Das Unternehmen agiert stark an der Schnittstelle von Kryptografie, Identitätsmanagement und vernetzten Geräten und adressiert zunehmend auch KI‑Szenarien.

Am 19. Januar 2026 kündigte WISeKey an, im Rahmen seines eigenen Events während der Davos‑Woche am 21. Januar 2026 das Human‑AI‑T Manifesto zu präsentieren. Ziel ist ein globaler Rahmen zur Sicherung menschlicher Souveränität, Vertrauenswürdigkeit und ethischer Governance im Zeitalter von KI, Artificial General Intelligence (AGI) und Quantencomputing.


Zielsetzung des Manifestos

Das Manifesto versteht sich als globaler Bezugsrahmen, der sicherstellen soll, dass technologische Intelligenz – insbesondere hochautonome KI‑ und künftige AGI‑Systeme – innerhalb eines von Menschen definierten moralischen, rechtlichen und kulturellen Rahmens operieren. In den veröffentlichten Kernaussagen lassen sich mehrere Leitprinzipien erkennen:

  • Menschliche Kontrolle: Menschen sollen die letztendliche Entscheidungs- und Aufsichtshoheit über KI‑Systeme behalten.

  • Unterstützung statt Ersetzung: KI soll menschliche Entscheidungen unterstützen, nicht ersetzen – besonders in hochkritischen Domänen wie Gesundheit, Sicherheit, Grundrechte oder staatliche Gewalt.

  • Einbettung menschlicher Werte: Werte dürfen nicht „implizit aus den Daten“ abgeleitet werden, sondern müssen bewusst in Modelle, Policies und Architekturen eingebracht werden.

  • Schadensprävention by Design: Schutz von Gesundheit, Sicherheit, Menschenrechten und Umwelt soll in die Systemarchitektur integriert werden.

  • Fairness und Nicht‑Diskriminierung: Algorithmen sollen Gleichbehandlung und Inklusion sicherstellen.

  • Transparenz & Erklärbarkeit: Erklärbarkeit, Auditierbarkeit und Nachvollziehbarkeit werden als Pflichtanforderungen definiert, nicht als optionale Features.

  • Schutz von Privatsphäre und Grundrechten: Datenschutz, informationelle Selbstbestimmung und Datenhoheit werden als fundamentale Rechte verankert.


Bemerkenswert ist, dass diese Prinzipien nicht nur deklarativ formuliert werden, sondern explizit mit Governance‑Instrumenten wie Aufsicht, Impact Assessments, Audits und Due‑Diligence‑Mechanismen verknüpft werden.


Positionierung im globalen Governance‑Umfeld

Das Manifesto wird ausdrücklich als Referenzrahmen adressiert, den Regierungen, internationale Organisationen, Unternehmen, Entwickler, Zivilgesellschaft und Standardisierungsorgane aufgreifen sollen. Es zielt damit auf eine ähnliche Rolle wie bisherige Meta‑Rahmen (z. B. OECD‑AI‑Principles, NIST AI Risk Management Framework), fokussiert aber deutlicher auf:

  • die Kombination aus AGI‑ und Quanten‑Perspektive,

  • einen starken Root‑of‑Trust‑ und Security‑Fokus (entsprechend der WISeKey‑Positionierung),

  • eine explizite Betonung von menschlicher Souveränität statt nur „Human in the Loop“.


Detaillierte Analyse: Was ist neu – und warum ist es relevant?


1. Von „vertrauenswürdiger KI“ zu „Human‑AI‑T“ als Governance‑Triade

Viele bisherige Rahmenwerke sprechen allgemein von „Trustworthy AI“. Das Human‑AI‑T Manifesto rückt explizit drei Pole in den Mittelpunkt:

  1. Human – die Quelle von Werten, Normen und Legitimation.

  2. AI – die operative, skalierende und zunehmend autonome technische Intelligenz.

  3. Trust – die verbindende Schicht aus Governance, Sicherheit, Nachvollziehbarkeit und Rechenschaft.


Für Unternehmen ist dieser Dreiklang deshalb relevant, weil er deutlich macht, dass:

  • KI‑Strategie nicht nur ein IT‑Thema ist, sondern Governance, Ethik, Recht und Kultur umfasst.

  • Vertrauensmechanismen (z. B. Identitäten, Zertifikate, Signaturen, Audit‑Trails) nicht „später aufgesetzt“, sondern architektonisch integriert werden sollen.

  • Der Aufbau eines „Human‑AI‑Trust Stack“ (z. B. Identity‑Layer, Policy‑Layer, Audit‑Layer) zum strategischen Differenzierungsmerkmal werden kann.


2. Starke Ausrichtung auf AGI- und Quanten‑Szenarien

Während viele Regulierungstexte heute noch primär auf heutige, spezialisierte KI‑Systeme abzielen, adressiert das Manifesto ausdrücklich:

  • zukünftige AGI‑Systeme mit hoher Autonomie und Generalisierungsfähigkeit,

  • die Verzahnung mit Quantencomputing, das die Skalierung, Geschwindigkeit und Komplexität von KI‑Operationen drastisch erhöhen kann.


Für Unternehmen bedeutet das:

  • Strategische KI‑Entscheidungen, die heute getroffen werden (z. B. Wahl von Plattformen, Architekturen, Sicherheitsmechanismen), sollten zukunftsfest sein und die Möglichkeit berücksichtigen, in eine Welt mit leistungsfähigerer KI und Quantenressourcen „hineinzuwachsen“.

  • Governance‑Mechanismen, die heute für „klassische“ KI implementiert werden, sollten so entworfen sein, dass sie für AGI‑ähnliche Systeme skalieren, etwa bei:


- Identity‑ und Access‑Management für autonome KI‑Agenten,

- mehrschichtiger Audit‑Infrastruktur,

- kontinuierlichen Risiko‑ und Impact‑Assessments.


3. Verknüpfung mit rechtlich verbindlichen Rahmen wie dem EU AI Act

Das Manifesto ist kein Gesetz, sondern ein freiwilliger Rahmen. Dennoch liegt der Mehrwert darin, dass viele seiner Prinzipien parallel zu bereits verabschiedeten oder entstehenden Rechtsrahmen verlaufen, insbesondere:

  • EU AI Act (risikobasierte Regulierung, Pflichten für Hochrisiko‑Systeme, Transparenzpflichten, Daten‑Governance).

  • Datenschutz‑Regime (z. B. DSGVO mit Grundsätzen wie Zweckbindung, Datenminimierung, Betroffenenrechten).

  • Menschenrechts- und Nachhaltigkeitsregulierung (z. B. Sorgfaltspflichten in Lieferketten, menschenrechtliche Risikoanalysen).


Für Unternehmen an der Schnittstelle von EU‑Recht und globalen Märkten ist es entscheidend, dass:

  • das Manifesto als Brücke zwischen gesetzlichen Mindestanforderungen und freiwilligen, darüber hinaus gehenden Governance‑Commitments dienen kann;

  • eine Orientierung an Human‑AI‑T‑Prinzipien die Vorbereitung auf strengere Regulierungswellen erleichtert (z. B. sektorale KI‑Regulierung in Finanz‑, Gesundheits- oder Verteidigungsbereich).


4. Konkrete Implikationen für Audits, Beschaffung und Partnerwahl

Aus Unternehmenssicht besonders relevant sind jene Aspekte des Manifestos, die sich direkt in operationalisierbare Kriterien übersetzen lassen:

  • Auditierbarkeit und Traceability: Systeme sollen so gestaltet werden, dass Eingaben, Modelle, Entscheidungen und Änderungen nachvollziehbar sind.

  • Sicherheits- und Trust‑Infrastruktur: Kryptografische Roots of Trust, Zertifikatsketten, Signaturen, sichere Hardware und sichere Kommunikationskanäle werden zu Kernbausteinen.

  • Impact‑Assessments und Due Diligence: Vor Inbetriebnahme kritischer KI‑Systeme sollen strukturierte Risiko‑ und Auswirkungen‑Analysen durchgeführt werden.


Dies eröffnet zugleich neue Formen von externen Audits, Zertifizierungen und Labels (z. B. „Human‑AI‑T‑konform“), die in Ausschreibungen und Lieferantenbewertungen verankert werden können.


Praxisnahe Beispiele und Anwendungsszenarien


Beispiel 1: Gesundheitssektor – KI‑Diagnostik mit Human‑in‑Command

Ein Krankenhausverbund setzt ein KI‑Diagnosesystem zur Analyse bildgebender Verfahren ein. Nach Human‑AI‑T‑Prinzipien würde das Setup unter anderem so aussehen:

  • Menschliche Souveränität: Ärztinnen und Ärzte behalten die finale Verantwortung. Die KI‑Entscheidungen sind Empfehlungen mit erklärbaren Begründungen; es gibt dokumentierte Override‑Mechanismen.

  • Erklärbarkeit & Audit: Für jede Diagnose werden die relevanten Einflussfaktoren protokolliert, sodass Gutachten und Zweitmeinungen möglich bleiben.

  • Schadensprävention: Es existiert ein kontinuierliches Monitoring für Fehlklassifikationen, Bias (z. B. nach Geschlecht, Ethnie, Alter) und Sicherheitsvorfälle.

  • Datenschutz & Datenhoheit: Patientendaten werden pseudonymisiert, kryptografisch geschützt und nur für klar definierte Zwecke genutzt.


Für den Krankenhausverbund bedeutet das: Die Einführung des Systems wird nicht nur technisch, sondern auch rechtlich und ethisch robust aufgestellt – was wiederum gegenüber Aufsichtsbehörden, Versicherern und Patienten Vertrauen schafft.


Beispiel 2: Finanzdienstleister – KI‑gestützte Kreditvergabe

Ein internationaler Finanzdienstleister plant, seine Kreditentscheidungen stärker KI‑gestützt zu treffen.

Unter Bezug auf das Manifesto würden insbesondere folgende Aspekte berücksichtigt:

  • Fairness & Nicht‑Diskriminierung: Trainingsdaten und Modelle werden auf strukturelle Verzerrungen geprüft; es existieren Korrekturmechanismen und regelmäßige Re‑Audits.

  • Transparenz: Auch gegenüber Unternehmenskunden werden nachvollziehbare Gründe für Kreditentscheidungen ausgewiesen, zumindest in aggregierter Form.

  • Regulatorische Compliance: Der Governance‑Ansatz wird so gestaltet, dass er sowohl mit dem EU AI Act als auch mit lokalen Aufsichtsanforderungen (Bankenaufsicht, Anti‑Diskriminierung) kompatibel ist.

  • Verantwortungsketten: Klare Zuweisung von Verantwortlichkeiten für Modellentwicklung, Betrieb, Monitoring, Incident‑Management und Kommunikation mit Aufsichtsbehörden.


Ein Finanzdienstleister, der sich explizit an Human‑AI‑T‑Prinzipien orientiert, kann dies in seinen ESG‑Berichten, gegenüber Investoren und in Ausschreibungen nutzen – und zugleich das Risiko von Reputationsschäden und Sanktionen reduzieren.


Beispiel 3: Industrie 4.0 – Autonome KI‑Agenten in der Lieferkette

Ein Fertigungsunternehmen setzt KI‑Agenten ein, die Bestellungen autonom auslösen, Lieferantenbewertungen durchführen und Routen optimieren.

Nach dem Manifesto müssten diese Agenten:

  • eindeutig identifizierbar sein (digitale Identität, Zertifikate),

  • in ihren Rechten und Grenzen klar definiert werden (Policy‑Layer: Was darf der Agent, was nicht?),

  • in Audit‑Trails erfasst werden (wer hat wann welche Entscheidung getroffen oder angestoßen?),

  • regelmäßig auf Sicherheitsrisiken und Fehlverhalten geprüft werden.


In Kombination mit Quanten‑ und Hochleistungsrechnern könnte die Optimierung enorm beschleunigt werden – gleichzeitig steigen aber die potenziellen Schäden bei Fehlfunktionen. Ein Human‑AI‑T‑konformer Governance‑Ansatz reduziert dieses Risiko substantiell.


Geschäftliche Relevanz: Was Unternehmen jetzt tun sollten


1. Human‑AI‑T als strategischen Referenzrahmen prüfen

Unternehmen sollten das Manifesto nicht als zusätzliche Compliance‑Last betrachten, sondern als Orientierungsraster, um bestehende KI‑Initiativen strategisch zu überprüfen:

  • Inwieweit werden menschliche Entscheidungsrechte klar definiert?

  • Sind Trust‑Mechanismen (Identität, Integrität, Nachvollziehbarkeit) systematisch verankert oder ad hoc gelöst?

  • Wie gut sind AGI‑ und Quanten‑Szenarien in der mittel- bis langfristigen Planung berücksichtigt?


Ein Mapping gegen bestehende Frameworks (z. B. EU AI Act, NIST AI RMF, interne Policies) zeigt, wo Konsistenz besteht und wo Nachschärfungsbedarf ist.


2. Governance‑Struktur für KI anpassen und erweitern

Viele Unternehmen verfügen bereits über Datenschutz‑, Informationssicherheits- oder Compliance‑Gremien. Mit Blick auf Human‑AI‑T empfehlen sich:

  • Interdisziplinäre AI‑Governance‑Boards, die Recht, IT, Fachbereiche, Ethik/CSR und Sicherheit zusammenbringen.

  • Klare Mandate für diese Gremien: Freigabeprozesse, Eskalationswege, Monitoring‑Aufgaben und Berichtspflichten.

  • Integration in bestehende GRC‑Systeme (Governance, Risk & Compliance), um Doppelstrukturen zu vermeiden.


3. Audit‑ und Beschaffungskriterien anpassen

Im Lichte des Manifestos sollten Beschaffungs- und Auditprozesse neu justiert werden:

  • Vendor Due Diligence: Lieferanten und KI‑Partner anhand von Kriterien wie Erklärbarkeit, Sicherheitsarchitektur, Daten‑Governance und Menschenrechtsbezug bewerten.

  • Vertragliche Verankerung: Human‑AI‑T‑Prinzipien in SLAs, Datenverarbeitungsverträgen und Lizenzvereinbarungen adressieren.

  • Externe Zertifizierungen: Gegebenenfalls Zertifizierungen oder externe Audits nutzen, die Konformität mit vergleichbaren Rahmenwerken nachweisen.


4. Technische Roadmap an „Trust‑by‑Design“ ausrichten

Auf technologischer Ebene sollten IT‑ und Architekturverantwortliche prüfen:

  • Welche Identity‑ und Trust‑Infrastrukturen sind bereits vorhanden (PKI, HSM, IAM) und wie lassen sie sich für KI‑Anwendungsfälle nutzen?

  • Wie werden Audit‑Logs, Model‑Versionierung, Data‑Lineage und andere Nachvollziehbarkeitsfunktionen implementiert?

  • Inwieweit sind Security‑by‑Design und Privacy‑by‑Design bereits Standard in KI‑Projekten – oder nur „Add‑ons“?


5. Kommunikation und Change‑Management vorbereiten

Da das Manifesto explizit menschliche Würde, Rechte und Verantwortung adressiert, ist es auch ein Thema für interne und externe Kommunikation:

  • Mitarbeiter: Klar kommunizieren, wie KI in der Organisation eingesetzt wird, welche Rollen Menschen behalten und welche Mechanismen es zum Schutz vor Fehlentscheidungen gibt.

  • Kunden und Partner: Transparenz über Governance‑Ansätze schaffen, um Vertrauen in KI‑basierte Produkte und Services zu stärken.

  • Aufsichtsbehörden und Öffentlichkeit: Bereitschaft signalisieren, über gesetzliche Mindestpflichten hinauszugehen und aktiv an der Ausgestaltung von Standards mitzuwirken.


Fazit: Human‑AI‑T als Baustein einer belastbaren KI‑Strategie

Das von WISeKey in Davos 2026 vorgestellte Human‑AI‑T Manifesto ist kein weiterer abstrakter Wertekanon, sondern ein explizit Governance‑orientierter Rahmen, der menschliche Souveränität, technische Vertrauensmechanismen und künftige Hochrisiko‑Szenarien (AGI, Quanten) zusammenführt. Für Unternehmen bietet es eine pragmatische Möglichkeit, vorhandene KI‑Strategien, Compliance‑Strukturen und Technologie‑Roadmaps kritisch zu überprüfen und zukunftsfest auszurichten.

Wer die Prinzipien frühzeitig aufgreift, verschafft sich nicht nur regulatorische Resilienz, sondern erhöht auch die Akzeptanz von KI bei Mitarbeitenden, Kunden und Aufsichtsbehörden – ein Wettbewerbsvorteil, der im Zeitalter immer mächtigerer, autonomer Systeme kaum zu überschätzen ist.

Wesentliche Takeaways für Unternehmen:

  • Human‑AI‑T positioniert KI‑Governance als Triade aus Mensch, Technologie und Vertrauen – und geht über klassische „Ethik‑Leitlinien“ hinaus.

  • Das Manifesto ist kompatibel mit Rechtsrahmen wie dem EU AI Act und kann als Brücke zwischen gesetzlichen Vorgaben und freiwilligen Selbstverpflichtungen dienen.

  • Konkrete Implikationen bestehen für Audit‑Anforderungen, Beschaffungsrichtlinien, Vendor‑Management und technische Architekturen.

  • AGI‑ und Quanten‑Perspektiven machen deutlich: Heute gewählte KI‑Plattformen und Governance‑Modelle müssen zukunftsfähig sein.

  • Unternehmen sollten jetzt Governance‑Strukturen, Beschaffungskriterien und Trust‑Infrastrukturen überprüfen und an „Trust‑by‑Design“ ausrichten.

  • Frühe Orientierung an Human‑AI‑T‑Prinzipien stärkt regulatorische Resilienz und Marktvertrauen gleichermaßen.


Häufig gestellte Fragen (FAQ)


Was ist das Human‑AI‑T Manifesto von WISeKey?

Das Human‑AI‑T Manifesto ist ein von WISeKey vorgestellter Governance‑Rahmen für vertrauenswürdige KI, künftige AGI‑Systeme und Quantenanwendungen. Es verankert menschliche Souveränität, klare Verantwortlichkeiten sowie technische Vertrauensmechanismen wie Nachvollziehbarkeit, Auditierbarkeit und Sicherheitsarchitekturen.


Wie unterscheidet sich das Human‑AI‑T Manifesto vom EU AI Act?

Der EU AI Act ist ein rechtlich verbindliches Regulierungsgesetz mit konkreten Pflichten und Sanktionen, während das Human‑AI‑T Manifesto ein freiwilliger, globaler Referenzrahmen ist. Unternehmen können das Manifesto nutzen, um über gesetzliche Mindestanforderungen hinauszugehen und ihre KI‑Governance mit Prinzipien wie menschlicher Souveränität, Trust‑by‑Design und Quantenperspektive anzureichern.


Welche praktischen Auswirkungen hat das Manifesto auf Unternehmen?

Für Unternehmen wirkt sich das Manifesto direkt auf KI‑Strategie, Compliance, Audits und Beschaffungsprozesse aus. Es fordert unter anderem nachvollziehbare Entscheidungsprozesse, robuste Sicherheits‑ und Identitätsinfrastrukturen, systematische Impact‑Assessments sowie strengere Kriterien bei der Auswahl und Bewertung von KI‑Lieferanten.


Wie funktioniert der „Human‑AI‑Trust Stack“ in der Praxis?

Der Human‑AI‑Trust Stack beschreibt eine mehrschichtige Architektur aus Identitäts‑, Policy‑ und Audit‑Layern, die Vertrauen technisch abbildet. In der Praxis bedeutet das etwa eindeutig identifizierbare KI‑Agenten, klar definierte Handlungsgrenzen, lückenlose Protokollierung von Entscheidungen und ein kontinuierliches Monitoring von Risiken und Fehlverhalten.


Für welche Branchen ist das Human‑AI‑T Manifesto besonders relevant?

Besonders relevant ist der Rahmen für stark regulierte und hochkritische Bereiche wie Gesundheit, Finanzdienstleistungen, Industrie 4.0, öffentliche Verwaltung und Sicherheitssektoren. Überall dort, wo autonome oder stark KI‑gestützte Entscheidungen hohe Auswirkungen auf Menschenrechte, Sicherheit oder finanzielle Stabilität haben, bietet das Manifesto konkrete Governance‑Leitplanken.


Was sollten Unternehmen kurzfristig tun, um sich am Human‑AI‑T Manifesto auszurichten?

Unternehmen sollten zunächst ihre bestehenden KI‑Anwendungen und Governance‑Strukturen gegen die Human‑AI‑T‑Prinzipien mappen. Wichtige Schritte sind der Aufbau oder die Stärkung interdisziplinärer AI‑Governance‑Boards, die Anpassung von Beschaffungs‑ und Auditkriterien, die Integration von Trust‑by‑Design in Architektur-Roadmaps sowie die vertragliche Verankerung von Transparenz-, Sicherheits- und Menschenrechtsanforderungen.


Wie hilft das Manifesto bei der Vorbereitung auf AGI‑ und Quanten‑Szenarien?

Das Manifesto fordert, heutige KI‑Architekturen und Governance‑Modelle so zu gestalten, dass sie in eine Zukunft mit leistungsfähigerer KI und Quantenressourcen skalieren können. Dazu gehören etwa ein vorausschauendes Identity- und Access‑Management für autonome Agenten, erweiterbare Audit‑Infrastrukturen sowie kontinuierliche Risiko‑ und Impact‑Assessments, die auch anspruchsvollere Szenarien abdecken.