Studie zeigt: Sachliche Informationen beeinflussen öffentliche Unterstützung für KI in Regierungen stärker als eigene KI-Erfahrung

06.04.2026

Eine neue, begutachtete Feldstudie im British Journal of Political Science kommt zu einem überraschend klaren Ergebnis: Direkte Nutzungserfahrungen mit KI verändern die Haltung der Bürgerinnen und Bürger zur Nutzung von KI in Regierungsentscheidungen kaum. Dagegen führen kurze, faktenbasierte Erläuterungen zu Funktionsweise, Stärken und Grenzen von KI messbar zu verschobener Unterstützung. Für Regierungen, Behörden und Unternehmen, die KI in regulierten Bereichen einsetzen oder dorthin verkaufen, ergeben sich daraus konkrete Handlungsoptionen für Kommunikation, Governance und Produktdesign.

Studie zeigt: Sachliche Informationen beeinflussen öffentliche Unterstützung für KI in Regierungen stärker als eigene KI-Erfahrung


Kernergebnis der neuen Studie

Eine aktuelle, peer‑reviewte Feldstudie im British Journal of Political Science untersucht, was die öffentliche Unterstützung für den Einsatz von Künstlicher Intelligenz (KI) in Regierungsentscheidungen tatsächlich prägt. Das zentrale Ergebnis:

  • Konkrete, sachliche Informationen über KI (z.B. Funktionsprinzipien, typische Fehlerquellen, Kontrollmechanismen) verändern die Unterstützung deutlich messbar – sowohl nach oben als auch nach unten.

  • Eigene Nutzungserfahrungen mit KI‑Systemen (etwa Chatbots oder automatische Empfehlungen) haben im Vergleich nur einen sehr geringen Effekt auf die Einstellungen zur Nutzung von KI in der öffentlichen Verwaltung.


Damit widerspricht die Studie der naheliegenden Annahme, dass „mehr Nutzung“ automatisch zu mehr Akzeptanz oder Ablehnung führt. Entscheidend ist nicht das „Feeling“ mit einem Tool, sondern ob Menschen klare, verständliche und glaubwürdige Fakten zur Technologie erhalten.


Studiendesign: Was wurde getestet?

Die Forschenden setzten ein Feldexperiment mit Bürgerinnen und Bürgern ein, in dem drei Interventionen verglichen wurden:

  1. Kontrollgruppe – keine zusätzliche Information.

  2. Erfahrungsgruppe – Teilnehmende interagierten direkt mit einem einfachen KI‑System (z.B. einem KI‑basierten Entscheidungstool oder Chatbot) und konnten sich eine eigene Meinung bilden.

  3. Informationsgruppe – Teilnehmende erhielten eine kurze, neutrale und faktenorientierte Erklärung dazu,


- wie KI‑Modelle trainiert werden,

- wo sie typischerweise Fehler machen,

- welche Kontroll‑ und Aufsichtsmechanismen vorgesehen sind,

- wie Verantwortlichkeit zwischen Mensch und System verteilt ist.

Anschließend wurde gemessen, wie stark die Teilnehmenden verschiedene Einsatzszenarien bewerten, etwa:

  • KI zur Priorisierung von Sozialleistungen,

  • KI‑gestützte Betrugserkennung im Steuersystem,

  • KI als Unterstützung bei Personalentscheidungen im öffentlichen Dienst.


Die Resultate zeigen: Nur die Informationsgruppe weicht statistisch signifikant von der Kontrollgruppe ab. Die Erfahrungsgruppe liegt sehr nahe an der Kontrollgruppe.


Warum Erfahrungen mit KI weniger zählen, als viele denken

Für Politik und Wirtschaft ist besonders relevant, warum direkte Erfahrung offenbar so wenig bewirkt:

  • Erfahrung ist hoch individuell: Einzelne Interaktionen (z.B. mit einem Chatbot) werden stark von Kontext, Erwartung und Interface geprägt. Sie sind schwer auf „staatliche KI“ übertragbar.

  • Kognitive Vereinfachung: Bürgerinnen und Bürger nutzen Heuristiken. Ohne ein klares Fakten‑Framing ordnen sie Erlebnisse in bereits bestehende Überzeugungen zu „Regierung“, „Automatisierung“ oder „Technologie“ ein.

  • Unsichtbare Risiken: Viele relevante Aspekte (Bias, Datenquellen, Audit‑Trails, Haftung) sind in der normalen Nutzungserfahrung nicht erkennbar. Sie können nur über explizite Information vermittelt werden.


Für Entscheider bedeutet das: „Wir stellen ein KI‑Tool bereit und die Akzeptanz wächst dann schon von selbst“ ist keine tragfähige Strategie.


Implikationen für Regierungen und Behörden


1. Kommunikationsstrategie neu denken

Statt primär auf „Pilotprojekte zum Anfassen“ zu setzen, sollten Verwaltungen strukturierte Informationsangebote priorisieren:

  • Kurzform‑Erklärungen (1–2 Seiten, Videos, Infografiken) zu Zweck, Funktionsweise und Grenzen eines Systems.

  • Standardisierte Fact Sheets für jedes KI‑Projekt mit:


- Einsatzzweck und Entscheidungsumfang,

- verwendeten Datenquellen,

- bekannten Risiken und getroffenen Schutzmaßnahmen,

- klarer Zuordnung von Verantwortung (wer entscheidet letztlich?).

  • Q&A‑Formate (Bürgerdialoge, Online‑Sprechstunden), in denen Fakten erläutert und Rückfragen adressiert werden.


Das Ziel ist weniger „Werbung für KI“ als Verständnis und Erwartungsmanagement.


2. Governance und Dokumentation als Akzeptanztreiber

Die Studie legt nahe, dass gut dokumentierte, erklärbare Systeme einen Akzeptanzvorteil haben. Behörden sollten daher:

  • Transparenzanforderungen in Vergaben verankern (z.B. Pflicht zu verständlichen Modell‑ und Datenbeschreibungen).

  • Erklärbarkeits‑Standards definieren, die sich an juristischen und administrativen Zielgruppen orientieren (nicht nur Data Scientists).

  • Audit‑ und Kontrollkonzepte so aufbereiten, dass sie in der öffentlichen Kommunikation nachvollziehbar sind.


3. Beteiligungsformate gezielt mit Fakten unterfüttern

Bürgerbeteiligung zu KI‑Projekten ist nur dann wirksam, wenn Diskutierende eine gemeinsame Faktenbasis haben. Praktische Schritte:

  • Vor Dialogformaten ein neutrales Informationspaket bereitstellen (z.B. vor einem Bürgerrat oder Online‑Konsultation).

  • Moderation darauf ausrichten, Mythen und Fehlannahmen zu identifizieren und direkt mit Fakten zu adressieren.

  • Ergebnisse und getroffene Entscheidungen wiederum transparent rückkoppeln – inklusive Begründung, warum KI eingesetzt oder verworfen wird.


Konsequenzen für Unternehmen, die KI an den öffentlichen Sektor verkaufen

Für Anbieter von KI‑Lösungen – insbesondere in regulierten Branchen wie Verwaltung, Gesundheitswesen oder Finanzaufsicht – hat die Studie klare geschäftliche Implikationen.


1. Informations‑ und Erklärbarkeitspakete als Produktbestandteil

Unternehmen sollten nicht nur ein technisches System liefern, sondern mitverkaufte Informationsbausteine bereitstellen, etwa:

  • Standardisierte Stakeholder‑Folien für Politik, Personalvertretungen und Datenschutzgremien.

  • Laienverständliche Modellbeschreibungen: Was macht das System, was nicht? Wo sind Grenzen?

  • Vorlagen für bürgernahe Kommunikation (FAQs, Website‑Texte, Infoblätter).


Solche Pakete können in Ausschreibungen und Präsentationen explizit hervorgehoben werden und werden zunehmend Vergabekriterium.


2. Wettbewerbsvorteil durch Nachweis der Verständlichkeit

Die Studie legt nahe: Systeme, die sich gut erklären lassen, schaffen eher Vertrauen. Unternehmen können das nutzen, indem sie z.B.:

  • UX‑Design und Model‑Explainability eng verzahnen (z.B. verständliche Begründungstexte im Interface).

  • Interne „Explainability Audits“ durchführen und deren Resultate nachvollziehbar dokumentieren.

  • Erfolgreiche Projekte, in denen sachliche Information Akzeptanz geschaffen hat, als Referenzfälle aufbereiten.


3. Compliance, Lizenzverlängerungen und Social License

In regulierten Märkten hängt die Verlängerung von Lizenzen und Verträgen zunehmend an der Frage, ob Systeme:

  • prüfbar,

  • erklärbar und

  • kommunizierbar sind.


Die Studie zeigt, dass gerade diese Punkte die öffentliche Unterstützung bestimmen. Wer sie professionell adressiert, reduziert das Risiko von:

  • politischen Konflikten um KI‑Projekte,

  • rechtlichen Anfechtungen,

  • Reputationsschäden bei Fehlfunktionen.


Handlungsempfehlungen in Stichpunkten

Für Entscheidungsträger in Verwaltung und Unternehmen lassen sich folgende unmittelbare Schritte ableiten:

  • Bestandsaufnahme: Welche KI‑Vorhaben existieren bereits, und wie gut sind sie erklärbar dokumentiert?

  • Mindeststandard definieren: Einführung eines einheitlichen KI‑Informationssteckbriefs für jedes Projekt.

  • Beschaffung anpassen: In Ausschreibungen explizit nach Erklärbarkeit, Dokumentation und Kommunikationsmaterial fragen.

  • Schulung: Fach‑ und Führungskräfte in der Verwaltung zu zentralen KI‑Grundlagen und Kommunikationsstrategien schulen.

  • Pilotkommunikation: Bei neuen Projekten frühzeitig Informationsangebote testen (A/B‑Tests von Erklärtexten, Feedbackschleifen).


Fazit

Die neue Studie macht deutlich: Wie über KI gesprochen wird, ist entscheidender als bloße Nutzungserfahrung. Für Regierungen und Unternehmen, die KI in sensiblen Entscheidungsfeldern einsetzen, bedeutet das einen klaren Auftrag:

  • Transparente, faktenbasierte Kommunikation ist kein Nice‑to‑have, sondern ein zentraler Hebel für Legitimität und langfristigen Erfolg.

  • Anbieter, die ihre Systeme verständlich machen und aktiv mit Informationspaketen unterstützen, sichern sich einen spürbaren Vorteil in Beschaffung, Compliance und öffentlicher Wahrnehmung.


Häufig gestellte Fragen (FAQ)


Was ist das zentrale Ergebnis der Studie zur öffentlichen Unterstützung für KI in Regierungen?

Die Studie zeigt, dass sachliche, faktenbasierte Informationen über Funktionsweise, Stärken und Grenzen von KI die öffentliche Unterstützung für ihren Einsatz in Regierungsentscheidungen deutlich stärker beeinflussen als eigene Nutzungserfahrungen mit KI. Kurz: Wie über KI informiert wird, ist entscheidender als wie oft Menschen KI selbst nutzen.


Wie wurde in der Studie der Einfluss von Information und Erfahrung mit KI gemessen?

Die Forschenden führten ein Feldexperiment mit drei Gruppen durch: einer Kontrollgruppe ohne Zusatzinfo, einer Erfahrungsgruppe mit direkter Interaktion mit einem KI-System und einer Informationsgruppe mit einer kurzen, neutralen Erklärung zu KI. Anschließend bewerteten alle Teilnehmenden konkrete Einsatzszenarien von KI in der öffentlichen Verwaltung, und nur die Informationsgruppe wich statistisch signifikant von der Kontrollgruppe ab.


Warum haben eigene Erfahrungen mit KI laut Studie so wenig Einfluss auf die Haltung zu staatlicher KI?

Eigene KI-Erfahrungen sind stark kontextabhängig und lassen sich nur begrenzt auf komplexe staatliche Entscheidungen übertragen. Zudem bleiben viele entscheidende Aspekte wie Bias, Datenquellen oder Haftungsfragen in der Alltagserfahrung unsichtbar und können nur über explizite Information verständlich gemacht werden.


Welche Auswirkungen hat die Studie auf die Kommunikationsstrategie von Regierungen und Behörden?

Regierungen und Behörden sollten strukturierte Informationsangebote wie Kurz-Erklärungen, Fact Sheets und Q&A-Formate priorisieren, statt allein auf „Pilotprojekte zum Anfassen“ zu setzen. Ziel ist es, eine gemeinsame Faktenbasis zu schaffen, Erwartungen zu managen und Transparenz über Zweck, Grenzen und Verantwortlichkeiten von KI-Systemen herzustellen.


Was bedeutet die Studie für Unternehmen, die KI-Lösungen an den öffentlichen Sektor verkaufen?

Unternehmen sollten Erklärbarkeit und Informationspakete als festen Bestandteil ihres Produkts verstehen, etwa in Form von laienverständlichen Modellbeschreibungen, Stakeholder-Präsentationen und Vorlagen für Bürgerkommunikation. Wer nachweislich verständliche, gut dokumentierte Systeme anbietet, kann sich in Ausschreibungen, Compliance-Prüfungen und beim Aufbau von Vertrauen einen klaren Wettbewerbsvorteil sichern.


Worin liegt der Unterschied zwischen „Erfahrung mit KI“ und „sachlicher Information über KI“ im Sinne der Studie?

„Erfahrung mit KI“ meint die individuelle Nutzung konkreter Anwendungen wie Chatbots oder Empfehlungssysteme, die oft fragmentarisch und subjektiv geprägt ist. „Sachliche Information über KI“ bezeichnet strukturierte, neutrale Erklärungen zu Funktionsweise, Risiken, Kontrollmechanismen und Verantwortlichkeiten, die eine gemeinsame, belastbare Entscheidungsgrundlage für Bürgerinnen und Bürger schaffen.


Was sollten öffentliche Verwaltungen jetzt konkret tun, um die Akzeptanz von KI-Projekten zu erhöhen?

Verwaltungen sollten zuerst eine Bestandsaufnahme ihrer KI-Vorhaben und der vorhandenen Dokumentation machen und dann einen einheitlichen KI-Informationssteckbrief als Mindeststandard einführen. Parallel dazu sollten Ausschreibungen um Anforderungen an Erklärbarkeit und Kommunikationsmaterial ergänzt sowie Schulungen zu KI-Grundlagen und Bürgerkommunikation aufgebaut werden.