Partizipative KI-Entwicklung im Pflegekontext

Partizipative KI-Entwicklung im klinischen Kontext: Was implizites Pflegewissen mit KI-Systemen zu tun hat.
Rambach T., Gleim P., Heizmann C., Mählmann S., Ritzi A., Ziegler S., Kellmeyer P., Kunze C. (2026). Hochschule Furtwangen · Universität Mannheim · Universitätsklinikum Freiburg.
Die zentrale Botschaft: Trotz technischer Fortschritte scheitert KI im Pflegekontext – weil implizites Erfahrungswissen in der Entwicklung nicht systematisch eingebunden wird. Partizipative Formate sind der Schlüssel dazu.
Worum es in dieser Studie wirklich geht
Das BMFTR-geförderte Projekt KIDELIR entwickelte am Universitätsklinikum Freiburg ein KI-basiertes Entscheidungsunterstützungssystem (CDSS) zur Delirprädiktion – partizipativ, mit Pflegefachpersonen und Ärztinnen aus fünf Stationen. Die qualitative Sekundäranalyse untersucht, welche Wissensformen die eingesetzten Methoden erschlossen.
Für Gesundheitseinrichtungen bedeutet das: KI-Systeme, die ohne systematische Einbindung von Pflegefachpersonen entwickelt werden, treffen auf Arbeitslogiken, für die sie nicht konzipiert wurden – und scheitern damit an der Realität des klinischen Alltags.
5 Stationen · 21 Teilnehmende
Chirurgie, Geriatrie, Neurochirurgie, Nephrologie und medizinische Intensivtherapie am Universitätsklinikum Freiburg. Partizipative Aktivitäten von 2022 bis 2025.
5 partizipative Formate
Fallvignetten, Health Information Mapping, Einzelinterviews, Gruppendiskussion sowie Participatory System Mapping kombiniert mit Theory of Change Modelling.
Mehr als Anforderungserhebung
Partizipative Formate erschließen implizites Erfahrungswissen, Dokumentationsbrüche und Einschätzungslogiken – und machen sie für Entwicklungsentscheidungen nutzbar.
Welche Methode erschließt welches Wissen?
Was die Fallvignetten über Wahrnehmungsverzerrungen zeigen
Hyperaktiver Bias
In 4 von 6 Fallvignetten dominierten hyperaktive Symptome. Hypoaktive Delirverläufe – klinisch häufig – wurden als „untypisch" eingeordnet. Dieser Bias kann sich direkt in KI-Trainingsdaten fortsetzen.
Geschlechtsbezogener Bias
5 von 6 beschriebenen Patienten waren männlich. In keiner Fallvignette wurde eine Patientin beschrieben – ein strukturelles Muster, das bei der Datenauswahl für KI-Systeme explizit adressiert werden muss.
Situative statt kriterienbasierte Logik
Einschätzungen folgten weniger festen Scores als konkreten Situationsmerkmalen: lange Wartezeiten, Verhaltensänderungen nach Angehörigenkontakt, soziale Isolation. KI-Systeme operieren mit abstrahierten Variablen.
Datenlücken im System
Pflegerisch hochrelevante Faktoren wie Lärmpegel, Trinkverhalten oder Beziehungsqualität zu Angehörigen sind kaum digital verfügbar. KI-Ausgaben dürfen nicht als vollständige Abbildung klinischer Realität verstanden werden.
Die eigentliche Frage lautet nicht: „Welche Daten haben wir für das KI-System?"
Sondern: Welche Daten sind pflegerisch relevant – und welche davon sind überhaupt digital verfügbar, strukturiert dokumentiert und für ein Algorithmus verwertbar?
Das Health Information Mapping zeigt: Verfügbare Daten bilden nur einen Ausschnitt pflegerischer Versorgungsrealität ab. Wer KI-Systeme im Pflegekontext einsetzt, muss Transparenz darüber herstellen, welche Informationen einfließen und welche nicht – um hybride Entscheidungsprozesse zu ermöglichen.
Welche Methode erschloss welches Wissen – und was folgt daraus?
| Partizipatives Format | Erschlossenes Wissen | Bedeutung für KI-System | Konsequenz für Einrichtungen |
|---|---|---|---|
| Fallvignetten | Implizite Einschätzungslogiken, stereotype Wahrnehmungsmuster Bias-Risiko | Bias in Trainingsdaten identifizierbar; diversitätsbewusste Datensätze entwickeln | Vignetten als Instrument zur Bias-Prüfung vor KI-Beschaffung einsetzen |
| Health Information Mapping | Dokumentationsbrüche, informelles Wissen, digitale Datenlücken Einordnung | Datenverfügbarkeit realistisch einschätzen; hybride Entscheidungsprozesse planen | Vor KI-Einführung systematisch prüfen, welche Daten tatsächlich verfügbar sind |
| Einzelinterviews | Professionsspezifische Anforderungen, wahrgenommene Belastungsgrenzen Chance | Systemanforderungen an reale Arbeitslogiken anpassen; Zusatzlast minimieren | Interviews als festen Bestandteil jeder KI-Einführung im Pflegekontext etablieren |
| Gruppendiskussion | Kollektive Deutungen, Aushandlungsprozesse zu Verantwortlichkeiten kritisch | Rollenverteilung und Konsequenzlogik des KI-Systems früh klären | KI-Hinweise müssen verbindliche Konsequenzen haben – sonst werden sie ignoriert |
| PSM + ToC Modelling | Systemische Zusammenhänge, Wirkpfade und strukturelle Grenzen der KI Pflicht | Systemziele realistisch setzen; nicht adressierbare Probleme benennen | KI-System als sozio-technisches System verstehen – nicht als Automatisierungslösung |
Was Einrichtungen aus der KIDELIR-Studie ableiten sollten
KI-Systeme ohne Einbindung von Pflegefachpersonen treffen auf Arbeitslogiken, für die sie nicht konzipiert wurden.
Verfügbare Daten bilden nur einen Ausschnitt pflegerischer Versorgungsrealität ab – das muss transparent gemacht werden.
Für Hochrisiko-KI (EU AI Act Anhang III) ist die Prüfung auf Bias in Trainingsdaten eine regulatorische Anforderung.
Im KIDELIR-Projekt verschob sich der Fokus von Risikoprädiktion zu Handlungsempfehlungen – näher an der klinischen Realität.
Es muss kognitive und affektive Dimensionen berücksichtigen – als unterstützendes Werkzeug, das Entscheidungsräume offen hält.
Fallvignetten erschließen andere Wissensformen als System-Mapping. Ein abgestimmter Mix aus explorativen und strukturierenden Formaten ist erforderlich.
Pflegefachpersonen müssen KI-Outputs hinterfragen und überschreiben können – das ist keine Selbstverständlichkeit.
Fachkräfte, die KI co-designen, verstehen deren Grenzen besser als solche, die ein fertiges System übernehmen.
Woran KI-Systeme im klinischen Alltag scheitern
Die KIDELIR-Studie zeigt sechs wiederkehrende Muster, die KI-Systeme im Pflegekontext zum Scheitern bringen – und wie partizipative Entwicklung gegensteuern kann.
Fehlende Anschlussfähigkeit
KI-Systeme werden an idealisierten Prozessmodellen ausgerichtet – nicht an realen klinischen Arbeitslogiken. Das führt zu Systemen, die technisch funktionieren, aber im Alltag ignoriert werden.
Datenlücken unterschätzt
Pflegerisch relevante Informationen wie Lärmpegel, Trinkverhalten oder soziale Faktoren sind kaum digital verfügbar. KI-Systeme, die auf diese Daten angewiesen sind, treffen auf eine Datenbasis, die die Versorgungsrealität nicht abbildet.
Bias in Trainingsdaten
Klinische Einschätzungslogiken sind systematisch verzerrt – etwa durch Dominanz hyperaktiver Symptome oder geschlechtsbezogene Stereotype. Diese Verzerrungen setzen sich in Trainingsdaten fort und werden durch KI-Systeme reproduziert.
Folgenlose KI-Hinweise
KI-Ausgaben ohne verbindliche Konsequenzen werden ignoriert. Pflegefachpersonen befürchten: „dann guckt man das an und dann klickt man das weg und dann macht halt irgendwie keiner was." Konsequenzlogik muss organisatorisch verankert sein.
Partizipation als nachgelagerte Testung
Pflegefachpersonen werden erst eingebunden, wenn das System schon konzipiert ist – nicht als Co-Designer. Das verhindert, dass das System an klinischen Bedarfen ausgerichtet wird.
Human Oversight nicht verankert
Pflegefachpersonen haben kein klares Recht und keine klare Pflicht, KI-Outputs zu hinterfragen. Artikel 26 EU AI Act verlangt menschliche Aufsicht – diese muss organisatorisch und technisch ermöglicht werden.
Partizipative KI-Readiness-Check
Wie gut ist Ihre Einrichtung auf partizipative KI-Entwicklung und -Einführung vorbereitet? Wählen Sie alle Aussagen aus, die zutreffen:
Ein pragmatischer Fahrplan für partizipative KI-Einführung
Pflegefachpersonen, Ärztinnen und Ärzte werden von Beginn an als Co-Designer eingebunden – nicht als Testnutzende am Ende. Bedarfserhebung durch Fallvignetten und Interviews.
Systematisch erfassen, welche pflegerisch relevanten Informationen digital verfügbar sind – und welche nicht. Health Information Mapping als Methode einsetzen.
Trainingsdaten auf Verzerrungen prüfen: Welche Diagnosegruppen, Geschlechter und Versorgungssituationen sind über- oder unterrepräsentiert?
Klare Prozesse definieren, wie Pflegefachpersonen KI-Ausgaben hinterfragen, überschreiben und eskalieren können. Konsequenzlogik organisatorisch verankern.
|
Originalveröffentlichung
Rambach T., Gleim P., Heizmann C., Mählmann S., Ritzi A., Ziegler S., Kellmeyer P., Kunze C. (2026). Partizipative Prozesse in der Entwicklung von KI-Systemen im klinischen Kontext: Eine qualitative Sekundäranalyse. Pflege (2026), 1–11. DOI: 10.1024/1012-5302/a001076. Hogrefe. Gefördert durch BMFTR im Rahmen des Projekts KIDELIR (16SV8864/16SV8865). Link zur Studie |
Partizipative KI-Einführung begleiten lassen?
Ich zeige Ihnen, wie Sie Pflegefachpersonen strukturiert einbinden, Bias-Risiken erkennen und EU AI Act-Anforderungen erfüllen. |