Diese Website verwendet ausschließlich technisch notwendige Cookies. Weitere Informationen


Partizipative KI-Entwicklung im Pflegekontext

KIDELIR – Partizipative KI-Entwicklung im klinischen Kontext 2026

Pflege (2026) · Hogrefe · DOI 10.1024/1012-5302/a001076

Partizipative KI-Entwicklung im klinischen Kontext: Was implizites Pflegewissen mit KI-Systemen zu tun hat.

Rambach T., Gleim P., Heizmann C., Mählmann S., Ritzi A., Ziegler S., Kellmeyer P., Kunze C. (2026). Hochschule Furtwangen · Universität Mannheim · Universitätsklinikum Freiburg.

Die zentrale Botschaft: Trotz technischer Fortschritte scheitert KI im Pflegekontext – weil implizites Erfahrungswissen in der Entwicklung nicht systematisch eingebunden wird. Partizipative Formate sind der Schlüssel dazu.

Executive Summary · KIDELIR 2022–2025

Worum es in dieser Studie wirklich geht

Das BMFTR-geförderte Projekt KIDELIR entwickelte am Universitätsklinikum Freiburg ein KI-basiertes Entscheidungsunterstützungssystem (CDSS) zur Delirprädiktion – partizipativ, mit Pflegefachpersonen und Ärztinnen aus fünf Stationen. Die qualitative Sekundäranalyse untersucht, welche Wissensformen die eingesetzten Methoden erschlossen.

Für Gesundheitseinrichtungen bedeutet das: KI-Systeme, die ohne systematische Einbindung von Pflegefachpersonen entwickelt werden, treffen auf Arbeitslogiken, für die sie nicht konzipiert wurden – und scheitern damit an der Realität des klinischen Alltags.

Projekthintergrund

5 Stationen · 21 Teilnehmende

Chirurgie, Geriatrie, Neurochirurgie, Nephrologie und medizinische Intensivtherapie am Universitätsklinikum Freiburg. Partizipative Aktivitäten von 2022 bis 2025.

Methodik

5 partizipative Formate

Fallvignetten, Health Information Mapping, Einzelinterviews, Gruppendiskussion sowie Participatory System Mapping kombiniert mit Theory of Change Modelling.

Kernbefund

Mehr als Anforderungserhebung

Partizipative Formate erschließen implizites Erfahrungswissen, Dokumentationsbrüche und Einschätzungslogiken – und machen sie für Entwicklungsentscheidungen nutzbar.

Die 5 partizipativen Formate

Welche Methode erschließt welches Wissen?

1 · Fallvignetten (Dezember 2022) Pflegefachpersonen entwickelten kollaborativ Fallbeschreibungen typischer und untypischer Delirverläufe. Ergebnis: Implizite Wahrnehmungsmuster wurden sichtbar – darunter die Dominanz hyperaktiver Verläufe (4/6 Vignetten) und ein deutlicher geschlechtsbezogener Bias (5/6 Fälle männlich).
2 · Health Information Mapping (Dezember 2022) Teilnehmende kartierten delirrelevante Informationen entlang des Versorgungsverlaufs und markierten deren digitale Verfügbarkeit. Ergebnis: Dokumentationsbrüche und das Spannungsfeld zwischen mündlicher Übergabe und formalisierter Dokumentation wurden sichtbar.
3 · Einzelinterviews (April–Juni 2023) 12 leitfadengestützte Interviews mit Pflegefachpersonen (n=7) und Ärztinnen/Ärzten (n=5). Ergebnis: Individuelle Erwartungen, professionsspezifische Anforderungen und Grenzen zusätzlicher Arbeitsbelastung wurden differenziert erfasst.
4 · Moderierte Gruppendiskussion (Dezember 2022) Abschlussformat des ersten Workshops zur Exploration geteilter Sichtweisen. Ergebnis: Kollektive Deutungen und die Sorge, dass KI-Hinweise ohne verbindliche Konsequenzen folgenlos bleiben könnten, wurden explizit.
5 · Participatory System Mapping + Theory of Change Modelling (April 2024) Interprofessionelle Kleingruppen entwickelten Systemkarten des Delirmanagements und modellierten Wirkungspfade eines KI-Systems. Ergebnis: Systemische Zusammenhänge zwischen Belastung, Kommunikation und Ressourcen sowie die strukturellen Grenzen der KI-Lösung wurden verhandelbar.
Kritischer Befund · Bias-Erkennung

Was die Fallvignetten über Wahrnehmungsverzerrungen zeigen

Hyperaktiver Bias

In 4 von 6 Fallvignetten dominierten hyperaktive Symptome. Hypoaktive Delirverläufe – klinisch häufig – wurden als „untypisch" eingeordnet. Dieser Bias kann sich direkt in KI-Trainingsdaten fortsetzen.

Geschlechtsbezogener Bias

5 von 6 beschriebenen Patienten waren männlich. In keiner Fallvignette wurde eine Patientin beschrieben – ein strukturelles Muster, das bei der Datenauswahl für KI-Systeme explizit adressiert werden muss.

Situative statt kriterienbasierte Logik

Einschätzungen folgten weniger festen Scores als konkreten Situationsmerkmalen: lange Wartezeiten, Verhaltensänderungen nach Angehörigenkontakt, soziale Isolation. KI-Systeme operieren mit abstrahierten Variablen.

Datenlücken im System

Pflegerisch hochrelevante Faktoren wie Lärmpegel, Trinkverhalten oder Beziehungsqualität zu Angehörigen sind kaum digital verfügbar. KI-Ausgaben dürfen nicht als vollständige Abbildung klinischer Realität verstanden werden.

Zentrale Erkenntnis

Die eigentliche Frage lautet nicht: „Welche Daten haben wir für das KI-System?"

Sondern: Welche Daten sind pflegerisch relevant – und welche davon sind überhaupt digital verfügbar, strukturiert dokumentiert und für ein Algorithmus verwertbar?

Das Health Information Mapping zeigt: Verfügbare Daten bilden nur einen Ausschnitt pflegerischer Versorgungsrealität ab. Wer KI-Systeme im Pflegekontext einsetzt, muss Transparenz darüber herstellen, welche Informationen einfließen und welche nicht – um hybride Entscheidungsprozesse zu ermöglichen.

Ergebnisübersicht · Rambach et al. 2026

Welche Methode erschloss welches Wissen – und was folgt daraus?

Partizipatives Format Erschlossenes Wissen Bedeutung für KI-System Konsequenz für Einrichtungen
Fallvignetten Implizite Einschätzungslogiken, stereotype Wahrnehmungsmuster Bias-Risiko Bias in Trainingsdaten identifizierbar; diversitätsbewusste Datensätze entwickeln Vignetten als Instrument zur Bias-Prüfung vor KI-Beschaffung einsetzen
Health Information Mapping Dokumentationsbrüche, informelles Wissen, digitale Datenlücken Einordnung Datenverfügbarkeit realistisch einschätzen; hybride Entscheidungsprozesse planen Vor KI-Einführung systematisch prüfen, welche Daten tatsächlich verfügbar sind
Einzelinterviews Professionsspezifische Anforderungen, wahrgenommene Belastungsgrenzen Chance Systemanforderungen an reale Arbeitslogiken anpassen; Zusatzlast minimieren Interviews als festen Bestandteil jeder KI-Einführung im Pflegekontext etablieren
Gruppendiskussion Kollektive Deutungen, Aushandlungsprozesse zu Verantwortlichkeiten kritisch Rollenverteilung und Konsequenzlogik des KI-Systems früh klären KI-Hinweise müssen verbindliche Konsequenzen haben – sonst werden sie ignoriert
PSM + ToC Modelling Systemische Zusammenhänge, Wirkpfade und strukturelle Grenzen der KI Pflicht Systemziele realistisch setzen; nicht adressierbare Probleme benennen KI-System als sozio-technisches System verstehen – nicht als Automatisierungslösung
Schlussfolgerungen · Rambach et al. 2026

Was Einrichtungen aus der KIDELIR-Studie ableiten sollten

Partizipation ist keine Kür – sie ist Voraussetzung für Akzeptanz.

KI-Systeme ohne Einbindung von Pflegefachpersonen treffen auf Arbeitslogiken, für die sie nicht konzipiert wurden.

Datenqualität beginnt mit dem Verständnis von Dokumentationspraktiken.

Verfügbare Daten bilden nur einen Ausschnitt pflegerischer Versorgungsrealität ab – das muss transparent gemacht werden.

Bias-Erkennung muss Bestandteil der Systementwicklung sein.

Für Hochrisiko-KI (EU AI Act Anhang III) ist die Prüfung auf Bias in Trainingsdaten eine regulatorische Anforderung.

Partizipation verändert Projektziele – und das ist konstruktiv.

Im KIDELIR-Projekt verschob sich der Fokus von Risikoprädiktion zu Handlungsempfehlungen – näher an der klinischen Realität.

KI im Pflegekontext ist ein sozio-technisches System.

Es muss kognitive und affektive Dimensionen berücksichtigen – als unterstützendes Werkzeug, das Entscheidungsräume offen hält.

Methodenmix ist entscheidend – eine Methode reicht nicht.

Fallvignetten erschließen andere Wissensformen als System-Mapping. Ein abgestimmter Mix aus explorativen und strukturierenden Formaten ist erforderlich.

Human Oversight muss organisatorisch verankert sein (Art. 26 EU AI Act).

Pflegefachpersonen müssen KI-Outputs hinterfragen und überschreiben können – das ist keine Selbstverständlichkeit.

KI-Kompetenz durch Mitgestaltung (Art. 4 EU AI Act).

Fachkräfte, die KI co-designen, verstehen deren Grenzen besser als solche, die ein fertiges System übernehmen.

Originalzitat aus dem Datenmaterial: „Man hat etwas an der Hand, wenn man in den Austausch mit den Ärzten geht – wir haben einen Beweis." – Pflegefachperson, Beobachtungsprotokoll Workshop 2 (PSM/ToC). Dies verdeutlicht: Partizipativ entwickelte KI kann Pflegefachpersonen in hierarchischen Strukturen handlungsfähiger machen.
Typische Stolpersteine · KI im Pflegekontext

Woran KI-Systeme im klinischen Alltag scheitern

Die KIDELIR-Studie zeigt sechs wiederkehrende Muster, die KI-Systeme im Pflegekontext zum Scheitern bringen – und wie partizipative Entwicklung gegensteuern kann.

🔧

Fehlende Anschlussfähigkeit

KI-Systeme werden an idealisierten Prozessmodellen ausgerichtet – nicht an realen klinischen Arbeitslogiken. Das führt zu Systemen, die technisch funktionieren, aber im Alltag ignoriert werden.

📂

Datenlücken unterschätzt

Pflegerisch relevante Informationen wie Lärmpegel, Trinkverhalten oder soziale Faktoren sind kaum digital verfügbar. KI-Systeme, die auf diese Daten angewiesen sind, treffen auf eine Datenbasis, die die Versorgungsrealität nicht abbildet.

📉

Bias in Trainingsdaten

Klinische Einschätzungslogiken sind systematisch verzerrt – etwa durch Dominanz hyperaktiver Symptome oder geschlechtsbezogene Stereotype. Diese Verzerrungen setzen sich in Trainingsdaten fort und werden durch KI-Systeme reproduziert.

🚧

Folgenlose KI-Hinweise

KI-Ausgaben ohne verbindliche Konsequenzen werden ignoriert. Pflegefachpersonen befürchten: „dann guckt man das an und dann klickt man das weg und dann macht halt irgendwie keiner was." Konsequenzlogik muss organisatorisch verankert sein.

🐌

Partizipation als nachgelagerte Testung

Pflegefachpersonen werden erst eingebunden, wenn das System schon konzipiert ist – nicht als Co-Designer. Das verhindert, dass das System an klinischen Bedarfen ausgerichtet wird.

⚖️

Human Oversight nicht verankert

Pflegefachpersonen haben kein klares Recht und keine klare Pflicht, KI-Outputs zu hinterfragen. Artikel 26 EU AI Act verlangt menschliche Aufsicht – diese muss organisatorisch und technisch ermöglicht werden.

Selbsttest · Partizipative KI-Readiness

Partizipative KI-Readiness-Check

Wie gut ist Ihre Einrichtung auf partizipative KI-Entwicklung und -Einführung vorbereitet? Wählen Sie alle Aussagen aus, die zutreffen:

Pflegefachpersonen und Ärztinnen/Ärzte werden aktiv in die Auswahl und Entwicklung von KI-Systemen eingebunden – nicht nur informiert.
Wir wissen, welche für das KI-System relevanten Informationen bei uns tatsächlich digital verfügbar sind – und welche nicht.
KI-Trainingsdaten werden vor dem Einsatz auf mögliche Verzerrungen (z. B. Geschlecht, Diagnosemuster) geprüft.
Pflegefachpersonen können KI-Ausgaben jederzeit hinterfragen und überschreiben – und wissen, wie sie das tun.
KI-Hinweise in unserem System haben definierte Konsequenzen – sie führen zu dokumentierten Handlungsschritten, nicht zu optionalen Hinweisen.
Bei der Beschaffung von KI-Systemen prüfen wir systematisch, welche Daten in das System einfließen und welche Lücken bestehen.
EU AI Act-Anforderungen (insb. Hochrisiko-Klassifikation, Art. 26 Betreiberverantwortung, Art. 4 Kompetenz) sind in unsere KI-Prozesse integriert.
KI-Systeme werden im Regelbetrieb aktiv auf Veränderungen, Fehler und unerwartete Ausgaben überwacht – mit klaren Eskalationswegen.
Ihre Punktzahl
0 / 8
Wählen Sie die zutreffenden Aussagen aus, um eine Einordnung zu erhalten.
Empfehlung für die Praxis

Ein pragmatischer Fahrplan für partizipative KI-Einführung

1
Fachpersonal einbinden

Pflegefachpersonen, Ärztinnen und Ärzte werden von Beginn an als Co-Designer eingebunden – nicht als Testnutzende am Ende. Bedarfserhebung durch Fallvignetten und Interviews.

Partizipation Co-Design Pflege
2
Datenbasis prüfen

Systematisch erfassen, welche pflegerisch relevanten Informationen digital verfügbar sind – und welche nicht. Health Information Mapping als Methode einsetzen.

Datentransparenz HIMP DSGVO Art. 35
3
Bias prüfen

Trainingsdaten auf Verzerrungen prüfen: Welche Diagnosegruppen, Geschlechter und Versorgungssituationen sind über- oder unterrepräsentiert?

Bias-Audit Fairness EU AI Act Anh. III
4
Human Oversight verankern

Klare Prozesse definieren, wie Pflegefachpersonen KI-Ausgaben hinterfragen, überschreiben und eskalieren können. Konsequenzlogik organisatorisch verankern.

Art. 26 EU AI Act Monitoring Eskalation
Originalveröffentlichung

Rambach T., Gleim P., Heizmann C., Mählmann S., Ritzi A., Ziegler S., Kellmeyer P., Kunze C. (2026). Partizipative Prozesse in der Entwicklung von KI-Systemen im klinischen Kontext: Eine qualitative Sekundäranalyse.

Pflege (2026), 1–11. DOI: 10.1024/1012-5302/a001076. Hogrefe. Gefördert durch BMFTR im Rahmen des Projekts KIDELIR (16SV8864/16SV8865).

Link zur Studie
Partizipative KI-Einführung begleiten lassen?

Ich zeige Ihnen, wie Sie Pflegefachpersonen strukturiert einbinden, Bias-Risiken erkennen und EU AI Act-Anforderungen erfüllen.