Diese Website verwendet ausschließlich technisch notwendige Cookies. Weitere Informationen






KI bewerten, Patienten einbinden, KI demokratisieren

Aktuelle Forschungsbeiträge – eingeordnet für Kliniken, Pflege, Kommunen und Träger

KI-Forschung Gesundheitswesen

Von Forschungsbefunden zur praktischen Umsetzung!

Kurze Einführung  ·  von Thomas Bade

Transkript anzeigen

Willkommen auf der Webseite zu aktuellen Forschungsbeiträgen zum Einsatz künstlicher Intelligenz im Gesundheitswesen.

Im Mittelpunkt stehen drei aktuelle Forschungsarbeiten, die eine zentrale Frage beantworten: Wie kann künstliche Intelligenz im Gesundheitswesen verantwortungsvoll, fair und patientenorientiert eingesetzt werden.

Die vorgestellten Studien zeigen: Technische Leistungswerte allein reichen nicht aus. Entscheidend ist, ob künstliche Intelligenz im klinischen Alltag nachvollziehbar, sicher und sinnvoll eingesetzt werden kann.

Das AI for IMPACTS-Framework beschreibt dafür zentrale Bereiche: Erstens. Integration in Arbeitsabläufe, Zweitens. Monitoring und Governance, Drittens. Qualität und Transparenz, Viertens. Akzeptanz, Fünftens. wirtschaftliche Bewertung sowie Sechstens. den tatsächlichen Nutzen für Patienten und Versorgung.

Gleichzeitig machen die Studien deutlich: Patienten dürfen nicht nur Beobachter sein. Sie müssen frühzeitig in Entwicklung, Bewertung und Einführung von künstlicher Intelligenz eingebunden werden.
Denn gute KI-Systeme entstehen nicht allein durch Technologie — sondern durch Zusammenarbeit zwischen Fachkräften, Patienten, Organisationen und Entwicklern.

Die Inhalte dieser Seite übertragen wissenschaftliche Erkenntnisse in eine praktische Perspektive für Kliniken, Pflege, Kommunen und Träger.

Im unteren Bereich finden Sie zusätzlich eine Checkliste. Sie unterstützt dabei, KI-Anwendungen strukturiert, nachvollziehbar und praxisnah zu bewerten.
Füllen Sie diese Checkliste aus und speichern sie auf Ihrem Computer zur weiteren internen Bearbeitung.

Im Lernportal wird eine vertiefende Checkliste für Krankenhäuser, Arztpraxen, Pflege und Kommunen bereitgestellt.
Die Prüfkriterien orientieren sich an Anforderungen des EU AI Act sowie an weiteren internationalen Normen und unterstützen Einrichtungen dabei, KI-Anwendungen strukturiert, nachvollziehbar und praxisnah zu bewerten.

Ihr Thomas Bade

Executive Summary

Die eigentliche Frage ist nicht, welche KI am leistungsfähigsten ist — sondern wie sie fair, wirksam und gemeinsam entwickelt wird!

Drei Forschungsbeiträge beleuchten aus unterschiedlichen Perspektiven dasselbe Grundproblem. KI im Gesundheitswesen wird noch immer zu stark anhand isolierter technischer Metriken bewertet, während klinischer Alltag, organisatorischer Kontext und die Perspektive der Betroffenen häufig unzureichend berücksichtigt werden.

Das AI for IMPACTS-Framework (Jacob et al., JMIR 2025) liefert eine systematisch entwickelte Bewertungsstruktur mit 7 Clustern und 28 Subkriterien. Die Studie zu Patientenperspektiven (Adus et al., BMC 2023) zeigt, dass sinnvolle Patientenbeteiligung bei der KI-Entwicklung bislang weitgehend fehlt — obwohl sie entscheidend für Qualität, Fairness und Akzeptanz wäre. Der Beitrag zur Demokratisierung von KI (Welsh et al., Future Healthcare Journal 2024) ergänzt dies durch gemeinschaftsorientierte Ansätze für eine ethische KI-Entwicklung von unten nach oben.

Kernaussage: KI im Gesundheitswesen wird nur dann nachhaltig wirksam, wenn Bewertung, Entwicklung und Einführung gemeinsam, partizipativ und konsequent am Patientennutzen ausgerichtet erfolgen.

Studie 1: Das AI for IMPACTS-Framework (JMIR 2025)

Jacob et al. entwickelten auf Basis eines systematischen Reviews (44 eingeschlossene Studien aus PubMed, Cochrane, Scopus und IEEE Xplore, 2019–2024) ein umfassendes Bewertungsframework für KI-gestützte klinische Werkzeuge. Es geht bewusst über rein technische Kennzahlen hinaus und schließt soziale, organisatorische und klinische Faktoren ein. Die Kriterien sind in 7 Clustern mit 28 Subkriterien organisiert — benannt als AI for IMPACTS.

I

Integration, Interoperabilität und Workflow

Bewertet, wie nahtlos das KI-Tool in bestehende klinische Abläufe und Systeme (KIS, PACS, EHR) eingebunden ist. Schlechte Integration erhöht kognitive Belastung, bindet Ressourcen und gefährdet die Effizienz. Subkriterien: Infrastruktur, Interoperabilität, Workflow & Organisationsveränderungen.

M

Monitoring, Governance und Verantwortlichkeit

Klare Zuständigkeiten bei Fehlern, DSGVO-konforme Einwilligung, laufende Wartung und Audits, regulatorische Konformität (EU AI Act, MDR/IVDR) über den gesamten Lebenszyklus sowie Datensicherheit. Regulatorische Zulassung ersetzt keine klinische Validierung: Fast die Hälfte der FDA-zugelassenen KI-Geräte verfügt über keine ausreichenden Validierungsdaten.

P

Performance und Qualitätsmetriken

Über Sensitivität und Spezifität hinaus: Erklärbarkeit & Interpretierbarkeit, Fairness/Equity (keine Diskriminierung nach Ethnizität, Geschlecht, Einkommen), Zuverlässigkeit, Wiederholbarkeit, Reproduzierbarkeit sowie Robustheit & Generalisierbarkeit. Bildgebungsspezifisch: Dice-Koeffizient, Jaccard-Index. LLM-spezifisch: Halluzinationsrate, Empathiefunktionen.

A

Akzeptanz, Vertrauen und Schulung

Bereitschaft von Klinikern und Patienten zur Adoption, Qualität der Schulungs- und Supportangebote, Vertrauen in Zuverlässigkeit und ethische Aspekte, Usability (geringer kognitiver Aufwand) sowie User Centricity. Ohne adäquate Schulung bleiben KI-Tools wirkungslos — Endnutzer müssen auch Faktoren kennen, die die Leistung beeinflussen.

C

Kosten und wirtschaftliche Bewertung

Direkte Kosten (Anschaffung, Wartung, Implementierung) und indirekte Kosten (Schulung, Workflow-Unterbrechungen). Methoden: Kosteneffektivitätsanalyse, Kosten-Nutzen-Analyse (QALY/DALY), Kostenminimierung. Unvollständige Kostenbewertungen behindern Adoption und erzeugen finanzielle Risiken.

T

Technologische Sicherheit und Transparenz

Zuverlässiger, risikominimierer Betrieb gemäß klinischen Standards; verständliche Entscheidungslogik für alle Stakeholder; ethische Aufsicht und Human in Command — Kliniker behalten die Kontrolle und können KI-Entscheidungen überstimmen. Eine Analyse von 692 FDA-Geräten zeigte: In 96,4 % fehlten ethnische Daten, in 99,1 % sozioökonomische Angaben.

S

Skalierbarkeit und Impact

Klinische Wirksamkeit in realen Settings über diverse Patientenpopulationen hinweg, klinische Effizienz (Ressourcenoptimierung bei Zeit, Personal, Kosten), klinischer Nutzen für Diagnose und Therapieentscheidung. Umweltauswirkungen (Energieverbrauch, CO₂) wurden nur in 1 von 44 Studien erfasst.


Kerndaten aus dem systematischen Review!

Die Analyse von Jacob und seinem Forschungsteam zeigt ein grundlegendes Problem bei vielen KI-Studien im Gesundheitswesen. Zahlreiche Untersuchungen erklären nicht ausreichend, wie ihre Bewertungen entstanden sind oder wie die Ergebnisse überprüft wurden. Teilweise fehlen sogar klare Angaben zu den verwendeten Methoden. Gleichzeitig wurde deutlich, dass bestehende Bewertungsmodelle zwar ähnliche Themen behandeln, bislang jedoch kein einzelnes Framework alle wichtigen Bereiche vollständig abdeckt.

Praktische Botschaft

Für Gesundheitswesen und Kommunen bedeutet das: Technische Kennzahlen wie Genauigkeit und Validierung sind notwendig, aber nicht hinreichend.
Die eigentliche Herausforderung liegt in der kontrollierten Einführung, im belastbaren Betrieb und in der verantwortlichen Einbettung in bestehende Fach- und Verwaltungsprozesse.

44eingeschlossene Studien im systematischen Review (PubMed, Cochrane, Scopus, IEEE Xplore, 2019–2024)
28spezifische Subkriterien in 7 Clustern — das AI for IMPACTS-Framework
64 %der analysierten Frameworks ohne Validierung — ein strukturelles Problem im Feld

Studie 2: Patientenperspektiven auf die KI-Entwicklung (BMC 2023)

Timing

Ab der Problemidentifikation einbinden

Patienten wollen nicht erst bei der Evaluation eines fertigen Produkts befragt werden, sondern bereits beim Festlegen der Forschungsfrage mitbestimmen. Ihre Perspektive auf Zugangshindernisse und Versorgungslücken unterscheidet sich fundamental von der der Entwickler.

Aufklärung

KI-Literacy als Voraussetzung

Ohne Grundwissen über KI ist substanzielle Beteiligung nicht möglich. Die Studie entwickelte ein 30-minütiges Schulungsmodul. Weder Alter noch Bildungsgrad allein bestimmen das KI-Vorwissen — das Modul ist frei zugänglich.

Diversität

Heterogenität ist Qualitätskriterium

Homogene Patientenstichproben führen zu verzerrten KI-Systemen. Ethnische Minderheiten, einkommensschwache Gruppen, Nicht-Muttersprachler und ältere Menschen müssen aktiv über Gemeinschaftsorganisationen und mehrsprachige Materialien rekrutiert werden.

Fairness

Vergütung und Barrierefreiheit

Patientenbeteiligung ist Arbeit. Sie erfordert angemessene Kompensation für Zeit, Fahrkosten und entgangenes Einkommen. Zudem müssen Formate physisch, sprachlich und kognitiv zugänglich sein — sonst schließen sich marginalisierte Gruppen selbst aus.

Partnerschaft

Kein Alibi — echte Kompetenz

Alle Teilnehmenden lehnten symbolische Beteiligung als Checkbox ab. Patientenwissen ist Kompetenz — genauso wie das Fachwissen von Klinikern. Diese Haltung muss institutionell verankert und akademisch anerkannt werden, z.B. durch Ko-Autorenschaft.

Interdisziplin

Interprofessionelle Kooperation strukturieren

KI-Entwicklung im Gesundheitswesen braucht Entwickler, Kliniker, Ethiker, Forscher und Patienten gemeinsam am Tisch. Bislang fehlen etablierte Strategien für diese Kooperation. Ansätze wie "Talking Circles" können Machtgefälle reduzieren.


Studie 3: Demokratisierung von KI im Gesundheitswesen (Future Healthcare Journal 2024)

Ansatz 1

Bedürfnisse verstehen und priorisieren

Identifizieren, wer am KI-Lebenszyklus beteiligt ist — Patienten, Pflegende, Kliniker, NGOs, Behörden. Zusammenarbeiten, um das Problem ganzheitlich zu verstehen. PPIE-Netzwerke (Patient and Public Involvement and Engagement) kontinuierlich und ab Beginn einbinden.

Ansatz 2

Gemeinsame Sprache definieren

Fachbegriffe, Jargon und kulturelle Unterschiede schaffen Hürden. Bürgerjurys, offene Foren und Fokusgruppen helfen, ein gemeinsames Vokabular zu entwickeln. Open-Source-Tools wie das Data Hazards Project als Ausgangsbasis nutzen.

Ansatz 3

Gegenseitiges Lernen und Co-Kreation

Patienten sind keine Empfänger — sie sind Mitgestalter, die bereits durch ihre einwilligungsbasierten Daten zur KI beitragen. Aktive Co-Creation muss bei der Ideenfindung beginnen. Human-in-the-Loop-Ansätze sichern klinische Kontrolle.

4

KI demokratisieren: Macht dezentralisieren

Dezentralisierung von Macht und Zugang: Federated Learning als Ansatz, KI-Modelle zu trainieren, ohne sensible Daten zu teilen. Algorithmische Verzerrungen werden durch Diversifizierung der Trainings- und Testdaten reduziert.

5

Obligatorische Audits und Modell-"Pässe"

Demokratisierte KI-Entwicklung beinhaltet Berichtspflichten: Versionskontrolle, Stresstests, Open-Source-Code zur Überprüfung, anonymisierte Testdaten und Nachweis von Validierungsstudien — vergleichbar einem Beipackzettel für KI-Systeme.

6

Politik muss Co-Design belohnen

Ein "Sandwich"-Ansatz kombiniert Bottom-up-Prozesse mit Top-down-Richtlinien. Fördermittel müssen Zeit für gemeinsame Gestaltung einschließen. Anreize für Co-Design außerhalb der Entwickler-Echokammer schaffen.

Demokratisierung

Was heißt das für die Praxis?

Welsh et al. betonen: KI-Entwicklung findet zu oft in geschlossenen Silos statt — weit weg von den Betroffenen. Das verstärkt bestehende Ungleichheiten, anstatt sie zu überwinden.

Praxislogik: Bottom-up vor Top-down. Gemeinschaftsorientierte Ansätze spiegeln die Bedürfnisse der Betroffenen wider — nicht die Präferenzen der Entwickler.


Von den Forschungsbefunden zur praktischen Konsequenz

Befund aus den Studien Bedeutung für Gesundheitswesen Praktische Konsequenz
Technische Metriken allein reichen nichtAUC und Sensitivität sagen nichts über klinische Einsatzreife, Workflow-Fit oder Patientennutzen.AI for IMPACTS-Checkliste bei Beschaffung und Einführung einsetzen.
Patientenbeteiligung ist Ausnahme, nicht RegelKI-Anwendungen spiegeln die Bedarfe marginalisierter Gruppen zu wenig wider.PPIE-Prozesse frühzeitig und strukturiert einplanen — mit Budget und Verantwortlichen.
Diversität in Daten und Beteiligung fehltAlgorithmische Verzerrungen treffen besonders vulnerable Gruppen.Repräsentationsqualität bei Trainings- und Validierungsdaten prüfen und dokumentieren.
Regulierung hinkt der Entwicklung hinterherCE-Kennzeichnung oder FDA-Clearance kein Beleg für reale klinische Wirksamkeit.Eigene interne Prüfkriterien festlegen — über die Zulassung hinaus.
KI-Demokratisierung erfordert offene InfrastrukturAbhängigkeit von Einzelanbietern bei Daten, Modellen und Infrastruktur wächst.Open-Source-Optionen prüfen, Federated Learning in klinischen Netzwerken evaluieren.

AI for IMPACTS-Checkliste Thomas Bade
85072 Eichstätt
Email: tb@thomas-bade.de
Tel: 08421 675 19 77
Erstellt am: --.--.----

AI for IMPACTS – Checkliste für patientenorientierte KI

Governance- und Wirkungscheck
Die Checkliste überträgt die Logik des AI for IMPACTS-Frameworks in eine operative Prüfroutine für Gesundheitswesen, Pflege, Kommunen und Träger.

Im Mittelpunkt stehen nicht isolierte Modellkennzahlen, sondern Integration, Monitoring, Performance, Akzeptanz, Kosten, Transparenz und skalierbarer Nutzen.

Bewertungslogik

Vorhanden steht für nachvollziehbar umgesetzt.
In Prüfung
markiert offene Klärung mit Kommentar.
Nicht vorhanden
zeigt eine Governance- oder Umsetzungslücke.

Management Summary

Der Prüfrahmen hilft, KI nicht nur als Technologie, sondern als verantworteten Versorgungsprozess zu bewerten. Entscheidend ist die Verbindung von Patientennutzen, fachlicher Kontrolle und organisatorischer Belastbarkeit.

I · Integration, Interoperabilität und Workflow

PrüfkriteriumBewertungKommentar / Maßnahme
Ist beschrieben, wie KI in reale Versorgungs- und Arbeitsprozesse eingebunden wird?
Werden Schnittstellen zu KIS, EHR, Patientenportal oder anderen Systemen nachvollziehbar berücksichtigt?
Wird deutlich, dass KI keine Parallelstruktur, sondern Teil des Regelbetriebs sein muss?

M · Monitoring, Governance und Verantwortlichkeit

PrüfkriteriumBewertungKommentar / Maßnahme
Sind Verantwortlichkeiten für Einführung, Betrieb, Kontrolle und Eskalation benannt?
Wird laufendes Monitoring über den gesamten KI-Lebenszyklus adressiert?
Werden Datenschutz, Einwilligung, Dokumentation und regulatorische Anschlussfähigkeit sichtbar?

P · Performance und Qualitätsmetriken

PrüfkriteriumBewertungKommentar / Maßnahme
Werden technische Kennzahlen um klinische Nutzbarkeit und reale Versorgungsqualität ergänzt?
Wird darauf geachtet, dass die verwendeten Daten unterschiedliche Menschen und Patientengruppen fair und ausgewogen berücksichtigen?
Wird nachvollziehbar erklärt, wie der Anbieter eine ausreichende Betriebssicherheit des KI-Systems sicherstellt?

A · Akzeptanz, Vertrauen und Schulung

PrüfkriteriumBewertungKommentar / Maßnahme
Werden Patientinnen und Patienten als aktive Stakeholder und nicht nur als Datenquelle verstanden?
Wird KI-Kompetenz für Fachkräfte, Leitung und Betroffene als Voraussetzung beschrieben?
Ist die Sprache verständlich, realistisch und frei von überhöhten Leistungsversprechen?

C · Kosten und wirtschaftliche Bewertung

PrüfkriteriumBewertungKommentar / Maßnahme
Werden Anschaffung, Implementierung, Schulung, Wartung und Prozessfolgekosten berücksichtigt?
Wird wirtschaftlicher Nutzen mit Versorgungsqualität und nicht nur mit Effizienz begründet?

T · Technologische Sicherheit und Transparenz

PrüfkriteriumBewertungKommentar / Maßnahme
Werden Erklärbarkeit, Nachvollziehbarkeit und Grenzen der KI-Ausgabe dargestellt?
Bleibt der Grundsatz Human in Command klar erkennbar?
Werden Risiken wie Halluzinationen, Bias, Fehlalarme oder Automationsvertrauen benannt?

S · Skalierbarkeit und Impact

PrüfkriteriumBewertungKommentar / Maßnahme
Wird der konkrete Nutzen für Patientinnen, Patienten und Versorgungsteams beschrieben?
Ist erkennbar, wie Wirkung im Regelbetrieb gemessen und nachgesteuert wird?
Werden Skalierung, Übertragbarkeit und mögliche unerwünschte Nebenfolgen berücksichtigt?

Gesamtbewertung

Die AI for IMPACTS-Checkliste macht sichtbar, ob KI patientenorientiert, governancefähig und betrieblich anschlussfähig gedacht wird. Für Kliniken, Pflegeeinrichtungen und Kommunen entsteht damit ein belastbarer Prüfpfad von der fachlichen Idee bis zum verantworteten Regelbetrieb.

Automatische Berechnung

0 %Erfüllungsgrad
0Vorhanden
0In Prüfung
0Nicht vorhanden
Status: Noch keine Bewertung vorgenommen.

Die entscheidende Frage lautet nicht:
Welche KI ist am leistungsfähigsten?

Die eigentliche Frage lautet: Wie kann KI in meiner Einrichtung fair, wirksam und verantwortbar eingeführt werden — unter Einbeziehung derer, die sie betrifft?

Genau das leisten die drei Studien gemeinsam: Sie liefern Bewertungskriterien, Beteiligungsrahmen und Demokratisierungsansätze, die zusammen ein umfassendes Bild ethischer KI-Entwicklung im Gesundheitswesen ergeben.

Für Leitungsebene und Träger bedeutet das: KI-Bewertung, Patientenbeteiligung und ethische Entwicklung sind keine optionalen Ergänzungen — sie sind Kernbestandteile einer zukunftsfähigen KI-Strategie.

Übertragung in die Praxis

Einrichtungen brauchen Urteilsfähigkeit, nicht mehr Informationen

Die meisten Einrichtungen haben keinen Mangel an KI-Informationen. Was fehlt, ist eingeordnetes, anwendbares Wissen – und interne Personen, die es durchsetzen können.

Im Lernportal (thomas-bade.org) wird eine vertiefende AI for IMPACTS-Checkliste für Gesundheitswesen, Pflege und Kommunen bereitgestellt.

Die Prüfkriterien orientieren sich an Anforderungen des EU AI Act sowie an der ISO/IEC 42005:2025 und unterstützen Einrichtungen dabei, KI-Anwendungen strukturiert, nachvollziehbar und praxisnah zu bewerten.

Das Ziel ist der Aufbau operativer KI-Kompetenz für Verantwortliche, Fachbereiche und Organisationen, damit KI-Systeme nicht nur technisch funktionieren, sondern auch regulatorisch, organisatorisch und patientenorientiert verantwortbar eingesetzt werden können.

Drei Forschungsbeiträge im Überblick

AI for IMPACTS · Patientenbeteiligung · Demokratisierung


Jacob et al. JMIR 2025   Adus et al. BMC 2023   Welsh et al. FHJ 2024
Die Studien in der Praxis anwenden?

Ich zeige Ihnen, wie Sie AI for IMPACTS, Patientenbeteiligung und ethische KI-Entwicklung für Ihre Einrichtung nutzen.

KI Transparenzhinweis  ART. 50 · VO (EU) 2024/1689 · EU AI ACT
Die Auswertung der englisch- und deutschsprachigen Quelldokumente erfolgte mit Unterstützung von KI-Sprachmodellen.
Thomas Bade hat alle Inhalte inhaltlich geprüft, fachlich bewertet und freigegeben.
KI-Lernportal KI Lernformate thomas-bade.org