Risk Categorization (CHAI) & Responsible AI (Eticas)
Was Sie auf dieser Seite finden
- Strukturierte Risikobewertung: Schritt-für-Schritt-Anleitung mit konkreten Bewertungskriterien
- Governance-Mapping: Wie die Frameworks ineinandergreifen und sich ergänzen
- Prüffähige Dokumentation: Vorlagen und Nachweisketten für interne/externe Audits
- Compliance-Readiness: Vorbereitung auf EU AI Act, MDR, DSGVO und behördliche Prüfungen
- Executive Summaries: Kompakte Entscheidungsvorlagen für Management und Stakeholder
Risikomanagement für KI
Diese Seite unterstützt Einrichtungen dabei, KI-Systeme entlang bewährter Governance- und Qualitätsprinzipien
strukturiert zu bewerten:
von der Zieldefinition über Daten- und Modellrisiken bis hin zu Betrieb, Monitoring
und Verantwortlichkeiten.
Im Fokus steht ein nachvollziehbarer Entscheidungsweg, der sich in bestehende
Managementsysteme (z. B. Qualität, IT-Sicherheit, Datenschutz, Medizinprodukt-/Compliance-Prozesse)
integrieren lässt. Ergebnis ist eine konsistente Risikoeinschätzung mit klaren Maßnahmen, Nachweisen und
Eskalationswegen – geeignet als Grundlage für interne Freigaben, Audits und Lieferantensteuerung.
Referenzprogramme im Überblick
EURAID-Leitfaden (European Responsible AI Development)
EURAID ist ein praxisorientierter Leitfaden für Krankenhäuser, die KI-Systeme „in-house“ entwickeln, validieren und in die Versorgung überführen. Der Ansatz setzt auf interdisziplinäre Zusammenarbeit, klar definierte Rollen, iterative Test- und Evaluationsschritte sowie ein tragfähiges Change- und Qualifizierungskonzept. Damit liefert EURAID eine robuste Blaupause, wie KI verantwortungsvoll und dauerhaft in die Routineversorgung integriert werden kann.
Einsatznutzen: Governance-Struktur, Reifegrad- und Prozesslogik, klinische Validierung, Umsetzungsfahrplan.
Quelle: Medizinische Fakultät Carl Gustav Caru; EURAID-Leitfaden: KI-Systeme sicher und verantwortungsvoll in Krankenhäusern entwickeln und einführen, Dezember 2025.
Responsible AI Guidance & Responsible AI Checklists (CHAI)
Die CHAI-Unterlagen bieten ein „Playbook“ für Entwicklung und Einsatz von KI im Gesundheitswesen (Responsible AI Guide) sowie dazu passende Checklisten (Responsible AI Checklists) zur systematischen Selbstprüfung und zur Vorbereitung unabhängiger Reviews. Im Vordergrund stehen prüffähige Kriterien entlang des KI-Lebenszyklus – von Zweckbindung und Stakeholder-Transparenz über Bias-/Sicherheitsaspekte bis hin zu Betrieb, Monitoring und kontinuierlicher Verbesserung.
Einsatznutzen: standardisierte Checklisten, strukturierte Nachweisführung, Vergleichbarkeit über Projekte hinweg.
Quelle: Coalition for Health AI, Inc., Responsible AI Guidance, January 2026.
Hinweis: Beide Referenzen werden hier als „Best-Practice“-Orientierung genutzt, um eine konsistente, dokumentierbare Risiko- und Governance-Logik für KI-Projekte bereitzustellen.
Risk Categorization & Responsible AI
Strukturierte Risikobewertung für KI-Systeme im Gesundheitswesen – von der ersten Idee bis zum sicheren Betrieb
Warum dieser Baustein existiert: Die Implementierung von KI-Systemen im Gesundheitswesen erfordert mehr als technische Machbarkeit. Sie benötigen eine systematische Risikobewertung, die klinische Sicherheit, Datenschutz und ethische Prinzipien gleichermaßen adressiert.
Diese Seite verbindet zwei komplementäre Frameworks zu einem praktischen Werkzeug:
CHAI Risk Categorization Tool
19 Risikomodifikatoren über zwei Domänen (Patientensicherheit + Technologie/Daten) für eine granulare Vorab-Kategorisierung als Niedrig-, Mittel- oder Hoch-Risiko.
ETICA Responsible AI Framework
6 zentrale Risikofelder (Safety, Bias, Privacy, Reliability, Security, Governance) mit konkreten Assurance-Mechanismen und Kontrollmaßnahmen.
Was mit konsequenter Governance erreicht wird:
Strukturierte Entscheidungsgrundlage
Statt Bauchgefühl: Dokumentierte Risikobewertung für Fachbereich, IT, DSB/ISB und Geschäftsführung
Proportionale Governance
Der Prüf- und Kontrollumfang richtet sich nach der tatsächlichen Risikoeinstufung – effizient und angemessen
Auditierbare Evidenz
Jede Risikoeinstufung wird mit Begründung, Evidenz und konkreten Maßnahmen hinterlegt
Lifecycle-Management
Keine Einmalprüfung, sondern kontinuierliche Steuerung von Assessment über Mitigation bis Monitoring
Compliance-Ready
Vorbereitung auf EU AI Act, MDR, DSGVO und behördliche Prüfungen durch systematische Dokumentation
Praktikabilität
Anwendbar für Gesundheitseinrichtungen jeder Größe – vom Krankenhaus bis zur Arztpraxis
Wie das Risk Categorization Tool funktioniert
Ein risikobasierter 6-Schritte-Prozess für jedes KI-System
Use Case Alignment
Dokumentation des Anwendungsfalls (Intended Use, Nutzer, Population, Workflow)
Review Risk Modifiers
Bewertung aller 19 Risikomodifikatoren anhand definierter Kriterien
Determine Risk Level
Team-Rating mit Begründung: Akzeptabel (Niedrig), Mittel, Hoch je Modifikator
Document Risk Level
Festlegung und Dokumentation der finalen Risikostufe mit Evidenz
Address Risk Modifiers
Definition organisationsspezifischer Risikominderungskontrollen
Complete All Risk Modifiers
Vollständige Dokumentation für beide Domänen als Basis für die Freigabe
Zentrale Governance-Prinzipien
Kein Gesamt-Score
Bewusst wird kein aggregierter Risiko-Score gebildet. Jeder Modifikator steht für sich – denn ein einziger "Hoch Risiko"-Faktor erfordert bereits erhöhte Aufmerksamkeit.
High Risk = Assessment Trigger
Sobald ein Modifikator als "Hoch" eingestuft wird, wird ein detailliertes Risk Assessment empfohlen – mit tiefergehenden Analysen, Tests und Kontrollmaßnahmen.
Iterativ, nicht statisch
Risikobewertungen sind keine Einmalübung. Bei System-Updates, Workflow-Änderungen oder neuen Erkenntnissen erfolgt eine Re-Evaluierung.
Evidenzbasierte Bewertung
Jede Risikoeinstufung basiert auf dokumentierten Fakten: Datenquellen, Validierungsergebnisse, klinische Studien, Herstellerdaten.
Wichtiger Hinweis: Diese Frameworks sind komplementär
zu rechtlichen Compliance-Anforderungen (EU AI Act, MDR, DSGVO) zu verstehen
und ersetzen keine qualifizierte Rechtsberatung.
Sie bieten jedoch eine
strukturierte methodische Grundlage für die interne Risikobewertung und
Governance-Dokumentation.
Responsible AI in healthcare – Risk, Oversight & Independent Assurance
Das Dokument bietet einen praxistauglichen, risikobasierten Orientierungsrahmen für den Einsatz von KI
in Gesundheitsorganisationen – mit Fokus auf realweltliche Risiken, erwartbare Aufsichtsanforderungen
und belastbare Governance- und Assurance-Mechanismen.
Es adressiert explizit, dass Regulierung
zwar vorhanden ist, aber in der Praxis fragmentiert bleibt und Grauzonen erzeugt.
- Regulierung ist real, aber partiell: Aufsicht greift je nach Systemtyp, Zweck und Datenbezug – mit Lücken und unklaren Abgrenzungen.
- Risiko ist use-case-abhängig: Software as a Medical Device (SaMD), prädiktive Tools, Chatbots und Lifestyle-Apps erzeugen unterschiedliche Risikoprofile.
- Risikobasiertes Vorgehen statt Checklisten: Statische Einmalprüfungen reichen nicht; erforderlich ist laufende Steuerung über den Lebenszyklus.
- Unabhängige Assurance schafft „auditierbare Evidenz“: Externe Prüfungen reduzieren Exposure und verbessern Beschaffung, Investitionen und Rollout-Readiness.
- Defensibility by Design: Jede Risiko Einstufung benötigt Begründung + Evidenz-Artefakte.
- Proportionalität: „High“ triggert vertiefte Prüfung, Freigabe-Gates und enges Monitoring.
- Sozio-technische Sicht: Nicht nur Modellqualität, sondern Workflow, Nutzerverhalten (Automation Bias) und Eskalationspfade.
- Vendor-Claims nicht ausreichend: Interne Reviews + Anbieterzusagen sind notwendig, aber nicht hinreichend; unabhängige Tests schließen Blind Spots.
Risikofelder, die in der Praxis regelmäßig „durchschlagen“
Was bei Prüfungen typischerweise gefragt wird
- Welche Risiken wurden identifiziert – und warum?
- Wie wurde getestet und wie wird überwacht (laufend, nicht nur einmalig)?
- Welche Kontrollen wurden implementiert (Human-in-the-Loop, Gates, Rollback, Incident Response)?
- Wer ist accountable (Owner, Escalation, Freigabe)?
Operative Empfehlung
Verknüpfe im Risk-Categorization-Tool die Felder „Begründung/Evidenz“ und „Maßnahmen“ als verbindliche Nachweiskette (Audit Trail).
Quelle: Eticas, Responsible AI in healthcare (Dec 2025).