Diese Website verwendet ausschließlich technisch notwendige Cookies, die für den Betrieb der Seite erforderlich sind. Weitere Informationen


FMEA im Gesundheitswesen



Stand: 2025/2026 – Grundlage: ISO 14971:2019, EU AI Act (VO (EU) 2024/1689), AIAG FMEA Handbook (2019), Dhole (2025)
■ Prüfschema
Methodik, regulatorische Einordnung, AI-FMEA und Bewertungs-Checkliste für Betreiber von KI-Systemen und Medizinprodukten im Gesundheitswesen

Was ist FMEA?

Die Failure Mode and Effects Analysis (FMEA) – auf Deutsch: Fehlermöglichkeits- und Einflussanalyse – ist eine strukturierte, präventive Methode zur systematischen Identifikation, Bewertung und Priorisierung potenzieller Fehler in Prozessen, Systemen oder Produkten, bevor sie auftreten.

Im Gesundheitswesen ist die FMEA seit Jahrzehnten in der Medizinprodukteentwicklung verankert. Mit der Einführung des EU AI Act rückt sie als regulatorisches Werkzeug auch für Hochrisiko-KI-SystemeHochrisiko-KI-Systeme sind KI-Anwendungen, die in Bereichen eingesetzt werden, die erhebliche Risiken für Gesundheit, Sicherheit oder Grundrechte darstellen – z.B. KI in Medizinprodukten (Annex III Nr. 5) oder in der Patientendiagnostik. in den Vordergrund.

Die FMEA beantwortet drei Grundfragen:

  • Was kann schiefgehen? – Identifikation von Fehlermoden (Failure Modes)
  • Wie schlimm ist es? – Bewertung von Schweregrad, Auftretenswahrscheinlichkeit und Entdeckungswahrscheinlichkeit
  • Was ist zu tun? – Priorisierung von Maßnahmen über die Risikopriorätszahl (RPZ)
Executive Takeaway Im Krankenhaus ist FMEA selten ein einmaliges Projekt – sie ist ein kontinuierlicher Prozess entlang des gesamten Produktlebenszyklus. KI-gestützte FMEA-Systeme verändern dabei die Spielregeln: Aus statischer Dokumentation wird ein dynamisches, datengetriebenes Risikomanagementsystem.
Leitplanke Ohne strukturiertes FMEA-Verfahren entsteht operativ ein Compliance-Delta gegenüber ISO 14971, EU AI Act Art. 9 und MDR Annex I – inklusive Haftungs- und Zulassungsrisiko bei Hochrisiko-KI.

FMEA-Methodik: RPZ und Bewertungsschema

Die Risikopriorätszahl (RPZ)

Das Kernwerkzeug der FMEA ist die Risikopriorätszahl (RPZ), auch Risk Priority Number (RPN) genannt:

RPZ = A  ×  B  ×  E
Kriterium Beschreibung Skala Beispiel Gesundheitswesen
A Auftreten Wie wahrscheinlich tritt der Fehler auf? 1 (selten) – 10 (ständig) KI-Fehlklassifikation bei seltener Diagnose
B Bedeutung Wie schwerwiegend sind die Folgen? 1 (unerheblich) – 10 (existenzbedrohend) Falsch-negatives Screening → Patientenschaden
E Entdeckung Wie wahrscheinlich wird der Fehler nicht entdeckt? 1 (sicher erkannt) – 10 (nicht erkennbar) KI-Ausgabe ohne Human-Oversight-Prozess

RPZ-Ampel: Handlungsschwellen

RPZ-BereichBewertungHandlungspflicht
1–49 Niedrig Dokumentation; Monitoring fortführen
50–99 Mittel Optimierungsmaßnahmen einleiten; Verantwortliche benennen
100–199 Hoch Korrekturmaßnahmen innerhalb definierter Frist erforderlich
≥ 200 Kritisch Sofortmaßnahmen; Eskalation; ggf. Betriebsstopp

FMEA-Typen im Überblick

Design-FMEA (D-FMEA)
Analyse möglicher Fehler bereits in der Entwicklungsphase eines KI-Systems oder Medizinprodukts. Pflicht nach MDR Annex I und EU AI Act Art. 9 für Hochrisiko-KI.
Prozess-FMEA (P-FMEA)
Bewertung von Fehlern in der Herstellungs- oder Betriebsphase. Im Krankenhauskontext: Analyse klinischer Workflows, in die das KI-System eingebettet ist.
System-FMEA (S-FMEA)
Ganzheitliche Betrachtung von Systemgrenzen und Schnittstellen – relevant bei vernetzten KI-Systemen (z.B. KI-Radiologie integriert in KIS/RIS/PACS).
Software-FMEA
Spezialisierte FMEA für Softwarekomponenten nach IEC 62304. Direkt anwendbar auf KI-Softwaremodule in Medizinprodukten.

AI-gestützte FMEA: Von statisch zu dynamisch

Die klassische FMEA weist systemische Schwächen auf, die im Kontext von KI-Systemen besonders gravierend werden. Dhole (2025) identifiziert drei zentrale Limitierungen:

LimitierungTraditionelle FMEAAI-gestützte FMEA
Subjektivität RPZ-Bewertung variiert zwischen Teams und Standorten ML-Modelle kalibrieren Scores auf Basis empirischer Daten
Statische Datenbasis Bewertungen beruhen auf veralteten Datenbanken Real-time Datenintegration aus Post-Market Surveillance, Vigilanz-Datenbanken
Mustererkennung Seltene oder latente Fehlermodi werden nicht erkannt NLP scannt Klinische Notizen, MDR-Meldungen, Audit-Trails automatisch
Aktualisierungsfrequenz Periodische Updates durch manuellen Aufwand Kontinuierliche dynamische RPN-Aktualisierung

Der AI-FMEA-Workflow (nach Dhole 2025)

📊
Datenaggregation
Sensoren, Logs, Klinik
🔍
NLP-Tagging
Fehlermodus-Erkennung
📈
Predictive Analytics
Risikovorhersage
🔄
Dynamische RPZ
Real-time Anpassung

RPN-Vergleich: Klassisch vs. AI-gestützt

Das folgende Beispiel aus der Fallstudie zu implantierbaren Kardioverter-Defibrillatoren (ICDs) zeigt, wie AI-gestützte FMEA die RPZ durch Kalibrierung an Realdaten senkt – und damit eine präzisere Ressourcensteuerung ermöglicht:

Fehlermode ABE RPZ (klassisch) RPZ (AI) Δ
Elektroden-Degradation 484 128 96 −25 %
Firmware-Lockup 393 81 60 −26 %
Thrombus-Bildung 275 70 50 −29 %

Quelle: Dhole, A. (2025). AI-Powered FMEA for Cardiovascular Devices. The American Journal of Interdisciplinary Innovations and Research, 7(09), 121–125.

Praktische Bedeutung für Krankenhäuser AI-gestützte FMEA überführt die statische Risikobewertung in ein lebendiges Post-Market-MonitoringPost-Market Monitoring (PMM) bezeichnet die systematische Sammlung und Auswertung von Erfahrungsdaten nach dem Inverkehrbringen eines Medizinprodukts oder KI-Systems im realen Einsatz. Pflicht nach MDR Art. 83–86 und EU AI Act Art. 72.-System. Für Betreiber von Hochrisiko-KI im Sinne von EU AI Act Annex III ist das kein Nice-to-have, sondern regulatorische Pflicht ab August 2026.

Regulatorik: FMEA im Rechtsrahmen

ISO 14971:2019 – Der Standard

Die ISO 14971 ist der internationale Goldstandard für Risikomanagement bei Medizinprodukten und bildet das Fundament jeder FMEA im Gesundheitswesen. Sie schreibt vor:

  • Systematische GefährdungsidentifikationIm Kontext der ISO 14971 umfasst die Gefährdungsidentifikation alle potenziellen Quellen von Schäden, die von einem Medizinprodukt oder KI-System ausgehen können – direkt (z.B. Fehldiagnose) oder indirekt (z.B. fehlerhafte Medikationsentscheidung). über den gesamten Produktlebenszyklus
  • Risikoabschätzung und -bewertung mit definierten Akzeptanzkriterien
  • Risikominderung nach ALARP-Prinzip (As Low As Reasonably Practicable)
  • Post-Market-Risikoüberwachung und Aktualisierung der Risikobewertung

EU AI Act – Art. 9 und Annex III

Für KI-Systeme, die unter Annex III des EU AI Act fallen (u.a. KI in Medizinprodukten, KI zur Diagnoseunterstützung), schreibt Art. 9 ein Risikomanagementsystem vor, das strukturell dem FMEA-Ansatz entspricht:

Anforderung EU AI ActFMEA-EntsprechungRechtsgrundlage
Risikoidentifikation bekannter und vorhersehbarer Risiken Fehlermode-Identifikation Art. 9 Abs. 2 lit. a
Risikoabschätzung bei bestimmungsgemäßem und vorhersehbar missbräuchlichem Einsatz A × B × E Bewertung Art. 9 Abs. 2 lit. b
Risikomanagement als iterativer Prozess über gesamten Lebenszyklus Dynamische FMEA / PMM Art. 9 Abs. 1
Post-Market-Monitoring und Aktualisierung der Risikoanalyse AI-FMEA mit Real-time-Daten Art. 72
Technische Dokumentation inkl. Risikomanagement FMEA als Teil des DHF/DMF Annex IV

MDR / IVDR – Produktsicherheit

Für KI-Systeme, die als Medizinprodukt (MDR) oder In-vitro-Diagnostikum (IVDR) klassifiziert sind, ist die FMEA Teil der Design History File (DHF)Die Design History File (DHF) oder technische Dokumentation dokumentiert den gesamten Entwicklungsprozess eines Medizinprodukts, einschließlich Risikoanalysen, Verifizierungs- und Validierungsergebnisse sowie klinische Bewertungen. Sie ist Voraussetzung für die CE-Kennzeichnung nach MDR/IVDR.. Die Kombination FMEA + ISO 14971 + MDR Annex I (Allgemeine Sicherheits- und Leistungsanforderungen) ist die regulatorische Mindestanforderung für die CE-Kennzeichnung.

DSGVO-Schnittstelle

Bei KI-Systemen, die Gesundheitsdaten verarbeiten, überschneidet sich die FMEA-Risikobewertung mit der Datenschutz-Folgenabschätzung (DSFA)Die Datenschutz-Folgenabschätzung (DSFA / DPIA) nach Art. 35 DSGVO ist für Verarbeitungsvorgänge mit voraussichtlich hohem Risiko für Rechte und Freiheiten natürlicher Personen Pflicht – z.B. bei KI-Systemen, die Gesundheitsdaten oder Verhaltensdaten in großem Maßstab verarbeiten. nach Art. 35 DSGVO. Sinnvoll ist eine integrierte Risikobewertung, die beide Anforderungen in einem Dokument adressiert.

Governance-Setup: FMEA im Krankenhausbetrieb

Rollen & Verantwortung
FMEA-Teamzusammensetzung: QM-Leitung, klinische Fachkraft, IT/Medizintechnik, Datenschutzbeauftragter. Bei KI-Systemen: zusätzlich KI-Kompetenz (Art. 4 EU AI Act) sicherstellen. Klare Trennung: Hersteller-FMEA vs. Betreiber-Risikoanalyse.
Scope-Festlegung Systemgrenzen und Schnittstellen definieren (KI-Modell, Integration, klinischer Workflow). Intended Use vs. foreseeable misuse dokumentieren. Für Hochrisiko-KI: Annex III-Klassifizierung als Eingangsvoraussetzung prüfen.
Datenbasis und Dokumentation Herstellerdokumentation (Technical File, Instructions for Use) auswerten. Post-Market-Surveillance-Daten (EUDAMED, BfArM-Datenbank, interne Vorfallsberichte) einbeziehen. Für AI-FMEA: Logging-Daten des KI-Systems als kontinuierliche Datenquelle aktivieren.
Aktualisierungszyklus Mindestens jährliche FMEA-Review. Anlassbezogene Aktualisierung bei: neuer Softwareversion, Änderung des Einsatzbereichs, signifikantem Vorfall, Änderung regulatorischer Anforderungen. Bei AI-FMEA: kontinuierliches Monitoring mit definierten Eskalationsschwellen.
Integration in QM-System FMEA als Kernelement in QM-Handbuch verankern (ISO 9001 / DIN EN 15224). CAPA-Prozess (Corrective and Preventive Actions) an FMEA-Maßnahmen koppeln. Audit-Programm für KI-Systeme aufbauen.

Checkliste: FMEA-Readiness für KI-Systeme im Krankenhaus

Tipp: intern als Readiness-Check für QM-, IT- oder Compliance-Abteilung vor Inbetriebnahme von Hochrisiko-KI-Systemen.

Fortschritt 0 %
0 von 20 Prüfpunkten erledigt
OK Prüfpunkt Owner Nachweis
A) Scope & Klassifizierung
KI-System ist gemäß Annex III EU AI Act auf Hochrisiko-Klassifizierung geprüft; Ergebnis schriftlich dokumentiert. QM / Compliance Klassifizierungsdossier
Systemgrenzen des KI-Systems sind definiert (Eingabe, Ausgabe, Schnittstellen, Workflows). Intended Use und reasonably foreseeable misuse sind dokumentiert. IT / Medizintechnik System-Scope-Dokument
FMEA-Typ festgelegt (D-FMEA, P-FMEA, S-FMEA oder Kombination); Team mit FMEA-Kompetenz und klinischer Expertise zusammengesetzt. QM / Projektleitung Team-Charter
B) Fehlermoden-Identifikation
Systematische Identifikation von Fehlermoden unter Einbeziehung: Herstellerdokumentation, klinische Erfahrungswerte, EUDAMED/BfArM-Meldungen, Fachliteratur. FMEA-Team Failure Mode Liste
KI-spezifische Fehlermoden erfasst: Halluzinationen, Bias, Out-of-Distribution-Verhalten, Adversarial Attacks, Drift, Logging-Ausfall. IT / KI-Experte AI Failure Catalogue
Für jeden Fehlermode: Fehlerursache (Root Cause) und Fehlerauswirkung (Effect) auf Patientensicherheit und Betrieb dokumentiert. FMEA-Team FMEA-Formblatt
C) RPZ-Bewertung
Bewertungsskalen für A, B, E sind einrichtungsspezifisch kalibriert und schriftlich fixiert; alle FMEA-Teammitglieder wurden kalibriert. QM Bewertungsskalen-Dok.
RPZ für alle identifizierten Fehlermoden berechnet; Handlungsschwellen definiert (z.B. RPZ ≥ 125 = Maßnahme erforderlich). FMEA-Team FMEA-Tabelle
Alle Fehlermoden mit RPZ ≥ 125 haben dokumentierte Optimierungsmaßnahmen mit Verantwortlichem und Umsetzungsfrist. QM / Fachbereich Maßnahmenplan
D) Regulatorik & Dokumentation
FMEA ist in die technische Dokumentation / DHF integriert und versioniert. Verbindung zum ISO-14971-Risikomanagement-File ist hergestellt. QM / Regulatory Tech. Dokumentation
Grundrechts-Folgenabschätzung (FRIA, Art. 27 EU AI Act) durchgeführt und mit FMEA-Risikobewertung abgeglichen. Datenschutzbeauftragter FRIA-Dokument
DSGVO-Datenschutz-Folgenabschätzung (DSFA, Art. 35 DSGVO) bei Verarbeitung von Gesundheitsdaten durchgeführt und dokumentiert. Datenschutzbeauftragter / IT DSFA-Dokument
E) Post-Market-Monitoring & Dynamische Aktualisierung
Post-Market-Monitoring-Plan nach Art. 72 EU AI Act / MDR Art. 83 erstellt; KPIs, Datenquellen, Meldeschwellen und Aktualisierungsfrequenz definiert. QM / IT PMM-Plan
Logging-Konzept für das KI-System aktiviert: Eingaben, Ausgaben, Nutzer, Zeitstempel, Modellversion werden revisionsfest gespeichert (mind. 6 Monate gemäß Art. 26 Abs. 6 EU AI Act). IT Log-Konzept
Vorfalls-Meldeprotokoll (Art. 73 EU AI Act): Meldeweg bei schwerwiegenden Vorfällen definiert; 15-Tage-Frist für Gesundheitsbereich im QM-System verankert; Verantwortlicher benannt. QM / IT-Security Incident-Runbook
FMEA-Review-Zyklus festgelegt: mindestens jährlich und anlassbezogen (neue Softwareversion, Scope-Änderung, Schwellenwert-Überschreitung bei Monitoring-Daten). QM Auditplan
F) Human Oversight & KI-Kompetenz
Human-Oversight-Prozess definiert: KI liefert Ausgabe, Fachkraft prüft und entscheidet. Override-Protokoll und Stop-Use-Kriterien dokumentiert (Art. 14 EU AI Act). Fachbereich / QM SOP / Arbeitsanweisung
KI-Kompetenzschulung (Art. 4 EU AI Act) durchgeführt: Fehlermodi, Bias, Grenzen, Eskalation, sichere Nutzung. Qualifikationsnachweise dokumentiert. HR / QM Schulungsnachweis

Quelle: EU AI Act (VO (EU) 2024/1689), Art. 9, 14, 26–27, 72–73, Annex III; ISO 14971:2019; MDR (EU) 2017/745; DSGVO Art. 35.

Literatur & Quellen

Dhole, A. (2025). AI-Powered Failure Mode and Effects Analysis (FMEA) for Cardiovascular Devices: A Modern Framework for Proactive Risk Management. The American Journal of Interdisciplinary Innovations and Research, 7(09), 121–125. DOI 10.37547/tajiir/Volume07Issue09-13

ISO 14971:2019 – Medical devices: Application of risk management to medical devices. ISO.org

AIAG (2019). Potential Failure Mode and Effects Analysis (FMEA) Handbook (1st ed.). Southfield, MI: AIAG.

EU AI Act (VO (EU) 2024/1689), Art. 9, 14, 26, 27, 72, 73, Annex III–IV. EUR-Lex

FMEA für Ihr KI-System einführen?
Ich zeige Ihnen, wie Sie alle regulatorischen Anforderungen für FMEA bei KI-Modellen prüfen – konkret, nachweisfähig und umsetzbar.
Let's talk