KI Verordnung Medizinprodukte (MDR)
Risikomanagement für KI: belastbar, prüfbar, anschlussfähig
Diese Seite unterstützt Einrichtungen dabei, KI-Systeme entlang bewährter Governance- und Qualitätsprinzipien
strukturiert zu bewerten:
von der Zieldefinition über Daten- und Modellrisiken bis hin zu Betrieb, Monitoring
und Verantwortlichkeiten.
Im Fokus steht ein nachvollziehbarer Entscheidungsweg, der sich in bestehende
Managementsysteme (z. B. Qualität, IT-Sicherheit, Datenschutz, Medizinprodukt-/Compliance-Prozesse)
integrieren lässt. Ergebnis ist eine konsistente Risikoeinschätzung mit klaren Maßnahmen, Nachweisen und
Eskalationswegen – geeignet als Grundlage für interne Freigaben, Audits und Lieferantensteuerung.
Referenzprogramme im Überblick
EURAID-Leitfaden (European Responsible AI Development)
EURAID ist ein praxisorientierter Leitfaden für Krankenhäuser, die KI-Systeme „in-house" entwickeln, validieren und in die Versorgung überführen. Der Ansatz setzt auf interdisziplinäre Zusammenarbeit, klar definierte Rollen, iterative Test- und Evaluationsschritte sowie ein tragfähiges Change- und Qualifizierungskonzept. Damit liefert EURAID eine robuste Blaupause, wie KI verantwortungsvoll und dauerhaft in die Routineversorgung integriert werden kann.
Einsatznutzen: Governance-Struktur, Reifegrad- und Prozesslogik, klinische Validierung, Umsetzungsfahrplan.
Quelle: Medizinische Fakultät Carl Gustav Caru; EURAID-Leitfaden: KI-Systeme sicher und verantwortungsvoll in Krankenhäusern entwickeln und einführen, Dezember 2025.
Responsible AI Guidance & Responsible AI Checklists (CHAI)
Die CHAI-Unterlagen bieten ein „Playbook" für Entwicklung und Einsatz von KI im Gesundheitswesen (Responsible AI Guide) sowie dazu passende Checklisten (Responsible AI Checklists) zur systematischen Selbstprüfung und zur Vorbereitung unabhängiger Reviews. Im Vordergrund stehen prüffähige Kriterien entlang des KI-Lebenszyklus – von Zweckbindung und Stakeholder-Transparenz über Bias-/Sicherheitsaspekte bis hin zu Betrieb, Monitoring und kontinuierlicher Verbesserung.
Einsatznutzen: standardisierte Checklisten, strukturierte Nachweisführung, Vergleichbarkeit über Projekte hinweg.
Quelle: Coalition for Health AI, Inc., Responsible AI Guidance, January 2026.
Hinweis: Beide Referenzen werden hier als „Best-Practice"-Orientierung genutzt, um eine konsistente, dokumentierbare Risiko- und Governance-Logik für KI-Projekte bereitzustellen.
EU Reformvorschlag
Am 16. Dezember 2025 legte die Europäische Kommission einen gezielten Vorschlag zur Änderung der Medizinprodukteverordnung (MDR, EU 2017/745) und der In-vitro-Diagnostika-Verordnung (IVDR, EU 2017/746) vor.
Diese Initiative ist eine Reaktion auf die weit verbreitete Besorgnis, dass der Rechtsrahmen von 2017 zwar die Patientensicherheit verbessert, aber auch übermäßige Belastungen mit sich bringt, die zu Engpässen, Kosten und potenziellen Engpässen bei Medizinprodukten führen.
Die Überarbeitung zielt darauf ab, die Vorschriften für Hersteller „einfacher, schneller und effektiver" zu gestalten und gleichzeitig ein hohes Maß an Patientensicherheit zu gewährleisten.
Zu den wichtigsten Zielen gehören die Verringerung des Verwaltungsaufwands, die Straffung der Konformitätsbewertungen mit festgelegten Fristen, die Stärkung der Koordination zwischen den Regulierungsbehörden und die Klarstellung der Anforderungen für Medizinprodukte mit künstlicher Intelligenz (KI).
Auswirkungen auf KI-basierte Medizinprodukt-Software
Eine der wichtigsten Neuerungen betrifft Software, die als Medizinprodukt eingestuft wird, insbesondere solche, die künstliche Intelligenz beinhaltet. Die Einstufungsregeln für Software (MDR Anhang VIII, Regel 11) werden gelockert:
Nach der aktuellen MDR wurden die meisten eigenständigen medizinischen Softwareprodukte (z. B. Gesundheits-Apps, Tools zur Unterstützung klinischer Entscheidungen) in die Risikoklasse IIa oder höhere Risikoklassen eingestuft, was eine Überwachung durch benannte Stellen erforderlich machte.
Der Vorschlag ändert Regel 11 dahingehend, dass ein Großteil der Medizinprodukt-Software (MDSW) als Klasse I (geringes Risiko) eingestuft werden könnte, wenn sie nicht für den Einsatz in „schwerwiegenden" oder „kritischen" klinischen Situationen vorgesehen ist.
In der Praxis bedeutet dies, dass viele Softwareprodukte (wie Wellness-Apps oder Routine-Tools zur Selbstverwaltung) keine Konformitätsbewertung durch eine benannte Stelle mehr benötigen würden, wodurch eine große regulatorische Hürde beseitigt würde.
Nur Software, die für ernste oder kritische Zustände vorgesehen ist (bei denen eine Fehlfunktion Patienten erheblich schaden könnte), würde höhere Klassen IIa, IIb oder III auslösen.
Diese Änderung soll die Überklassifizierung von harmloser Software verhindern und die Aufsicht auf wirklich risikoreiche KI-Algorithmen konzentrieren.
Ebenso wichtig ist das Zusammenspiel mit dem neuen Gesetz der EU über künstliche Intelligenz (KI-Gesetz, Verordnung (EU) 2024/1689). Derzeit könnte ein KI-gesteuertes Medizinprodukt in der EU zwei parallelen Regelungen unterliegen: der MDR/IVDR und dem KI-Gesetz, das die meisten KI-Systeme in Medizinprodukten als „hochriskante KI-Systeme" einstuft, die die Einhaltung umfangreicher KI-spezifischer Anforderungen erfordern.
Der Vorschlag der Kommission würde den Anwendungsbereich des KI-Gesetzes für Medizinprodukte einschränken und so einen kohärenteren einheitlichen Rahmen gewährleisten.
Was wird sich ändern?
Heute (Status quo)
Aufwand hochKünftig (Reformvorschlag)
VereinfachungExecutive Take-away
Die Reform macht MDR-Compliance für KI planbarer und schlanker: weniger Benannte-Stellen-Aufwand bei niedrigem Risiko, keine Doppelregulierung, unbefristete Zertifikate und modernisierte Evidenzpfade.
Hinweis: Reformvorschlag (Stand 2025) liegt bisher nur in Englisch vor; Inhalte können sich im EU-Gesetzgebungsverfahren noch ändern.
Quelle: Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL amending Regulations (EU) 2017/745 and (EU) 2017/746 as regards simplifying and reducing the burden of the rules on medical devices and in vitro diagnostic medical devices, and amending Regulation (EU) 2022/123 as regards the support of the European Medicines Agency for the expert panels on medical devices and Regulation (EU) 2024/1689 as regards the list of Union harmonisation legislation referred to in its Annex I; Strasbourg, 16.12.2025, COM(2025) 1023 final 2025/0404 (COD) {SWD(2025) 1050-1052 final}.
Prüfschema nach gültiger MDR Regel 11
KI im Gesundheitswesen braucht ein belastbares Regelwerk – und ein sauberes Vorgehensmodell.
Das vorliegende Prüfschema liefert eine praxistaugliche Einordnung, ob ein KI-System unter die Medical Device Regulation (MDR) fällt und wann es nach EU AI Act automatisch als Hochrisiko-KI gilt.
Im Fokus steht der klassische „Pflichtenkreis" aus Zweckbestimmung, Risikoklasse (insb. MDR Regel 11) und den daraus abgeleiteten Compliance-Konsequenzen – von Dokumentation und Risikomanagement bis hin zu Qualitätsmanagement (z. B. ISO 13485) und Audit-Logik.
Prüfschema: KI als Medizinprodukt und Hochrisiko-KI
Das folgende Prüfschema hilft bei der Einordnung eines KI-Systems gemäß MDR und EU AI Act. Es zeigt, wann eine KI automatisch als Hochrisiko-KI gilt und welche regulatorischen Folgen sich ergeben.
Frage: Dient die KI der Diagnose, Therapie, Prävention, Linderung, Überwachung oder Vorhersage von Krankheiten, Verletzungen oder Behinderungen?
- Ja: medizinische Zweckbestimmung → weiter mit Schritt 2
- Nein: kein Medizinprodukt → Einstufung nur nach EU AI Act
Rechtsgrundlage: MDR Art. 2
KI-Systeme sind in der Praxis fast immer Software als Medizinprodukt (SaMD). Die Risikoklasse richtet sich meistens nach der MDR Regel 11.
- Regel 11 führt in der Regel zu mindestens Klasse IIa
- Diagnose- oder Therapieentscheidungs-Support → meist IIb oder III
Ergebnis: Risikoklasse bestimmen (meist IIa–III).
Laut EU AI Act gelten KI-Systeme, die als Medizinprodukt in den Klassen IIa, IIb oder III eingestuft sind, automatisch als Hochrisiko-KI.
- KI + MDR Klasse IIa–III → Hochrisiko-KI
- KI + Klasse I → Einzelfallabhängig
Rechtsgrundlage: AI Act Art. 6 + Anhänge
Aus der Klassifizierung ergeben sich kombinierte Pflichten aus MDR, EU AI Act und ISO 13485.
| Einstufung | Rechtliche Anforderungen |
|---|---|
| KI-Medizinprodukt Klasse IIa–III |
MDR + Hochrisiko-KI nach AI Act + QMS nach ISO 13485 → benannte Stelle prüft alles im „Single Assessment Process" |
| KI-Medizinprodukt Klasse I |
MDR (Selbstdeklaration) + ggf. AI Act → trotzdem Dokumentation & Risiken nachweisen |
| KI ohne medizinische Zweckbestimmung | Einstufung nur nach AI Act (minimales, begrenztes oder hohes Risiko) |
START
|
|-- 1. Medizinische Zweckbestimmung?
| |-- NEIN → nur AI Act anwenden
| |-- JA → weiter
|
|-- 2. Software als Medizinprodukt (SaMD)?
| |-- JA → weiter
|
|-- 3. MDR Regel 11 zutreffend?
| |-- JA → Klasse IIa/IIb/III
|
|-- 4. AI Act:
| KI + Klasse IIa–III = Hochrisiko-KI
|
|-- 5. Pflichten:
- MDR + ISO 13485
- AI Act Hochrisiko-Anforderungen
- CE-/KI-Kennzeichnung
- Überwachung & Monitoring
Inhaltliche Prüfung & Freigabe
Thomas Bade – Autor und Administrator dieser Website – hat alle maschinell übersetzten Inhalte inhaltlich geprüft, fachlich bewertet und freigegeben.
Die Verantwortung für Richtigkeit und Vollständigkeit liegt beim Autor.