Diese Website verwendet ausschließlich technisch notwendige Cookies, die für den Betrieb der Seite erforderlich sind. Weitere Informationen


KI-Kompetenz in der Pflege nach BAPID



Artikel 4 EU-KI-Verordnung · seit 2. Februar 2025 in Kraft!

KI-Kompetenz im Gesundheitswesen

Die Fähigkeit, Künstliche Intelligenz zu verstehen, kritisch zu hinterfragen und verantwortungsvoll einzusetzen, ist für Krankenhäuser, Kommunen und Pflegeeinrichtungen heute gesetzlich verpflichtend – und gleichzeitig eine strategische Chance.

Die Aufgabe ist es, den KI-Hype zu entzaubern, Risiken zu minimieren und echte, messbare Mehrwerte für Organisationen zu schaffen.
Das beginnt lange vor dem ersten Modell. Es beginnt bei den Daten, mit denen dieses Modell trainiert wird.

Es gibt keine Ausnahmeregelungen nach der Unternehmensgröße oder nach der Risikoklasse der KI (somit müssen auch Mitarbeiter sensibilisiert werden, die KI-Systeme mit minimalen Risiko einsetzen).

Die Bildungsarchitektur der Pflege in Deutschland (BAPID) hat im Februar 2026 BAPID III abgeschlossen und veröffentlicht.
Sehr gut ist, dass alle BAPID-Profile ausdrücklich die Bereitschaft zur kontinuierlichen Einarbeitung in digitale Dokumentationssysteme aufweisen.
BAPID zeigt auch, dass KI-gestützte Verfahren in der Pflege ein methodischer Sensibilitätsbereich und anfällig für Automationsbias sind.

Diese Seite zeigt, welche Strategie-Inhalte relevant sind, welche Fristen zu beachten sind und was der Kompetenzbereich „Technologie & E-Health" in der Pflege bedeutet.


Kompetenz in der Pflege nach BAPID (Stand Februar 2026)


KI-Kompetenz – Pflicht und Chance zugleich.

Seit dem 2. Februar 2025 gilt Artikel 4 der EU-KI-Verordnung (EU) 2024/1689.

Wer KI-Systeme einsetzt, muss verstehen: KI-Modelle lernen ausschließlich aus vorhandenen Daten.
Sie reproduzieren Muster, Fehler und strukturelle Verzerrungen der Vergangenheit – nicht mehr und nicht weniger.

Ohne Kenntnis der eigenen Datenbasis lässt sich nicht einschätzen, welcher Bias trainiert wird.
Datenvorbereitung und Datenqualität sind keine technischen Randthemen, sondern die kritische Grundlage jeder verantwortungsvollen KI-Einführung.

Anbieter und Betreiber von KI-Systemen – unabhängig von Branche und Größe – müssen sicherstellen, dass ihr Personal über ein ausreichendes Maß an KI-Kompetenz verfügt.

Der Schulungsbedarf muss ermittelt werden, also zum Beispiel, welche KI-Systeme überhaupt eingesetzt werden und welcher Risikoklasse diese zuzuordnen sind.
Basierend auf den Ergebnissen muss ein passendes Schulungskonzept entwickelt werden, was zum einen allgemeine Kenntnisse vermittelt, zum anderen auf die individuellen Anforderungen von unterschiedlichen Mitarbeitergruppen beispielsweise für spezifische KI-Systeme eingeht.
Die Bundesnetzagentur empfiehlt, dass Organisationen Maßnahmen zur Sicherstellung von KI-Kompetenz gut dokumentieren.

Die Rechte des Betriebsrats auf dem Gebiet der künstlichen Intelligenz wurden durch das Betriebsrätemodernisierungsgesetz vom Juni 2021 gestärkt.
§ 90 Abs. 1 Nr. 3 BetrVG stellt klar: Wenn der Arbeitgeber plant, im Betrieb KI einzusetzen, hat er den Betriebsrat rechtzeitig unter Vorlage der erforderlichen Unterlagen zu unterrichten.

Die Bundesnetzagentur hat drei wesentliche Anforderungen konkretisiert.

1. Pflicht

Seit Feb. 2025 verbindlich

Art. 4 KI-VO gilt für alle Anbieter und Betreiber von KI-Systemen, auch allgemeinen Zwecks wie Chatbots – ohne Ausnahme für Größe oder Sektor.
Der Geltungsbereich wird präzisiert: explizit auch GPAI-Systeme wie Chatbots, und ausdrücklich nicht nur eigenes Personal sondern auch Auftragnehmer und externe Dienstleister.

2. Flexibilität

Keine Einheitslösung

Die Verordnung schreibt kein Format vor.
Keine Zertifizierungspflicht, kein KI-Beauftragter zwingend – die Organisation entscheidet den Weg.
Es wird konkret aufgelistet, was die Verordnung nicht vorschreibt und es werden erlaubte Formate von Selbstlernprogrammen bis Workshops benannt.

3. Eigenverantwortung

Dokumentation ist entscheidend

Alle Maßnahmen sind zu dokumentieren.
Ein Mangel an KI-Kompetenz kann als Verletzung der Sorgfaltspflicht gewertet werden.
Das Sorgfaltspflicht-Risiko wird erklärt und die drei konkreten Dokumentationspflichten werden aufgeführt.

Hinweis der Bundesnetzagentur (Juni 2025):
Die Bundesnetzagentur hat auf Grundlage eines Organisationserlasses des BMWi vom April 2025 vorbereitende Tätigkeiten zur Umsetzung der KI-Verordnung durchgeführt und hat Orientierungshilfen veröffentlicht – unverbindlich, aber richtungsweisend.

Was Entscheider wirklich verstehen müssen!

KI-Systeme lernen aus Daten – nicht aus Erfahrung, Werten oder gesundem Menschenverstand.
Sie erkennen Muster in historischen Daten und wenden diese auf neue Situationen an.
Was in den Trainingsdaten nicht vorhanden ist, kann das System auch nicht lernen.
Wer das nicht versteht, erwartet von KI mehr, als sie leisten kann.
Wer Prozesse nicht kritisch hinterfragt, bevor er sie automatisiert, macht mit KI vor allem eines: Er beschleunigt bestehende Fehler!

Wer nicht versteht, was ein Modell tatsächlich optimiert, erwartet Unmögliches.
Und wer Prozesse nicht kritisch hinterfragt, bevor er sie automatisiert, skaliert mit KI alte Fehler.

Qualität der Daten bestimmt die Qualität der Ergebnisse!

Viele Organisationen im Gesundheitswesen und in der Pflege arbeiten mit Daten, die über Jahre gewachsen sind:

    • unterschiedliche Eingabestandards,
    • Systemmigrationen,
    • manuelle Korrekturen und
    • veraltete Strukturen.

Ein KI-System, das mit solchen Daten trainiert wird, übernimmt diese Ungenauigkeiten – und wendet sie systematisch auf zukünftige Entscheidungen an.
Schlechte Daten erzeugen schlechte Empfehlungen, zuverlässig und in großem Maßstab.

Modelle veralten – auch wenn niemand es bemerkt!

Ein KI-Modell, das heute gut funktioniert, kann in sechs Monaten deutlich schlechtere Ergebnisse liefern – etwa weil sich Abläufe geändert haben, neue Dokumentationsstandards eingeführt wurden oder ein Systemwechsel stattfand.
Dieses schleichende Versagen bleibt oft lange unentdeckt, wenn keine regelmäßige Überprüfung der Modellleistung stattfindet.

Besondere Vorsicht bei Entscheidungsunterstützungssystemen!

Wenn KI nicht nur analysiert, sondern aktiv Empfehlungen gibt – etwa zur Entlassplanung, Ressourcenverteilung oder pflegerischen Planung – dann steuert das System direkt operative Entscheidungen
Ein Modell, das auf vergangenen Ineffizienzen trainiert wurde, empfiehlt im Zweifel das Falsche – konsequent und ohne Selbstkritik.
Wer nicht nachvollziehen kann, nach welchen Kriterien das System entscheidet, gibt Verantwortung ab, ohne es zu merken.

Externe Dienstleister lösen das Grundproblem nicht!

Viele Pilotprojekte funktionieren im Demo-Betrieb einwandfrei – auf sorgfältig ausgewählten Musterdaten unter kontrollierten Bedingungen.
In der Praxis scheitern sie, weil die realen Daten deutlich unstrukturierter als erwartet sind.
Verträge mit externen Dienstleistern müssen technische Prüfungen der Datenbasis vor Projektstart verbindlich regeln.
Das finanzielle Risiko – durch Verzögerungen, verpasste Chancen und gebundene Ressourcen – verbleibt beim auftraggebenden Unternehmen.

Was ist KI-Kompetenz laut Verordnung?

„KI-Kompetenz" bezeichnet die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden (Artikel 3 Nr. 56 EU-KI-Verordnung (EU) 2024/1689).

Drei Kernelemente

  • Fähigkeiten, Kenntnisse und Verständnis im Umgang mit KI
  • Sachkundiger, verantwortungsvoller und sicherer Einsatz von KI-Systemen
  • Bewusstsein über Chancen und Risiken (technisch, rechtlich, ethisch)

Wer ist betroffen?

  • Anbieter von KI-Systemen (Entwickler, Hersteller)
  • Betreiber von KI-Systemen (Kliniken, Kommunen, Pflegeeinrichtungen)
  • Auftragnehmer und Dienstleister, die im Auftrag handeln
  • Ggf. auch Kunden/Patienten bei bestimmten Anwendungsfällen
EU AI Office: KI-Kompetenz stärkt Transparenz (Art. 13 KI-VO) und menschliche Aufsicht (Art. 14 KI-VO).
Sie schützt indirekt betroffene Personen und ist Voraussetzung für die wirksame Anwendung der gesamten Verordnung.

Was fordert die Verordnung konkret – und was nicht?

✅ Das ist gefordert

  • Allgemeines Verständnis von KI in der gesamten Organisation
  • Berücksichtigung der Rolle als Anbieter oder Betreiber
  • Bewusstsein für die Risiken der eingesetzten KI-Systeme
  • Anpassung an Vorkenntnisse, Ausbildung und Kontext des Personals
  • Regelmäßige Auffrischung entsprechend technologischer Entwicklung
  • Dokumentation aller Maßnahmen

❌ Das ist nicht vorgeschrieben

  • Formalisierte oder standardisierte Trainingsformate
  • Externe Zertifizierungen der Schulungsmaßnahmen
  • Einführung eines KI-Beauftragten
  • Regelmäßige Vorabüberprüfungen durch Aufsichtsbehörden
  • Einheitliche „One size fits all"-Lösung für alle Mitarbeitenden

Umsetzung in der Praxis

Die vier Grundsteine zum Aufbau von KI-Kompetenz

Die Bundesnetzagentur empfiehlt vier Schritte als Orientierungshilfe – keine gesetzliche Pflicht, aber erprobte Praxis.

1 · Bedarf ermitteln
Wer braucht KI-Kompetenz?
Welche Personen entwickeln, betreiben oder nutzen KI-Systeme?
Welche KI-Systeme sind im Einsatz?
Welche Risiken sind damit verbunden?
Wer hat welche Vorkenntnisse?
2 · Angebot entwickeln
Maßnahmen ausgestalten
Individuelle Faktoren (Ausbildung, Erfahrung, Rolle), Kontext des KI-Systems (Anwendungsbereich, Nutzungsphase, betroffene Personen) und das verbundene Risiko berücksichtigen.
3 · Regelmäßiges Refresh
Kontinuierlicher Prozess
KI-Kompetenz ist kein einmaliges Projekt.
Technologie, Regulierung und Einsatzfelder entwickeln sich – die Kompetenzen müssen mithalten.
4 · Dokumentation
Nachweisbarkeit sicherstellen
Art der Maßnahmen, inhaltlicher und zeitlicher Umfang, teilnehmende Personen – sorgfältige Dokumentation ermöglicht jederzeit den Nachweis der Erfüllung von Art. 4 KI-VO.

Aufbau der Inhalte

Stufenweiser und interdisziplinärer Kompetenzaufbau

Die Bundesnetzagentur empfiehlt einen interdisziplinären und stufenweisen Aufbau: technische, rechtliche und ethische Aspekte in Verbindung – angepasst an unterschiedliche Kenntnislevels innerhalb der Belegschaft.

Stufe 1

Grundlegendes Verständnis von Daten und KI in der Organisation

    • Grundlagen von Daten und KI – Begriffe, Geschichte, Funktionsweise
    • Überblick über KI-Technologien: Maschinelles Lernen, große Sprachmodelle (LLMs)
    • Allgemeine Chancen und Risiken von KI – anhand von Anwendungsfällen aus dem Gesundheitswesen
    • Was ist KI, was nicht? Abgrenzung nach EU-KI-Verordnung
Stufe 2

Aufbau fortgeschrittener KI-Kompetenzen

    • Rolle der Organisation in der KI-Wertschöpfungskette: Anbieter oder Betreiber?
    • Technische Aspekte der konkret eingesetzten KI-Systeme
    • Spezifische Risiken und rechtliche Einordnung (EU AI Act, MDR, DSGVO)
    • Halluzinierungen, Bias, Datenschutz – praktische Strategien zur Risikominimierung
Stufe 3

Rollenspezifische Trainings mit individuellen Schwerpunkten

    • Technik: Entwickler, IT, Data Scientists – Modellarchitektur, Datensicherheit, Testing
    • Recht: Compliance, Datenschutz, Haftungsfragen, Meldepflichten
    • Ethik: Fairness, Transparenz, menschliche Aufsicht, Patientenrechte
    • Führung: Entscheidungsverantwortung, datengestützte Governance, strategische Steuerung

Was KI-Kompetenz im Gesundheitswesen bedeutet – und welche Antworten diese Webseiten für Gesundheitseinrichtungen und Leistungserbringer bereithält!

Kompetenzanforderung
(Art. 4 KI-VO)
Inhaltlicher Kontext Regulatorischer Bezug Weiterführende Inhalte
Was ist KI – und welche Systeme setzt meine Organisation ein? Grundverständnis: Definition von KI-Systemen, GPAI-Modellen und Abgrenzung zu klassischer Software Art. 3 KI-VO GPAI-Modelle
GPT-Modelle
Ist meine Organisation Anbieter oder Betreiber? Klärung der Rolle in der KI-Wertschöpfungskette bestimmt Umfang der Pflichten erheblich Art. 3 Nr. 3 & 4 KI-VO KI-MIG 2026
Systemanforderungen
Welche KI-Systeme gelten als Hochrisiko? Klinische Diagnose-KI, Pflegemonitoring, Entlassmanagement – Einordnung nach Anhang III KI-VO und MDR Art. 6 / Anhang III KI-VO Hochrisiko-KI
Entlassmanagement
Welche Betreiberpflichten gelten ab 2026? Registrierung, Risikoanalyse, Dokumentation, Meldepflichten nach KI-MIG und Art. 26 KI-VO Art. 26 KI-VO · KI-MIG KI-MIG 2026
Risikotools
Was müssen KI-Systeme im Gesundheitswesen leisten? Anforderungen an Transparenz, Erklärbarkeit, Genauigkeit und menschliche Kontrolle klinischer KI.
Gesundheitsorganisationen müssen KI-Modelle lokal dokumentieren und validieren – nicht nur auf Lieferantenbehauptungen setzen.
Art. 13–15 KI-VO Control Panel
Digitalisierungsstrategie und KI-Ziele bis 2028 BMG-Strategie „Gemeinsam Digital 2026-2030": KI-gestützte Dokumentation als Standard bis 2028 – Fristen und Fördervoraussetzungen BMG 2026 Fokus KI
Ethische Prinzipien und KI-Governance Fairness, Transparenz, Nicht-Diskriminierung – ethische KI-Leitlinien im Klinik- und Kommunalbetrieb Art. 9 · ErwGr. 20 Ethische Prinzipien
Code of Conduct
KI in Forschung und Wissenschaft Forschungsdatenzentrum Gesundheit, Real-World-Data, Evidenzgenerierung – Chancen für kommunale Planung EHDS · FDZ Gesundheit Wissenschaft
Gesellschaftliche Dimension von KI Politischer Rahmen, Akzeptanz, Teilhabe und demokratische Kontrolle – Enquete-Kommission KI ErwGr. 20 KI-VO Enquete-Kommission
WHO-Klassifizierung Digital Health Internationale Einordnung digitaler Gesundheitsanwendungen – Kontext für DiGA, DiPA, Telemedizin WHO · SGB V WHO Digital Health

EU AI Office

Was das EU AI Office zur Umsetzung sagt!

Das AI Office der Europäischen Kommission hat einen risikobasierten Ansatz für Artikel 4 definiert.
Vier Mindestanforderungen konkretisieren, was „ausreichende KI-Kompetenz" in der Praxis bedeutet.

I

Allgemeines KI-Verständnis

Was ist KI?
Wie funktioniert sie?
Welche KI wird in der Organisation eingesetzt?
Welche Chancen und Risiken hat sie?

II

Rolle der Organisation

Entwickelt die Organisation eigene KI-Systeme (Anbieter) oder setzt sie Systeme anderer ein (Betreiber)?

III

Risiken kennen

Was müssen Mitarbeitende wissen, wenn sie mit dem jeweiligen KI-System umgehen?
Welche Risiken und Minderungsmaßnahmen sind relevant?

IV

Maßnahmen zuschneiden

Unterschiede in Wissen, Erfahrung und Ausbildung berücksichtigen.
Sektor, Zweck und Zielgruppe der KI-Nutzung einbeziehen.


KI-Kompetenz in der Pflege – rollenspezifisch nach BAPID

Der Deutsche Pflegerat (DPR) hat im Februar 2026 mit BAPID III (Bildungsarchitektur der Pflege in Deutschland) Kompetenzprofile für Pflegeberufe veröffentlicht.
Diese Kompetenzprofile zeigen präzise, wer in der Pflege welche Verantwortung trägt – und bieten Orientierung für Praxis, Bildung und Politik.

Artikel 4 EU-KI-Verordnung gilt ohne Ausnahme – auch für die Pflege.
Was jede Pflegerolle konkret wissen und können muss, bestimmt der BAPID-Kompetenzrahmen.

Februar 2026 BAPID · Genz, K. & von Gahlen-Hoops, W. (2026)

Warum BAPID und EU AI Act zusammen gedacht werden müssen

Pflege ist keine homogene Gruppe – KI-Kompetenz darf es daher auch nicht sein. Das Projekt BAPID III (2026) hat für vier Qualifikationsniveaus in der Pflege – von der Pflegefachassistenz bis zur wissenschaftlich qualifizierten Pflegeexpert*in – differenzierte Kompetenzprofile entwickelt und mit 36 bundesweiten Praxispartner*innen konsentiert. Der Kompetenzbereich „Technologie & E-Health" ist darin als eigenständiger von zehn Kompetenzbereichen verankert – mit stufenweise wachsenden Anforderungen, die unmittelbar auf Artikel 4 EU-KI-Verordnung einzahlen.

Artikel 4 EU-KI-Verordnung fordert: Anbieter und Betreiber von KI-Systemen müssen sicherstellen, dass ihr Personal – einschließlich Auftragnehmer – über ein ausreichendes Maß an KI-Kompetenz verfügt. Der Leitfaden der Bundesnetzagentur (Juni 2025) konkretisiert: Diese Kompetenz ist rollenspezifisch, bedarfsgerecht und dokumentiert bereitzustellen.

Genau hier liefert BAPID III das fehlende Bindeglied: einen bundesweit konsentierten Qualifikationsrahmen, aus dem sich – pro Pflegerolle – ableiten lässt, was „ausreichende KI-Kompetenz" konkret bedeutet.
Wer als Einrichtung KI-Systeme einsetzt (Entlassmanagement, Vitalwert-Monitoring, Pflegedokumentation per KI-Sprachassistenz, Digital Health Apps), muss dies rollenbezogen strukturieren – genau wie BAPID III es vorgibt.

⚠ Kein Freifahrtschein durch Risikoklasse

Auch der Einsatz von KI-Systemen mit minimalem Risiko – etwa KI-gestützte Pflegedokumentation oder digitale Assistenzsysteme – löst die Pflicht zur KI-Kompetenz nach Art. 4 aus. Eine Typ-II-Pflegefachassistenzperson, die täglich ein KI-gestütztes Dokumentationssystem nutzt, fällt vollumfänglich unter die Verordnung. Es gibt keine Ausnahme für Unternehmensgröße oder Risikoklasse.

Die vier BAPID-Typen und ihre KI-Kompetenzanforderungen

BAPID III unterscheidet nicht nach „komplexen Pflegesituationen", sondern nach unterschiedlichen Logiken professioneller Verantwortung.
Daraus ergeben sich klar abgrenzbare KI-Kompetenzanforderungen im Bereich Technologie & E-Health:

BAPID Typ II · Pflegefachassistenzperson · Standardorientierte Durchführung unter Anleitung

KI-Kompetenzanforderungen Technologie & E-Health

  • Nutzung digitaler Dokumentationssysteme im Rahmen des eigenen Aufgabenbereichs nach vorgegebenen Standards und unter Wahrung der datenschutzrechtlichen Vorgaben (DSGVO)
  • Bedienung technischer Hilfsmittel und Assistenzsysteme nach entsprechender Einweisung, unter fachlicher Verantwortung der Pflegefachperson
  • Mitwirkung bei telemedizinischen und digitalen Anwendungen (z. B. Erfassung oder Übertragung von Vitaldaten) – ohne eigenständige Interpretation oder Bewertung der Daten
  • Unverzügliche Meldung technischer Mängel, Störungen oder Defekte an zuständige Stellen; keine eigenständige Behebung
  • Bereitschaft zur kontinuierlichen Schulung und Einarbeitung in digitale Dokumentationssysteme, technische Hilfsmittel und Assistenzsysteme
BAPID Typ III · Pflegefachperson · Eigenverantwortliche Pflegeprozessgestaltung

KI-Kompetenzanforderungen Technologie & E-Health

  • Nutzung von digitalen Dokumentations- und klinischen Informationssystemen im pflegerischen Verantwortungsbereich
  • Digital unterstützte Pflegeplanung und elektronische Verlaufsdokumentation; Unterstützung bei Telemonitoring-Prozessen
  • Digitale Erfassung, Überwachung und Bewertung von Vital- und Verlaufsdaten; zeitgerechte Weitergabe auffälliger Werte
  • Beratung und Anleitung von Patient*innen und Angehörigen zur Nutzung digitaler Anwendungen (z. B. Patient*innenportale, Apps)
  • Unterstützung bei der Einordnung KI-gestützter Gesundheitsinformationen – ohne medizinische Bewertung
  • Sicherer Umgang mit digitalen und technischen Systemen unter Beachtung von Datenschutz, Datensicherheit und Schweigepflicht
BAPID Typ IV · Akademisierte Pflegefachperson · Wissenschaftlich begründete Reflexion und Weiterentwicklung

KI-Kompetenzanforderungen Technologie & E-Health

  • Nutzung digitaler Tools zur regelgeleiteten klinischen Entscheidungsunterstützung im pflegerischen Verantwortungsbereich
  • Fachliche Einordnung und Reflexion digital erhobener Daten in Zusammenarbeit mit zuständigen Stellen (QM, Pflegewissenschaft, ärztlicher Dienst) – keine alleinige Interpretation
  • Unterstützung und Befähigung des Teams bei der Anwendung neuer Technologien im Versorgungsalltag
  • Unterstützende Mitwirkung bei der Einführung und Weiterentwicklung digitaler Dokumentations- und Assistenzsysteme aus Anwender*innenperspektive (Rückmeldung zur Praxistauglichkeit)
  • Anwendung digital erhobener pflegerelevanter Daten im Rahmen pflegerischer Entscheidungen; keine eigenständige Implementierungs- oder Systemsteuerungsverantwortung
BAPID Typ V · APN · Fallführende klinisch-wissenschaftliche Expertise (Advanced Nursing Practice)

KI-Kompetenzanforderungen Technologie & E-Health

  • Fachliche Bewertung digitaler Anwendungen im Hinblick auf pflegerische, ethische und patient*innensicherheitsrelevante Aspekte
  • Beratung zur Auswahl und Einführung neuer Technologien aus pflegefachlicher und versorgungsbezogener Perspektive (keine technische Betriebsverantwortung)
  • Evaluation digitaler Entscheidungsunterstützungssysteme sowie fachliche Beratung zu deren Anwendung und Integration im klinischen Versorgungskontext
  • Beratung von Patient*innen und Fachpersonen bei der Nutzung KI-gestützter und anderer digitaler Tools mit Fokus auf patientenzentrierte Anwendung, Nutzen-Risiko-Abwägung und ethische Reflexion
  • Systemverantwortung für Technologiebewertung auf Versorgungsebene – als leitendes Prinzip in Pflegeprozessen verankert

Quelle: BAPID III Kompetenzprofile, Genz & von Gahlen-Hoops, Kiel 2026 – Kompetenzbereich „Technologie & E-Health", Typen II–V, alle drei Versorgungssettings (ambulante Pflege, stationäre Langzeitpflege, Akutstationär).

Mapping: BAPID-Typen und Artikel 4 EU-KI-Verordnung

Das EU AI Office hat vier Mindestanforderungen für ausreichende KI-Kompetenz definiert.
Die folgende Übersicht zeigt, wie diese Anforderungen für jede Pflegerolle nach BAPID operationalisiert werden.

Mindestanforderung EU AI Office (Art. 4) Typ II
Pflegefachassistenz
Typ III
Pflegefachperson
Typ IV
Akademisierte PFP
Typ V · APN
Pflegeexpert*in
I · Allgemeines KI-Verständnis
Was ist KI? Welche Systeme nutze ich?
Grundbedienung nach Einweisung; keine eigenständige Interpretation von KI-Outputs Erkennung und Einordnung KI-gestützter Empfehlungen im Pflegeprozess Fachliche Einordnung digitaler Entscheidungsunterstützungssysteme Fachliche Gesamtbewertung digitaler und KI-gestützter Anwendungen auf Systemebene
II · Rolle der Organisation
Anbieter oder Betreiber?
Nicht relevant auf Ausführungsebene; Delegation durch Pflegefachperson Kenntnis der eigenen Betreiberrolle im Rahmen der Pflegeprozessgestaltung Einordnung der Einrichtung in die KI-Wertschöpfungskette; Betreiberpflichten Aktive Mitgestaltung der Technologiestrategie und Rollenverantwortung auf Versorgungsebene
III · Risiken kennen
Risiken und Minderungsmaßnahmen
Datenschutz, Schweigepflicht, Meldepflicht bei Störungen Bias bei Vitaldaten, Grenzen digitaler Empfehlungen, Datensicherheit Automation Bias, Kontextverlust, Datenqualität, keine alleinige Dateninterpretation Ethische Reflexion, Nutzen-Risiko-Abwägung, Systemevaluation und Haftungsfragen
IV · Maßnahmen zuschneiden
Sektor, Zweck, Ausbildungsstand
Schulung durch Praxisanleitung; Einweisung in konkrete Systeme Fachweiterbildung, E-Learning zu eingesetzten Systemen Wissenschaftsbasierte Reflexion; Befähigung und Schulung des Teams Forschungsbasierte Systembewertung; strategische Technologieberatung der Einrichtung

Unterschätzte Gefahr: Automation Bias in der Pflege

Was BAPID III methodisch selbstkritisch benennt – und was jede Pflegeeinrichtung wissen muss

BAPID III thematisiert in seiner methodischen Reflexion den Automation Bias als kritisches Risiko beim Einsatz KI-gestützter Analyse: die Tendenz, maschinellen Vorschlägen mehr Gewicht zu geben als der eigenen fachlichen Einschätzung – selbst dann, wenn die KI-Ausgabe unplausibel ist.

Warum Pflegepersonal besonders gefährdet ist

Wer täglich unter Zeitdruck KI-gestützte Empfehlungen zu Belegungsplanung, Risikoassessments (Sturz, Dekubitus) oder Vitalwert-Monitoring erhält, neigt dazu, diese ohne kritische Prüfung zu übernehmen. Das Risiko wächst mit der Systemkomplexität und der empfundenen Autorität der Ausgabe.

⚠ Art. 14 EU-KI-Verordnung

Das Gebot der menschlichen Aufsicht (Art. 14 KI-VO) setzt voraus, dass Pflegepersonal die Grenzen und Schwächen des eingesetzten KI-Systems kennt. Wer das nicht weiß, kann keine wirksame Aufsicht ausüben – unabhängig von der Risikoklasse des Systems.

Praxisempfehlung für Schulungskonzepte

💡 Automation Bias als Lerninhalt

Schulungskonzepte sollten den Automation Bias explizit adressieren – nicht nur für akademisch qualifizierte Pflegepersonen (Typ IV/V), sondern gerade auch für Pflegefachpersonen (Typ III), die täglich mit KI-gestützten Systemen interagieren.

💡 Rollenspezifische Fragen für das Training

  • Typ II: Was darf ich selbst entscheiden – und was nicht?
  • Typ III: Wann hinterfrage ich einen KI-Vorschlag aktiv?
  • Typ IV: Wie erkenne ich Kontextverlust im Systemoutput?
  • Typ V: Wie bewerte ich ein System vor der Einführung?

Handlungsschritte für Pflegeeinrichtungen und Krankenhäuser

Aus der Kombination von BAPID III und den Anforderungen des EU AI Act ergibt sich ein klarer Handlungspfad. Die Bundesnetzagentur empfiehlt vier Schritte – BAPID III operationalisiert, wie diese für Pflegeorganisationen konkret auszugestalten sind:

Schritt 1

Bedarf ermitteln – nach BAPID-Typ

Welche KI-Systeme werden in der Einrichtung eingesetzt? Welche BAPID-Typen interagieren täglich mit diesen Systemen? Schon diese Bestandsaufnahme zeigt: Eine Einheits-Schulung für alle Pflegekräfte wird der Verordnung nicht gerecht.

Schritt 2

Rollenspezifisch schulen

Typ II: Anwenderschulung und Fehlermeldepflichten · Typ III: Systemkritik und Datenbewertung · Typ IV: Entscheidungsunterstützung und Teamschulung · Typ V: Technologiebewertung und ethische Reflexion. BAPID liefert die inhaltliche Grundlage für jede Stufe.

Schritt 3

Regelmäßiges Refresh einplanen

Nach Systemwechseln, Softwareupdates und der Einführung neuer KI-Funktionen ist eine Nachschulung Pflicht – nicht Kür. BAPID III betont ausdrücklich die „Bereitschaft zur kontinuierlichen Schulung" als Kompetenzanforderung aller vier Typen.

Schritt 4

Dokumentieren und nachweisen

Schulungsmaßnahmen, Teilnehmer*innen, Inhalte und Zeitpunkte sind nachweisbar festzuhalten. Fehlende Dokumentation kann als Verletzung der Sorgfaltspflicht gewertet werden – dies gilt auch dann, wenn die Schulungen tatsächlich stattgefunden haben.

✅ BAPID als Grundlage für den Schulungsbedarfs-Audit

BAPID III liefert für jede Pflegerolle die erwarteten Kompetenzen im Bereich Technologie & E-Health. Damit eignet sich der Rahmen unmittelbar als Referenzpunkt für die nach Art. 4 KI-VO erforderliche Bedarfserhebung – ohne dass Einrichtungen das Rad neu erfinden müssen.

⚠ Betriebsrat nicht vergessen

§ 90 Abs. 1 Nr. 3 BetrVG: Der Arbeitgeber hat den Betriebsrat rechtzeitig zu unterrichten, wenn KI-Systeme im Betrieb geplant werden. Schulungskonzepte für KI-Kompetenz sind mitbestimmungspflichtig – auch in Pflegeeinrichtungen und Krankenhäusern.

Was BAPID III auch zeigt: Strukturelle Lücken

BAPID III benennt offen: Insbesondere für akademisch qualifizierte Rollen (Typ IV und V) fehlen in der deutschen Praxis noch die strukturellen, tariflichen und bildungspolitischen Voraussetzungen, um diese Kompetenzprofile nachhaltig zu verankern.

In Stellenprofilen sind Aufgabenbereiche wie Technologiebewertung, KI-Evaluation oder Systementwicklung zwar benannt – aber selten mit konkreten Stellenanteilen, Freistellungen oder organisatorischen Zuständigkeiten hinterlegt.

Das bedeutet: Wer als Einrichtung diese Kompetenzen einfordern will, muss auch die strukturellen Rahmenbedingungen schaffen.

Kompetenz ohne Handlungsspielraum bleibt Papier

Ein Typ-IV- oder Typ-V-Profil, das Technologiebewertung fordert, braucht auch Zeitressourcen, Entscheidungskompetenz und organisatorische Einbindung – sonst ist KI-Kompetenz nur formal erfüllt, nicht operational wirksam.

Tarifliche Eingruppierung als offene Flanke

BAPID III identifiziert fehlende tarifliche Hinterlegung akademischer Pflegekompetenz als strukturelles Hindernis.
Dies betrifft direkt die Frage, wer in Einrichtungen die Technologiebewertung nach Art. 14 KI-VO verantwortlich übernehmen kann – und will.

Hinweis für Einrichtungsleitungen

Die Erfüllung von Artikel 4 EU-KI-Verordnung setzt nicht nur Schulung voraus, sondern auch die Schaffung der organisatorischen Voraussetzungen, innerhalb derer KI-Kompetenz wirksam eingesetzt werden kann.
Beides zusammen bildet eine nachhaltige KI-Governance in der Pflege.

Quellen:
1. Genz, K. & von Gahlen-Hoops, W. (2026). BAPID III – Kompetenzprofile. Kiel, Februar 2026. Entwickelt auf Basis von 39 Stellenprofilen aus ambulanter Pflege, stationärer Langzeitpflege und Akutversorgung. Konsentierung mit 36 bundesweiten Praxispartner*innen im Sounding Board (August–September 2025).
2. Regulatorischer Rahmen: EU-KI-Verordnung (EU) 2024/1689, Art. 3 Nr. 56, Art. 4, Art. 14.
3. Bundesnetzagentur Leitfaden KI-Kompetenz, Juni 2025.
4. § 90 Abs. 1 Nr. 3 BetrVG.