DIKW-Pyramide

Von Rohdaten zur KI-Urteilsfähigkeit: Die DIKW-Hierarchie als Lernarchitektur für KI-Kompetenz.
Das DIKW-Modell geht auf die grundlegende Veröffentlichung „From Data to Wisdom“ von Russell L. Ackoff aus dem Jahr 1989 zurück. Es beschreibt die Entwicklung von isolierten Daten hin zu fundierten und wertebasierten Entscheidungen über vier aufeinander aufbauende Ebenen – Data, Information, Knowledge und Wisdom. Für KI-Kompetenz im Gesundheits- und Sozialwesen bietet dieses Modell heute einen belastbaren Orientierungsrahmen für Qualifizierung, Governance-Strukturen und Betreiberpflichten nach Art. 4 des EU AI Act.
Ackoffs Kernunterscheidung ist entscheidend: „The difference between knowledge and wisdom is the difference between know-how and know-why." KI-Kompetenz endet nicht bei der Anwendungskompetenz – sie erfordert das Urteilsvermögen, KI-Outputs unter ethischen, rechtlichen und organisationalen Gesichtspunkten zu bewerten und diese Bewertung nachvollziehbar zu begründen.
Was das DIKW-Modell Die DIKW-Pyramide (Daten, Information, Wissen, Weisheit) ist ein Modell der Informationswissenschaft, das den Prozess der Wissensentstehung hierarchisch darstellt. Sie veranschaulicht, wie rohe Daten durch Kontextualisierung und Verarbeitung schrittweise zu Informationen, dann zu Wissen und schließlich zu weisheitsbasierten Handlungen aufsteigen. wirklich aussagt
Russell L. Ackoff unterschied bereits 1989 zwischen vier grundlegenden Ebenen menschlicher Erkenntnis. Daten verstand er als bedeutungslose Symbole, Information als zweckgerichtet eingeordnete Daten, Wissen als anwendbares Know-how und Weisheit als wertebasiertes Urteilsvermögen. Weniger bekannt ist, dass Ackoff ursprünglich sogar fünf Ebenen beschrieb. Zwischen Knowledge und Wisdom verortete er zusätzlich die Ebene „Understanding“, also das Verständnis für Zusammenhänge und Ursachen. Die heute weit verbreitete Vier-Ebenen-Pyramide stellt daher eine vereinfachte Darstellung dar und blendet eine wichtige Differenzierung des ursprünglichen Modells aus.
Im Kontext von Art. 4 des EU AI Act erhält diese Struktur eine unmittelbare operative Bedeutung. Einrichtungen müssen sicherstellen, dass Mitarbeitende über ein angemessenes Maß an KI-Kompetenz verfügen. Die DIKW-Hierarchie übersetzt diese Anforderung in eine nachvollziehbare Lern- und Governance-Logik, die vom Erkennen und Einordnen von KI-Outputs bis hin zur fachlich begründeten Entscheidung reicht. Jennifer Rowley beschrieb diesen Zusammenhang 2007 in ihrer Synthese der DIKW-Literatur besonders prägnant. Wisdom bedeute demnach, vorhandenes Wissen für tragfähige Entscheidungen im Einklang mit Werten und langfristigen Zielen einzusetzen.
Von Symbol zur Entscheidung
Ackoff (1989) beschreibt vier kategorisch verschiedene Ebenen: Daten liefern keine Antworten; Information beantwortet Wer/Was/Wann/Wo; Wissen beantwortet Wie; Weisheit beantwortet Wozu – unter Einbezug von Werten und langfristigen Konsequenzen.
EU AI Act Art. 4
KI-Kompetenz wird zur Betreiberpflicht. Das DIKW-Modell bietet eine strukturierte Grundlage: Basis-Literacy AI Literacy (KI-Basis-Kompetenz) bezeichnet die Fähigkeit, Künstliche Intelligenz zu verstehen, kritisch zu bewerten, sicher zu nutzen und ethisch vertretbar in den Alltag oder Beruf zu integrieren. Es ist eine fundamentale Kulturtechnik der Zukunft, die über bloße Bedienung hinausgeht. (Data), Einordnungskompetenz (Information), regulatorisches Wissen (Knowledge) und Urteilsvermögen (Wisdom).
Ackoffs Kernunterscheidung
Wissen ist Know-how – die Fähigkeit, etwas zu tun. Weisheit ist Know-why – das Urteilsvermögen, das Werte und langfristige Folgen einbezieht. Ein KI-Ergebnis ist kein Urteil; erst Kontextwissen und Werteorientierung machen es zu belastbarem Handeln.
Welche Ebene erschließt welche KI-Kompetenz?
DATA – Symbole ohne inhärente Bedeutung
Ackoff (1989): „Data are symbols that represent properties of objects, events and their environments." Daten – Scores, Konfidenzwerte, Klassifikationsergebnisse, Systemlogs KI-Systemlogs sind automatisierte Aufzeichnungen, die dokumentieren, was ein KI-System tut, wie es funktioniert und welche Entscheidungen es trifft. Sie sind essenziell für Transparenz, Sicherheit und die Einhaltung regulatorischer Anforderungen, insbesondere unter der EU-KI-Verordnung. – sind für sich allein bedeutungslos. KI-Outputs sind zunächst Daten; ohne Kontext haben sie keine Entscheidungsqualität.
Trainingsdaten Konfidenzwerte Konfidenzwerte (Confidence Scores) in der Künstlichen Intelligenz sind Metriken, die angeben, wie sicher sich ein KI-Modell bei einer bestimmten Vorhersage oder Klassifizierung ist. Sie quantifizieren den Grad des Vertrauens, den das Modell in sein eigenes Ergebnis setzt. Bias-RisikoINFORMATION – Daten mit Relevanz und Zweck
Information entsteht laut Ackoff, wenn Daten mit Relevanz und Zweck verknüpft werden – sie beantworten die Fragen Wer, Was, Wann, Wo. Ein KI-Risikowert Die KI-Risikobewertung (AI Risk Assessment) ist ein strukturierter Prozess zur Identifizierung, Analyse und Bewertung potenzieller negativer Auswirkungen von KI-Systemen. Im Kontext des EU AI Act werden KI-Systeme in Deutschland und Europa in vier Risikostufen eingeteilt, um Compliance und Vertrauen zu gewährleisten. wird zur Information, wenn klar ist: für welche Patientengruppe, in welchem Prozesskontext und unter welchen regulatorischen Anforderungen er gilt.
RisikoklassenDSGVO Art. 35TransparenzKNOWLEDGE – angewandte Information (Know-how)
Wissen ist bei Ackoff angewandte Information – es beantwortet die Frage Wie. Es bezeichnet die Fähigkeit, Zusammenhänge zu verstehen und in Entscheidungen zu überführen. Im Organisationskontext: EU AI Act, MDR, DSGVO und Qualitätsmanagement nicht isoliert kennen, sondern als vernetztes Regelwerk anwenden können.
EU AI Act × MDRFMEAArt. 26WISDOM – evaluiertes Verständnis (Know-why)
Weisheit ist für Ackoff evaluiertes Verständnis – sie fragt nach dem Wozu und bewertet Konsequenzen im Licht von Werten. „Wisdom is concerned with the long-run consequences of actions." Wer KI verantwortet, muss nicht nur wissen, wie ein System funktioniert, sondern warum ein bestimmter Einsatz ethisch, rechtlich und fachlich vertretbar ist.
EthikHaftungGovernance„The difference between knowledge and wisdom is the difference between know-how and know-why."
Ackoff, 1989: Diese Unterscheidung besitzt für KI-Kompetenz im Gesundheitswesen eine zentrale Bedeutung. Wissen ermöglicht den fachgerechten Einsatz von KI-Systemen. Weisheit entscheidet hingegen darüber, ob und in welchem Umfang KI in einem konkreten Versorgungskontext verantwortbar eingesetzt werden sollte. Dabei müssen langfristige Auswirkungen, ethische Werte und organisatorische Verantwortung berücksichtigt werden.
Damit entwickelt sich das DIKW-Modell zu einem praktischen Führungs- und Governance-Instrument. Es beschreibt eine nachvollziehbare Entwicklungslinie von Data Literacy Data Literacy (auf Deutsch: Datenkompetenz) bezeichnet die Fähigkeit, Daten kritisch zu erfassen, zu managen, zu analysieren, zu interpretieren und zu visualisieren. Sie ist eine Schlüsselkompetenz im digitalen Zeitalter, um fundierte Entscheidungen zu treffen und datenbasierte Erkenntnisse verantwortungsvoll zu nutzen. Sie umfasst technisches Verständnis, Datenethik und die Fähigkeit, Daten im Kontext zu bewerten. über Kontext- und Regulierungskompetenz bis hin zur dokumentierten Urteilsfähigkeit. Gleichzeitig wird sichtbar, auf welcher Reifeebene sich Organisationen im Umgang mit KI tatsächlich befinden.
Definition, Lernziel und regulatorische Konsequenz je DIKW-Ebene
| DIKW-Ebene | Definition nach Ackoff (1989) | Regulatorischer Bezug | Konsequenz für Einrichtungen |
|---|---|---|---|
| Data | Symbole, die Eigenschaften von Objekten und Ereignissen repräsentieren – ohne inhärente Bedeutung Basis | EU AI Act Art. 10, Anhang III | KI-Grundbegriffe schulen: Datenqualität, Konfidenzwerte, Bias-Quellen KI-Bias (künstliche Verzerrung / Voreingenommenheit) entsteht, wenn KI-Systeme aufgrund fehlerhafter Annahmen im maschinellen Lernprozess systematische Vorurteile entwickeln. Die Quellen sind vielfältig und können über den gesamten Lebenszyklus eines KI-Modells auftreten , Fehlerraten und Trainingsdaten verständlich machen. |
| Information | Daten + Relevanz + Zweck; beantwortet Wer / Was / Wann / Wo Einordnung | EU AI Act Art. 6, 13, 14; DSGVO Art. 35 | KI-Systeme in Risikoklassen einordnen, Transparenzpflichten prüfen, Datenschutzfolgen und Anwendungskontext klären. |
| Knowledge | Angewandte Information; beantwortet Wie; Know-how zur Entscheidungsfindung Governance | EU AI Act Art. 9, 17, 26; MDR; SGB | Betreiberpflichten, QM, FMEA Die FMEA (Fehlermöglichkeits- und Einflussanalyse) ist eine präventive Methode des Qualitätsmanagements, um potenzielle Produkt- oder Prozessfehler frühzeitig zu identifizieren, zu bewerten und zu vermeiden. Sie analysiert Ursachen, Fehlerfolgen und deren Eintritts- sowie Entdeckungswahrscheinlichkeit, um Risiken zu minimieren. und Monitoring als vernetzten Compliance-Prozess aufsetzen und anwenden. |
| Wisdom | Evaluiertes Verständnis; beantwortet Wozu; wertebasiertes Urteil mit Blick auf langfristige Konsequenzen Leitung | EU AI Act Art. 4; menschliche Aufsicht; Grundrechte | KI-Einsatzentscheidungen ethisch, rechtlich und fachlich begründen, dokumentieren und nachvollziehbar verantworten. |
Was die DIKW-Literatur an der Pyramide kritisiert – und was dennoch trägt
Ackoffs 5. Ebene: Understanding
Ackoff (1989) schlug ursprünglich fünf Ebenen vor – mit Understanding (dem Verstehen des Warum) als eigenständiger Ebene zwischen Knowledge und Wisdom. Die vereinfachte Vier-Ebenen-Pyramide blendet diese Differenzierung aus.
Rowley (2007): Keine strikte Linearität
Rowleys Synthese der DIKW-Literatur zeigt: Übergänge sind fließend, Rückkopplungen existieren. Neues Wissen verändert die Wahrnehmung von Daten; Weisheit stellt neue Informationsfragen. Das Modell ist eine Heuristik, kein Regelwerk.
Frické (2009): Kritik an der Pyramide
Frické kritisiert, dass die Wissenspyramide ein zu lineares Bild zeichnet. Wissen entsteht nicht ausschließlich durch Aufaddierung – es kann auch durch Dekonstruktion, Verwerfen oder Neustrukturierung entstehen.
Unser Ansatz
Trotz berechtigter Kritik bleibt DIKW als Ordnungsmodell wertvoll – insbesondere für die Planung und Dokumentation von Kompetenzentwicklung. Es wird iterativ und praxisnah eingesetzt, nicht als starre Hierarchie.
Woran KI-Kompetenz in Organisationen scheitert – durch die DIKW-Brille
Sechs wiederkehrende Muster zeigen, warum KI-Schulungen häufig nicht in belastbare Handlungskompetenz übergehen – und auf welcher DIKW-Ebene das Problem liegt.
Symbole ohne Kontext (DATA-Problem)
KI-Outputs werden als Entscheidungen behandelt. Ackoff (1989): Daten sind bedeutungslose Symbole – ohne Kontexteinbettung haben sie keine Entscheidungsqualität.
Information ohne Relevanzprüfung
KI-Systeme werden eingesetzt, ohne zu klären, für welchen Anwendungskontext, welche Patientengruppe und welche Risikoklasse sie tatsächlich geeignet sind.
Wissensinseln (KNOWLEDGE-Problem)
Know-how existiert in Silos. Datenschutz, Medizinproduktrecht, QM und Prozessverantwortung sind nicht vernetzt – was Ackoffs Knowledge-Ebene ausdrücklich erfordert.
Einmalige Schulung
Die DIKW-Hierarchie verlangt iterativen Aufbau über alle Ebenen. Einmalige Pflichttermine erreichen allenfalls Data-Grundlagen – keine Wisdom.
Fehlende Kompetenznachweise
Kompetenz ist nicht dokumentiert. Rowley (2007) betont: Wissensmanagement schließt die Sicherung und Dokumentation von organisationalem Wissen ein.
Wisdom-Defizit
Urteilsvermögen unter Unsicherheit – Ackoffs höchste Ebene, die Werte und langfristige Konsequenzen einbezieht – wird selten systematisch trainiert.
KI-Kompetenz-Readiness nach DIKW (Ackoff 1989)
Wie gut ist Ihre Einrichtung auf die vier DIKW-Ebenen vorbereitet? Wählen Sie alle Aussagen aus, die zutreffen:
Ein pragmatischer Fahrplan für DIKW-Kompetenzaufbau
Nach Ackoff: Daten als bedeutungslose Symbole identifizieren. KI-Grundbegriffe schulen – Konfidenzwerte, Bias-Quellen, Fehlerraten und Datenqualität sichtbar machen.
Information entsteht durch Relevanz und Zweck. Risikoklassen bestimmen, Datenschutzfolgen abschätzen, Transparenzpflichten und Anwendungskontext dokumentieren.
EU AI Act, MDR, SGB und QM nicht isoliert kennen – sondern als vernetztes Regelwerk anwenden können. Betreiberpflichten, FMEA und Monitoring als integrierten Prozess aufsetzen.
Ackoffs höchste Ebene: langfristige Konsequenzen und Werte einbeziehen. Fallstudien, Ethik-Deliberation Ethik-Deliberation ist ein strukturierter, argumentationsbasierter Prozess zur ethischen Entscheidungsfindung bei moralischen Dilemmata, insbesondere im medizinischen oder sozialen Kontext. Sie dient dazu, durch gemeinsame Abwägung von Werten, Fakten und Handlungsoptionen die bestmögliche Entscheidung zu treffen. Methoden wie ethische Fallbesprechungen, Ethikkomitees oder das Ethik-SAMBA-Modell helfen, Argumente zu prüfen und Konsens zu finden. , Leitungsschulungen. Kompetenznachweise nach Art. 4 EU AI Act führen.
|
Literaturgrundlage
Ackoff, R. L. (1989). From data to wisdom. Journal of Applied Systems Analysis, 16, 3–9. — Die Gründungsquelle des DIKW-Modells mit der Unterscheidung von Know-how und Know-why. Zeleny, M. (1987). Management support systems. Human Systems Management, 7(1), 59–70. — Frühe Formulierung der Wissenshierarchie im Managementkontext. Cleveland, H. (1982). Information as resource. The Futurist, 16(6), 34–39. — Pionierarbeit zur Informationsressource; Grundlage für spätere DIKW-Konzepte. Rowley, J. (2007). The wisdom hierarchy: representations of the DIKW hierarchy. Journal of Information Science, 33(2), 163–180. — Umfassende Synthese und kritische Durchsicht der DIKW-Literatur. Frické, M. (2009). The knowledge pyramid: a critique of the DIKW hierarchy. Journal of Information Science, 35(2), 131–142. — Kritische Analyse der Linearitätsannahmen der Pyramide. KI-Kompetenz ansehen |
KI-Kompetenz nach DIKW strukturiert aufbauen?
Ich begleite Einrichtungen beim Aufbau von KI-Kompetenz nach dem DIKW-Modell – von der Data-Literacy bis zur Wisdom-Ebene, mit Fokus auf EU AI Act Art. 4, dokumentierter Governance und Praxisfähigkeit. |