Einordnung: Datenqualität braucht Governance, nicht nur Regeln
Stammdatenqualität: Problem-orientiert statt Tool-orientiert
- ‘Datenqualität’ ist kein abstraktes Ziel. Sie ist ein Mittel, um konkrete Schäden zu reduzieren: Retouren, Lieferfehler, falsche Rechnungen, Compliance-Risiken, manuelle Nacharbeit.
- Datenqualität wird erst wirksam, wenn sie messbar ist (KPIs) und im Betrieb verankert ist (Rollen, Prozesse, Verantwortlichkeiten).
- Tools helfen – aber meistens ist die Ursache Prozess- und Ownership-chaos (wer darf welches Feld pflegen?).
Bezug zur Systemklasse Stammdatenmanagement (MDM)
- MDM ist häufig der Ort, an dem Datenqualitäts-Regeln, Workflows und Dublettenlogik umgesetzt werden (Golden Record).
- PIM betrifft primär Produkt-Content und kanalbezogene Vollständigkeit, MDM domänenübergreifende Governance.
- Integration entscheidet, ob Datenqualität stabil bleibt: ohne Ownership-Regeln entstehen wieder Datenkopien und Konflikte.
Typische Datenqualitäts-Probleme (Stammdaten) – so erkennst du sie schnell
Dubletten & widersprüchliche Stammdaten
Kunden/Lieferanten/Artikel existieren mehrfach oder mit unterschiedlichen Attributen – jede Abteilung arbeitet mit ‘ihrer Wahrheit’.
- Mehrfache Kundennummern / Lieferadressen
- Unklare Schreibweisen, fehlende IDs
- Reporting-Zahlen stimmen je System nicht überein
Unvollständige Pflichtinformationen
Wichtige Felder fehlen – Prozesse funktionieren nur mit manuellen Workarounds.
- Fehlende Steuer-/Zahlungsdaten oder Adressbestandteile
- Artikel ohne Einheit, Gewicht, Zolltarif, EAN
- Bestellungen/Belege hängen in Freigaben fest
Falsche/inkonsistente Werte
Werte sind formal vorhanden, aber fachlich falsch oder nicht standardisiert.
- Länder/Branchen/Einheiten in 5 Varianten
- Preis-/Konditionslogik widersprüchlich
- Fehlende Validierungen (z.B. PLZ zu Land)
Veraltete Daten (Aktualität)
Daten ändern sich, aber Aktualisierung ist unklar oder zu langsam – besonders bei Kunden-/Lieferantendaten.
- Adressänderungen werden nicht durchgängig übernommen
- Konditionen/Ansprechpartner veraltet
- Schwierige Auskunftsfähigkeit (z.B. DSGVO-Anfragen)
Datenqualitäts-Dimensionen: worüber wir eigentlich sprechen
‘Gute Daten’ ist kein binäres Urteil. Jede Dimension braucht eigene Messgrößen – und oft unterschiedliche Zielwerte je Status (z.B. ‘Kunde aktiv’ vs ‘Kunde angelegt’).
| Datenqualitäts-Dimension | Was bedeutet das? | Typische Messgröße (Beispiel) |
|---|---|---|
| Vollständigkeit | Sind erforderliche Felder befüllt? | Anteil Pflichtfelder gefüllt (%) je Objektstatus |
| Genauigkeit | Sind Werte fachlich korrekt? | Stichproben-Fehlerquote / Validierungsfehler |
| Konsistenz | Passen Werte system- und feldübergreifend zusammen? | Widerspruchsrate (z.B. Land zu PLZ, Einheit zu Gewicht) |
| Eindeutigkeit | Gibt es Dubletten/Mehrfachidentitäten? | Dublettenquote / Match-Rate / Merge-Backlog |
| Aktualität | Sind Daten zeitnah aktualisiert? | Median 'Age' kritischer Felder / Zeit bis Update |
| Gültigkeit | Entsprechen Werte Format/Regeln? | Validierungsquote (Regex, Referenzen, Domains) |
| Nachvollziehbarkeit | Sind Änderungen auditierbar (wer/was/warum)? | Anteil Änderungen mit Audit/Reason Code |
Praxis: Starte mit 2–3 Dimensionen, die den größten Schaden verursachen (oft: Eindeutigkeit/Dubletten, Vollständigkeit, Konsistenz).
Messbarkeit: KPIs, Baseline und Monitoring
Messbarkeit: Ohne KPI kein Fortschritt
- Definiere 5–10 KPIs pro Domäne (Kunde, Lieferant, Artikel) – nicht 50.
- Kopple KPIs an Business-Schäden: Retourenquote, falsche Rechnungen, Nacharbeitszeit, Lieferfehler.
- Miss in Stufen: Profiling (Ist) → Regeln/Checks (Soll) → Monitoring (Run).
Beispiel: KPI-Set für Kundenstamm
- Dublettenquote (Kunde) + Backlog offener Merges
- Vollständigkeit: Adresse, USt-ID, Zahlungsbedingungen (je Status)
- Time-to-Fix: Zeit bis Korrektur nach erkanntem Fehler
- Anteil Änderungen ohne Reason Code (Qualitätsindikator)
| Domäne | KPI | Ziel (Beispiel) | Kommentar |
|---|---|---|---|
| Kunde | Dublettenquote | < 1–2% | Match/Merge + klare Identitätsregeln |
| Kunde | Adressvollständigkeit | > 98% | Pflichtfelder je Status + Validierung |
| Lieferant | Bankdaten/Steuerfelder gültig | > 99% | Validierungen, 4-Augen-Freigabe |
| Artikel | Channel-Readiness (falls PIM) | > 95% | Vollständigkeit je Kanal/Shop |
| Artikel | Einheiten/Klassifikation konsistent | > 98% | Referenzdaten + Regeln |
| Alle | Time-to-Fix | < 3–5 Tage | SLA + Stewardship-Kapazität |
KPI-Design: Jede KPI braucht: Definition, Scope (Domäne/Segment), Messfrequenz, Owner, Zielwert – und einen Korrekturpfad (wer macht was, wenn KPI rot ist?).
Ursachenanalyse: warum Datenqualitäts-Projekte oft verpuffen
Ursachenanalyse: Warum Datenqualitäts-Projekte oft verpuffen
- Keine Ownership pro Feld/Objekt: mehrere Systeme/Teams pflegen parallel.
- Prozesse erzwingen Workarounds: Pflichtfelder fehlen, Validierungen fehlen, UI unpraktisch.
- Integration ohne Fehlerhandling: Sync bricht, Daten laufen auseinander, niemand merkt es.
- Keine Routine im Betrieb: Monitoring, Backlogs, Stewardship-Zeit fehlen.
Quick Checks (30 Minuten) für typische Datenqualitäts-Ursachen
- Wo entsteht der Datensatz (Create)? Wer darf ändern (Change)? Wer gibt frei (Approve)?
- Welche Felder sind ‘Master’ in welchem System? Gibt es Überschreibregeln?
- Gibt es eine Fehler-Queue für Integrationen (Retry/Reprocessing) oder nur Logs?
- Wie viele Datenqualitäts-Fälle sind offen? Wer arbeitet das Backlog ab?
Tools: was hilft wirklich – und wofür?
Tooling: Welche Tools bei Datenqualität typischerweise helfen
- Data Profiling: Ausreißer, Nullwerte, Verteilungen, Formatfehler sichtbar machen.
- DQ Rules Engine: Validierungen, Referenzdaten, Pflichtfelder je Status, Reason Codes.
- MDM (Golden Record): Match/Merge, Dublettenlogik, Workflows, Audit – besonders bei mehreren Quellsystemen.
- PIM (für Produkt-Content): kanalbezogene Vollständigkeit, Attribute, Übersetzungen, Kataloge.
- Monitoring/Integration (iPaaS): Fehler-Queues, Retries, Alerting – damit Qualität nicht ‘weg-sync't’.
Tool-Falle: 'Wir kaufen Datenqualität, dann ist es gelöst'
- Tools erkennen Probleme – aber Ownership und Prozesse lösen sie.
- Wenn Felder/Standards nicht definiert sind, wird jede Regel zur Debatte.
- Wenn Stewards keine Zeit haben, wächst das Backlog und Datenqualität verschlechtert sich wieder.
Umsetzungsplan: Stammdatenqualität in 5 Schritten verbessern
Problem & Domäne wählen (nicht alles gleichzeitig)
- Wähle 1 Domäne (z.B. Kunde) + 1–2 Schäden (z.B. Dubletten, falsche Rechnungen).
- Definiere Zielzustand und KPI (z.B. Dubletten < 2%).
- Setze einen Datenowner und Steward fest.
Profiling & Baseline (Ist-Zustand)
- Datenprofil: Nullwerte, Ausreißer, Formate, Duplikate, Referenzdaten.
- Segmentiere: z.B. aktive Kunden vs inaktive, Länder, Standorte.
- Erstelle einen Datenqualitäts-Bericht, den Business versteht (Kosten/Schäden).
Regeln/Standards + Workflows definieren
- Pflichtfelder je Status (z.B. Kunde ‘aktiv’).
- Validierungen (PLZ zu Land, USt-ID-Format, IBAN).
- Freigabeprozess (4-Augen) für kritische Felder.
Umsetzung im Tooling + Integration absichern
- Workflows, Rollen/Rechte, Audit/Reason Codes im MDM/ERP/CRM abbilden.
- Integration: Fehler-Queue, Retries, Monitoring/Alerting (iPaaS oder vergleichbar).
- Backlog-Prozess: täglich/weekly triage, klare SLAs.
Run: Monitoring, KPIs, Root Cause fixen
- KPI-Review (monatlich/weekly): Trends, Backlog, Ursachen.
- Root Cause: Prozess/UI/Integration so ändern, dass Fehler nicht wieder entstehen.
- Onboarding/Training: Standards und Verantwortlichkeiten dauerhaft verankern.
Schneller Start: Wenn ihr noch keine System-/Domänenübersicht habt: Systemlandschaft verstehen
Typische Fehler: so bleibt Datenqualität nachhaltig
Typische Fehler (und Gegenmaßnahmen)
- Zu viele KPIs → 5–10 pro Domäne, die Business-Schäden abbilden.
- Nur korrigieren, nicht Ursachen beheben → Root Cause in Prozessen/Integrationen fixen.
- Pflichtfelder ohne Prozesslogik → Pflichtfelder je Status, sonst sinkt Akzeptanz.
- Keine Stewardship-Kapazität → Backlog wächst, Datenqualität kippt wieder.
- Integration ohne Monitoring → Datenqualität driftet zwischen Systemen auseinander.
FAQ: Stammdatenqualität verbessern
Erstberatung: Stammdatenqualität messbar verbessern
Ich unterstütze systemunabhängig bei Datenqualitäts-Analyse (Profiling), KPI-Definition, Ownership-Regeln (Master je Feld), Stewardship-Prozessen, Tooling-Design (MDM/PIM/DQ) und Integrationsmonitoring. Ziel: weniger Schäden und weniger manuelle Nacharbeit.
Erstberatung anfragen