Blog

Effektive Datenqualitätsregeln: Ein Leitfaden zur Umsetzung

Wasserstandsmessung an einem Schiff

In unserem Datenblog betonen wir immer wieder die zentrale Bedeutung der Datenqualität für den Unternehmenserfolg. Ein hohes Maß an Datenqualität ist die Basis für echte Datenintelligenz und damit ein grundlegender Erfolgsfaktor für alle datenbasierten Geschäftsprozesse und -modelle. Doch wie kann eine kontinuierlich hohe Datenqualität sichergestellt werden?

Dieser Artikel beschreibt die externen und unternehmensinternen Anforderungen an die Datenqualität sowie Ansätze zu deren Messung. Darüber hinaus wird ein umfassender Kriterienkatalog vorgestellt, der als Grundlage für die Messung der Datenqualität dienen kann.

Gemäß dem Grundsatz „Man kann nur das verbessern, was man auch messen kann” müssen zu Beginn eines Datenqualitätsprojektes die Anforderungen an die Daten ermittelt und in Datenqualitätsregeln formuliert werden.

Die Messung der Datenqualität erfolgt durch die Überprüfung der Datenqualitätsregeln. Dabei empfiehlt sich eine Kombination aus quantitativer Messung, die automatisiert mittels Analysesoftware quasi in Echtzeit direkt auf den Datenbanken erfolgt, und qualitativer Erhebung mittels regelmäßiger Befragung der Nutzer der Daten.

Was bedeutet Datenqualität?

Datenqualität ist ein mehrdimensionales Konstrukt, das durch mehrere Messgrößen bestimmt wird. Welche Dimensionen für die Datenqualität in bestimmten Szenarien relevant sind, hängt von den Prozessen, Anwendungsfällen, Nutzern und Systemen ab. Nach DIN ISO 8402 wird Datenqualität als die Eignung von Daten für unterschiedliche Verwendungszwecke hinsichtlich des Grades ihrer Erfassung und Erzeugung beschrieben.

Anforderungen an die Datenqualität

Verschiedene Anforderungen kennzeichnen ein Datenqualitätsprojekt. Sie werden von den verschiedenen Stakeholdern wie Anwendern, Management und Rechtsabteilung gestellt und in Datenqualitätsregeln abgebildet. Branchenspezifische externe Anforderungen sind in der Regel offiziell bekannt und daher leichter zu identifizieren als unternehmensinterne Standards.

Externe rechtliche Anforderungen werden durch Gesetze zu Dateninhalten, Verarbeitungsformen, Datenverfügbarkeit und Zugriffsregelungen definiert. Den Löwenanteil machen steuerrechtliche und vertragliche Aufbewahrungsfristen sowie Pflichtangaben aus, die für bestimmte Branchen und Geschäftsprozesse gelten.

Externe Referenzinformationen betreffen international tätige Unternehmen. Dazu gehören Compliance-Regeln für Kunden- und Geschäftsbeziehungen zur Verhinderung illegaler Geschäfte. Darüber hinaus sind Vorgaben zur Datenhaltung (z.B. Referenzlisten) und zum Informationsaustausch (z.B. Branchencodes) zu beachten.

Zur Ermittlung der unternehmensspezifischen Anforderungen sind Beschreibungen der Geschäftsmodelle, Datenmodelle, Schnittstellenbeschreibungen, Arbeitsanweisungen und Schulungsunterlagen zu untersuchen. Mit den Methoden des Data Profiling und Data Mining können aus dem Datenbestand weitere Auffälligkeiten und Datenfehler identifiziert werden, die als Grundlage für weitere Datenqualitätsregeln dienen.

Technische Anforderungen schließlich beschreiben Anforderungen, die sich aus der Auswahl von IT-Systemen, Anwendungen und Datenbanken ergeben. Eine häufige Quelle von Datenqualitätsproblemen ist der Austausch von Informationen zwischen verschiedenen Systemen.

You can only improve what you can measure.

Wie kann Datenqualität gemessen werden?

Nach der Definition von Datenqualitätsregeln werden diese auf die Datenlandschaft des Unternehmens angewendet. So kann die Anzahl der Datensätze ermittelt werden, die gegen die Regeln verstoßen. Durch die Verwendung verschiedener Metriken für die Datenqualitätskriterien wird eine objektive Datenqualitätszahl gebildet.

Es wird empfohlen, zwei Arten der Datenqualitätsmessung im Unternehmen durchzuführen. Eine automatisierte quantitative Messung der Datenqualität ist durch den Einsatz von Softwaretools möglich und kann direkt in den IT-Systemen und Datenbanken erfolgen. Sie sollte durch regelmäßige Befragungen von Anwendern und Datenqualitätsverantwortlichen ergänzt werden.

a) Quantitative Messung der Datenqualität

Diese objektive Datenqualitätsmessung kann kontinuierlich durchgeführt werden und bietet einen Überblick über die Datenqualität in Echtzeit. Insbesondere der Erfolg von Maßnahmen zur Verbesserung der Datenqualität, wie z.B. der Einsatz automatischer Prüfregeln im Datensystem oder die Einführung von Standards für die Anlage und Änderung von Daten, lässt sich anhand dieser Messwerte sehr gut beobachten.

Kriterien für die quantitative Datenqualitätsmessung

b) Qualitative Messung der Datenqualität:

Die regelmäßige Durchführung qualitativer Erhebungen zur Datenqualität ergänzt die quantitativen Messungen. Je nach Unternehmensgröße sind Befragungen im Abstand von sechs bis zwölf Monaten zu empfehlen. Dabei sollten alle Personen befragt werden, die für die Neuanlage und Änderung von Daten in den ausgewählten Datenbanksystemen verantwortlich sind.

Kriterien für die qualitative Datenqualitätsmessung

Die Datenqualitätskriterien im Überblick

  • Die Kategorie Zeit umfasst Qualitätskriterien, die einen Zeitbezug aufweisen.

  • Die Kategorie Inhalt umfasst Qualitätskriterien, die sich auf die Güte der Dateninhalte beziehen.

  • Die Kategorie Nutzung umfasst Qualitätskriterien, welche sich auf die Verwendbarkeit der Daten durch den Nutzer beziehen.

  • Die Kategorie System umfasst Qualitätskriterien, die den Zugriff auf die Daten im System beschreiben.

Die Datenqualitätskriterien der DGIQ: System, Darstellung, Nutzung, Inhalt

Fazit

Zusammenfassend können wir sagen, dass es am besten ist, eine Mischung aus zwei Ansätzen zu nutzen: einerseits die Einschätzung der Nutzer und andererseits die objektive Messung der Datenqualität. Die Einschätzung der Nutzer hilft uns, die Daten besser zu verstehen, während die Messung uns klare Zahlen liefert. Wenn wir diese beiden Dinge kombinieren, erhalten wir eine umfassende Strategie, um die Datenqualität zu verbessern. Auf diese Weise können Unternehmen sicherstellen, dass ihre Daten zuverlässig und vertrauenswürdig sind, was ihnen dabei hilft, bessere Entscheidungen zu treffen und erfolgreich zu sein.

DATAROCKET Core ist unser Tool für ein nachhaltiges Stammdatenmanagement. Datenqualität und Datenanalyse finden an einem Ort statt und neue Datensätze werden direkt qualitätsgeprüft angelegt. So arbeiten Ihre Mitarbeiter:innen mit der besten Datenqualität und Sie können wichtige Unternehmensentscheidungen besser treffen.

Core ist die Stammdatenmanagement-Software für verbesserte Datenqualität.

Weitere Blog-Beiträge