Services



Datenqualität
Datenqualität auf höchstem Niveau ist eine der Grundvoraussetzungen für valide Geschäftsentscheidungen.
Datenqualität ist ein multidimensionales Konstrukt, welches durch mehrere Messgrößen bestimmt wird. Die individuellen Prozesse, Anwendungsfälle, Anwender und Systeme in jeder Organisation bestimmen, welche Dimensionen für die Datenqualität in Ihrem Datenbestand relevant sind.
Grundsätzlich ist ein hohes Datenqualitätsniveau die Basis für echte Datenintelligenz und somit ein grundlegender Erfolgsfaktor für alle datengestützten Geschäftsprozesse und -modelle. Die Steigerung Ihrer Datenqualität schafft die optimalen Voraussetzungen für smarte Entscheidungsprozesse und eine optimale Performance im digitalen Zeitalter.
Datenqualität mit DataRocket
Die MDM-Software DataRocket zeichnet sich durch ihren Fokus auf Datenqualität aus. Wir haben erkannt, dass Datenqualität der entscheidende Wettbewerbsvorteil für sämtliche Unternehmen ist. Deshalb bietet DataRocket folgende Funktionen zur Steigerung der Datenqualität an:
- Datenanalyse: Analyse der Stammdaten und Erstellung einer Systematik für Datenqualität (DQ-Systematik)
- Data Cleansing: Datenbereinigung im Quell- und/oder Zielsystem
- MDM-Heatmap: Kontinuierliches Monitoring der langfristigen Datenqualität


Datenanalyse
Der Auftakt für ein erfolgreiches Datenmanagement-Projekt
Die Durchführung einer Datenanalyse ist eine geeignete Maßnahme zum Beginn eines Stammdatenmanagementprojekts. Sie erhalten einen ersten Überblick über das Qualitätsniveau Ihrer Daten im IST-Zustand und können anhand dieser Erkenntnisse weitere Schritte planen.
Der innoscale Ansatz für die Datenanalyse:
Wir nutzen ein attributweises Vorgehen. Auf Basis von Pipelines, mit denen Sie individuelle Qualitätskriterien und Berechnungspfade unter Verwendung vorgefertigter Bausteine definieren können, lässt sich die Datenqualität bestimmen. Für jeden unserer Kunden nehmen wir individuelle Prüfungen vor. Damit wir kundenindividuelle Sets an Datenqualitätskriterien schneller und effizienter aufbauen können, greifen wir auf eigens entwickelte Templates zurück. Wir bieten Templates für Kreditoren- und Debitorendaten, sowie ein Template für den SAP-Materialstamm an.
Unsere Überzeugung besagt, dass Datenqualität in den beteiligten Fachbereichen verankert werden muss. Deshalb wird die Datenqualitätsmessung- und kontrolle in unseren Projekten vom Fachbereich her aufgebaut. Die Anforderungen werden durch die Fachbereiche formuliert und idealerweise auch dort umgesetzt. Unsere Datenqualitätssoftware DataRocket unterstützt alle Datenverantwortlichen bei ihren Tätigkeiten, indem sie Datenanalysen und Qualitätskontrollen über eine Weboberfläche anbietet – Programmierkenntnisse sind daher nicht notwendig.
Aufgaben im Rahmen einer Datenanalyse:
Phase 1: Konzeption der Messung und Analysestruktur
- Konzeption und Umsetzung einer DQ-Systematik
- Methodik zur Erhebung von Anforderungen
- Rahmenwerk zur strukturierten Messung (DQ-Systematik)
- Technische Vorgaben für die Pflege von Attributen
- Fachliche Vorgaben für die Pflege von Attributen
- Unternehmensweite Standards zur Sicherung der Datenqualität
Ergebnis: Es wird eine Datenqualitätssystematik (Ordnungsrahmen) erstellt, die Mitarbeiter bei der Umsetzung und Einhaltung der definierten Standards und Regeln unterstützt.
Phase 2: Durchführung der Datenqualitätsmessung
- Auswahl relevanter Attribute
- Bestimmung von Qualitätskriterien
- Erarbeitung der Regeln zur Definition eines Duplikates
- Ermittlung von Erfolgskennzahlen zur Messung der Datenqualität
- Festlegung von benötigten Daten-Exporten
Ergebnis: Die strukturierte Analyse misst die Datenqualität im Unternehmen und stellt die Voraussetzung für die langfristige Umsetzung von Qualitätskriterien dar.
Nutzen und Ergebnisse der Datenqualitätsmessung
DUPLIKATSPRÜFUNG
Die Datenqualitätssoftware DataRocket identifiziert Dubletten und fehlerhafte Datensätze.
DATA QUALITY CHECK
Fehlerarten und -häufigkeiten, Plausibilitätsverletzungen werden transparent gemacht und deren Ursachen aufgespürt.
OPTIMIERUNGSVORSCHLÄGE
Anhand der Ergebnisse werden erste Maßnahmen zur Optimierung festgelegt. Zudem werden Lösungsansätze, wie bspw. Bereinigungsempfehlungen, identifiziert.


Data Cleansing
Optimierte Datenqualität durch Datenbereinigung
In der Regel sind Datenbereinigungen der erste Ansatz zur Wiederherstellung einer korrekten Datenbasis als Grundlage für eine Verbesserung der Datenqualität. Die Duplikatserkennung und -beseitigung spielt dabei eine entscheidende Rolle, ebenso wie der Aufbau von Prüfregeln zur Messung der Datenqualität sowie die Erfolgskontrolle im Anschluss an die Bereinigung.
Die Duplikatserkennung, die Sie mit unserer Stammdatenmanagement-Software DataRocket durchführen können, überprüft den gesamten Datensatz und findet Einträge, die dasselbe Geschäftsobjekt betreffen, jedoch abweichende Informationen enthalten. In einem Prozess, der sich Datenharmonisierung nennt, werden diese zu einem übergreifenden aussagekräftigen Datensatz – dem Golden Record – zusammengeführt.
Golden Record
DataRocket fungiert als Hub in der Datenlandschaft eines Unternehmens und greift als solcher auf heterogene Datenquellen zu. Die Datensätze dieser Quellen werden extrahiert und konsolidiert und anschließend zu Golden Records zusammengeführt. Dieser Golden Record oder Single Point of Truth ist ein Stammdatensatz, der die relevanten Attribute aus allen Datenquellen vereinigt.
Nicht nur die Beseitigung von Dubletten, sondern auch andere Korrekturen verbessern die Datenqualität:
- Plausibilitätsverletzungen (z. B. muss das Nettogewicht immer kleiner sein als das Bruttogewicht eines Artikels)
- Füllgrade und Grenzwerte wie Min- und Max-Werte (z. B. müssen Postleitzahlen aus genau fünf Ziffern bestehen, die eine Zahl zwischen 01067 und 99998 ergibt)
- Fehlende Standards für Datumsformate (z. B. TT.MM.JJJJ), Adressen (z. B. Hausnummern in eigenem Feld) oder Telefonnummern (z. B. Ländervorwahl-Ortsvorwahl-Rufnummer)
Datenbereinigung mit DataRocket
Unsere Stammdatenmanagement-Software DataRocket bietet drei verschiedene Arten des Data Cleansing an.
1. Automatisierte Datenbereinigung:
Die Anwendung einer bzw. mehrerer zuvor definierter Regeln führt zu aktualisierten Daten (in der Masse).
2. Datenbereinigungsworkflow:
In der Software wird ein Workflow durchlaufen und anhand der Ergebnisse manuelle Korrekturen an den Daten vorgenommen.
3. Massenupdate (Bulk Upload):
Es wird eine neue Datei zur Bereinigung der Daten hochgeladen.


MDM-Heatmap
Nachhaltige Steigerung der Datenqualität
Zum kontinuierlichen Monitoring der Datenqualität in Ihrem Unternehmen bietet die innoscale AG Messungen in Echtzeit an. Unter Einsatz der innoscale MDM-Software DataRocket wird die tatsächliche Datenqualität direkt in Ihren Systemen rund um die Uhr gemessen und überwacht. Die Messung liefert u. a. Ergebnisse zu folgenden Qualitätskriterien:
- Aktualität und Alter der Daten
- Konsistenz, Gültigkeit, Fehlerfreiheit, Vollständigkeit und Redundanzfreiheit
- Änderungshäufigkeit
Hier sehen Sie an einem Beispiel, wie eine solche Heatmap aussehen kann:
Diese Real-Time-Prüfung der Datenqualität bieten wir auch als Microservice-Architektur an. Sie profitieren von einer zentralen Ansicht zur Evaluation Ihrer Datenqualität. Dafür stehen Ihnen frei konfigurierbare dynamische Web-Reports im Dashboard der Software DataRocket. Zusätzlich erhalten Sie konkrete Optimierungsvorschläge auf Basis der Datenqualitätsmessungen.

