DataRocket

Die Multi-Domain-Stammdatenmanagement-Software

Benefit 1

UNKOMPLIZIERT

DataRockets innovative Technologie schafft eine schlanke Integration in Ihre IT-Landschaft.

Benefit 2

ANWENDERFREUNDLICH

DataRockets intuitive Benutzeroberfläche ermöglicht eine einfache Bedienung und Einbindung aller Abteilungen.

Benefit 3

ÜBERZEUGEND

DataRockets smartes Lizenzmodell ist transparent und einfach. Ein Preis – unbegrenzte Möglichkeiten.

 

Was ist DataRocket?

DataRocket ist eine neue Generation des Stammdatenmanagements

DataRocket ist eine Multi-Domain-Stammdatenmanagement-Software. Sie besticht durch umfassende Analyse-, Datenbereinigungs- und Reportingfunktionalität bei gleichzeitig einfacher Bedienbarkeit. Kriterien zur Messung Ihrer Datenqualität können Sie einzigartig einfach anhand von Bausteinen nach dem „Lego-Prinzip“ zusammensetzen. DataRocket wird in Ihrem Unternehmen der zentrale Knotenpunkt zur Steuerung des Datenqualitätsmanagements und zur nachhaltigen Sicherung der Datenqualität!

 

 

Unsere Kunden

Wir blicken stolz auf erfolgreich umgesetzte Projekte in den Einsatzgebieten Datenmigration, Data Governance und Datenqualität mit unseren Kunden aus unterschiedlichen Branchen.

 

 

Sehen Sie selbst wie einfach Stammdatenmanagement mit DataRocket funktioniert - Verständlich erklärt!

 

Funktionen

DataRocket besteht aus 4 Modulen, dem Cockpit, Designer, Analyser und Browser.

Im Cockpit behalten Sie stets den Überblick. Sie beobachten die Datenqualitätsentwicklung der letzten Tage und verfolgen welche Änderungen zuletzt durchgeführt wurden.

  • Überwachung von Workflows zur Koordination der Datenqualitätsverbesserungsmaßnahmen
    (z. B. Genehmigungsprozesse, Qualitygates)
  • Individuelle Berichte zur Datenqualität über sämtliche Datenquellen und Qualitätskriterien hinweg
  • Langfristige Erfolgsmessung durch frei definierbares Kennzahlensystem
    und Zeitreihenanalyse
  • Aktivitäts- und Änderungshistorie (Audit-Trail) aller Aktivitäten
  • Einstieg in die Nutzerverwaltung (Rollen- und Rechtemanagement)

 

Im Designer definieren Sie Ihr Datenmodell, stellen Beziehungen zwischen Datenquellen her und beschreiben Ihr Regelwerk zur Messung der Datenqualität.

  • Datenmodelle frei modellieren, automatisiert erzeugen oder aus
    Referenzpool auswählen.
  • Schnittstellen Hub zur Anbindung (In-/Export) von Daten
  • Beschreibung der Abhängigkeiten zwischen Datenquellen
  • Zuordnen von Datensätzen verschiedener Datenquellen (z. B. Bestimmung führender Attribute, Vorverarbeitung von Daten
  • Definition des gesamten Regelwerkes zur Sicherung der Datenqualität
  • Editor zum Anlegen von individuellen Qualitätskriterien basierend auf Bausteinen nach dem „Lego-Prinzip“
  • Frei konfigurierbare Berechnungspfade für komplexe Qualitätskriterien (Datapipelines)
  • Auswahl und Integration externer Referenzdatenquellen zur Datenvalidierung/Anreicherung (z. B. Adressen, Telefonnummern, Open Data)
  • Nutzung von Branchenstandards (z. B. eClass oder ISO8000) als Schablone

Im Analyser können Sie die Auswertung der Datapipelines (Qualitätskriterien) im Zeitverlauf auswerten. Sie bestimmen Ihre „Golden Records“ (eindeutige Datensätze) und ermitteln den Wert hoher Datenqualität in Form von messbaren Kennzahlen.

  • Datenbestände anhand der definierten Qualitätskriterien analysieren
  • Duplikate identifizieren und zusammenführen
  • Inkonsistente Datensätze identifizieren und bereinigen
  • Datenbestände aktualisieren
  • Datenvalidierung / Plausibilitätsprüfungen
  • Export von Datensätzen und Qualitätsberichten
  • Echtzeit oder Batch-Verbesserung der Daten
  • Auswertung der Datenqualität im Zeitverlauf
  • Darstellung des Monetarisierungspotentiales (z. B. durch Integration von Prozesskostenrechnung)
  • Workflow-gestützter Bereinigungsassistent

Im Browser haben Sie einen 360° Grad Blick auf Ihre Datenlandschaft. Durchsuchen und Filtern Sie über alle Daten hinweg - in Echtzeit.

  • 360-Grad-Sicht auf Ihre Datenlandschaft und Datenqualität
  • Datenbestände systemübergreifend an zentraler Stelle durchsuchen und bearbeiten
  • Datenbestände filtern und visualisieren
  • Übertragung von Reports in Kollaborationsumgebungen (z. B. Sharepoint)
  • Emotionale Darstellung der Daten (z. B. Heatmap, Visualisierung auf einer Karte)
  • „Excel-ähnliche“ Ansichten und Eingabemasken zur Bearbeitung der Daten

Data Pipeline

Analysieren Sie Ihre Datenqualität mit vorgefertigten Bausteinen nach dem "Lego-Prinzip" in der DataPipeline

Datenqualität und deren (Mehr)wert für Unternehmen ist immer individuell und frühzeitig im Projekt zu definieren. Daher bietet DataRocket neben vorkonfigurierten Regeln die DataPipeline, mit der Sie individuelle Qualitätskriterien und Berechnungspfade definieren können.

DataPipelines sind eine prozess- und bausteinbasierte Möglichkeit Qualitätsregeln zu definieren, zu messen und die Qualität zu beobachten.

DataRocket vereinheitlicht so die Datenstruktur, ermöglicht eine automatisierte Erkennung von Datenproblemen und eine messbare Verbesserung der Datenqualität.

 

screen_pipeline@1x_flächenschatten_diagramme

 

Wie die DataPipeline genau funktioniert zeigen wir ihnen ganz einfach an einem Beispiel:

BO_arrowSchritt 1: Auswahl der Datenbasis.
Hier 10 Produktdatensätze.
Filter_arrowSchritt 2: Filtern nach Positionstypen – von unseren 10 Einträgen fallen 2 heraus. Ergebnis 8 Produktdatensätze

Schritt 3: Erkennung von Duplikaten. Es wird ein Duplikat erkannt und zwei Datensätze werden vereint. Datenmenge 7 Produktdatensätze
qc_arrowSchritt 4: Definition von Qualitätsmerkmalen. Prüfung auf Vollständige Einträge. 2 Datensätze entsprechen nicht den Kriterien; 5 Einträge sind Vollständig.
calc_arrowSchritt 5: Berechnung von Kennzahlen, z. B. Auftragswerte von fehlerhaften Daten.
diagramSchritt 6: Darstellung der Ergebnisse mit dem Diagramm-Baustein.

 

Schnittstellen

Auswahl existierender Schnittstellen und Web-Service-Anbindungen zu DataRocket

DATENBANKEN

  • MongoDB
  • SQLite
  • Oracle DB
  • MySQL
  • MS SQL
  • MS Access
  • PostgreSQL
  • ODBC

DATEIEN

  • MS Excel
  • CSV
  • XML
  • EDIFACT

API-SCHNITTSTELLEN (REST / SOAP)

  • SAP ERP (IDOC)
  • Salesforce
  • SugarCRM
  • MS Dynamics
  • Atlassian JIRA
  • Atlassian Confluence
  • OpenStreet MAP
  • AS 400

 

Weitere Schnittstellen bieten wir über Integrationspartner an. Für kundenspezifische Systeme oder zur Anbindung von Eigenentwicklungen schaffen wir eine individuelle Lösung für unsere Kunden.

Lizenz & Preise

Unser Lizenzmodell ist einfach und transparent!

Sie können DataRocket monatlich mieten und erhalten immer die folgenden Leistungen:

Zugriff auf alle Module:

Cockpit
Widgets
Designer/Integration
Analyser
Workflow

Unlimitierte Anzahl:

Nutzer
Datenquellen
Datapipeplines
Analysen
Updates

Optional können Sie den Enrichment Service und den Zugriff auf Referenzdatenmodelle erwerben. Die monatliche Miete beinhaltet eine Servicegebühr für Softwarepflege und -wartung.

Konkrete Preise für DataRocket erfragen Sie bei Ihrem Ansprechpartner Dr. Tobias Brockmann.

Login Datarocket

Live Demo

Verschaffen Sie sich selbst ein Bild von DataRocket in einer kostenfreien 30-minütigen Live-Demo

Anfrage senden
close slider

Wir arbeiten gerne mit Ihnen zusammen. Benötigen Sie weitere Informationen?
Hinterlassen Sie Ihre Kontaktdaten und wir melden uns umgehend bei Ihnen zurück.

Mit der Nutzung dieses Formulars erklären Sie sich mit der Speicherung und Verarbeitung Ihrer Daten durch diese Website einverstanden.

DE | EN