Alle Beiträge von Nadja Schröder

innoscale im Handbuch IoT des Trendreports

Stammdatenmanagement im Zeitalter des Internet of Things

Warum IoT nur mit einer hohen Stammdatenqualität funktioniert

Von Dr. Tobias Brockmann & Nadja Schröder

Drei Entwicklungen fordern Unternehmen heraus, das bestehende Potenzial vorliegender Datenbestände effizient zukunftsweisend zu nutzen:

  • Die Digitalisierung schreitet stetig voran.
  • Der Wettbewerbsdruck steigt.
  • Die Industrie 4.0 beschreibt ein Szenario künftiger Automatisierung der Produktionsabläufe.

Grundlage für IoT-Anwendungen ist eine hohe Qualität des Datenmaterials, um mehrwertstiftende Informationen zu gewinnen. Je höher der Mehrwert – respektive die Datenqualität – desto besser die Grundlage, um automatisch relevante Informationen aus der realen Welt zu erfassen, miteinander zu verknüpfen und im Netzwerk verfügbar zu machen. Stammdaten nehmen dabei eine besondere Rolle ein.

Einmalig erstellt, mehrfach genutzt, selten geändert

Stammdaten (engl. „Master Data“) bezeichnen die grundlegenden Unternehmensdaten, die für den laufenden Betrieb in verschiedenen Unternehmensbereichen erforderlich sind. Dazu gehören bspw. Daten von Kunden, Produkten, Mitarbeitern und Lieferanten. Laut ISO sind Stammdaten „Grunddaten eines Unternehmens. Sie existieren unabhängig von anderen Daten und werden in Geschäftstransaktionen referenziert“ (ISO 8000-1:2011).

Abgegrenzt werden Stammdaten von Transaktions- und Bestandsdaten. Diese Bewegungsdaten sind variable Daten, die sich während eines Geschäftsprozesses häufig ändern und für jeden Geschäftsvorfall neu erfasst, abgeleitet oder berechnet werden müssen. Beispiele sind Bestellmengen, Wertpapierkurse oder Kontensalden.

 

Ein erfolgreich implementiertes Stammdatenmanagement ermöglicht die Darstellung der Beziehungen zwischen den Daten verschiedener Quellen und eine Echtzeit-Kontrolle über datenbezogene Interaktionen. Unternehmen können langfristig die folgenden Vorteile realisieren:

  • Vermeidung von Produktionsstillständen
    Aufbau einer „Versicherung“ für IoT-Vorhaben
  • Erhöhte Produktivität durch optimierte, fehlerfreie und integrierte Datenbestände
  • Erhöhte Kunden- und Mitarbeiterzufriedenheit
  • Effizientere Prozesse (z. B. Time to Market und Process-Excellence)
  • Validere Entscheidungsgrundlage für die strategische Ausrichtung
  • Optimierte Zusammenarbeit zwischen Systemen, Abteilungen und Standorten

Stammdatenmanagement ist eine Philosophie

Stammdatenmanagement (SDM), engl. „Master Data Management“, bezeichnet die Verwaltung von Stammdaten. Eine passende Definition liefert das Analystenhaus Gartner: „Stammdatenmanagement beschreibt organisatorische und/oder technologiebasierte Aktivitäten, bei denen Geschäftsbereiche zusammen mit der IT-Abteilung arbeiten, um die Qualität der unternehmensweiten Stammdaten zu verbessern und Hoheit über diese zu erlangen.“

Ein besonderes Augenmerk liegt dabei auf der Kooperation zwischen der IT und den Fachbereichen wie HR, Marketing oder Einkauf. SDM ist unterdessen kein befristetes Projekt – es ist ein Mindset, welches von allen beteiligten Mitarbeitern und Fachbereichen im Unternehmen gelebt werden sollte.

Da die Verbesserung der Datenqualität durchaus eine komplexe Aufgabe ist, bedarf es des Einsatzes und Zusammenspiels verschiedener dedizierter Softwaresysteme (z. B. Integrationsplattformen, Analysewerkzeuge, Datenmodellierungswerkzeuge, Workflow-Engines) zum Datenmanagement. Außerdem sind häufig auch organisatorische und restrukturierende Maßnahmen in Unternehmen erforderlich.

Mangelnde Stammdatenqualität erzeugt eine Vielzahl von Problemen

Die Notwendigkeit des SDM ergibt sich durch die Probleme der Unternehmen aufgrund minderer Stammdatenqualität. Verantwortlich hierfür sind der technologische Fortschritt, der es ermöglicht, immer größere Datenmengen speichern zu können, und die unzureichende Pflege der Daten. Auch die zunehmend heterogenen Systemlandschaften und die Einführung neuer Geschäftslösungen wie Systeme für „Customer Relationship Management“ oder „Enterprise Resource Planning“ haben diesen Trend verstärkt. Hinzu kommen Probleme des Managements, allen voran unzureichend definierte Verantwortlichkeiten bzgl. der Daten. Daraus resultieren die folgenden typischen Probleme im SDM, die in der Konsequenz IoT-Maßnahmen erschweren oder gar blockieren.

  • Datenmehrfach-Erfassung und -Speicherung führt zu Duplikaten
  • Erschwerte Prozessautomatisierung durch unklare Datenbasen
  • Kein einheitliches Datenmodell
  • Fehlende Prozesse zur nachhaltigen Kontrolle der Datenqualität
  • Unterschiedliches Verständnis der Daten bei den Mitarbeitern
  • Fehlende Struktur und Regelwerke für Datenqualitätsmessungen
  • Erschwerte Analysen für Reports
  • Validitätsprobleme von Reports

Datenqualität zum Kernziel erklären – für IoT!

Bezogen auf das SDM vor dem Hintergrund der Umsetzung von IoT-Vorhaben ist insbesondere die Verbesserung der Datenqualität eines der zentralen Vorhaben in Unternehmen. Während in der englischen Literatur vorrangig der Begriff „Data Quality“ gebraucht wird, werden in der deutschen Literatur die Begriffe Datenqualität und Informationsqualität häufig synonym verwendet. Grundsätzlich gilt, dass aus Daten erst in Verbindung mit einem Kontext Informationen gewonnen werden und die Qualität der Daten auch nur in diesem Kontext beurteilt werden kann (vgl. Gebauer / Windheuser 2011). Auch stellen Daten, als immaterielles Gut, erst dann einen Wert für eine Organisation dar, wenn sie in ausreichend hoher Qualität vorliegen (vgl. Otto / Reichert 2010). Die Verbesserung der Datenqualität bedarf organisatorischer Anpassungen im Unternehmen – zusammenfassend als Data Governance bezeichnet (siehe Kasten) –, die zur effizienten Umsetzung eine Software-Unterstützung benötigen.

Am Markt existierende Systeme decken oftmals einen Großteil der erforderlichen Funktionalität zur Pflege und Verbesserung der Daten sowie zur softwareseitigen Unterstützung einer Data Governance ab. Sie beinhalten meist eine Integrationsplattform, die eine Vernetzung singulärer Anwendungen überflüssig macht. Die Stammdatenmanagement-Systeme versprechen eine verbesserte Unterstützung der anstehenden Aufgaben und bieten eine Plattform, die eine Vernetzung zwischen Maschinen überhaupt erst ermöglicht bzw. erheblich vereinfacht.

Aufgaben eines qualitätsorientierten Datenmanagements (Data Governance):

  • Entwicklung einer Strategie,
  • Definition von Regeln und Normen,
  • Schaffung einer eigenen Organisationsabteilung,
  • Spezifikation von Rollen,
  • Umgestaltung von Prozessen,
  • Controlling und Kennzahlensystem zur Überwachung und Steuerung.

In der IoT-Ära: Was tun, wenn der Toner leer ist?

IoT verfolgt das Ziel, „relevante Informationen aus der realen Welt zu erfassen, miteinander zu verknüpfen und im Netzwerk verfügbar zu machen. Dieser Informationsbedarf besteht, weil in der realen Welt Dinge einen bestimmten Zustand haben (z. B. ‚Luft ist kalt‘, ‚Druckertoner ist voll‘), dieser Zustand im Netzwerk jedoch nicht verfügbar ist.“ (Wikipedia)

Nun können diese realen Informationen in unterschiedlicher Weise im Netzwerk zur Verfügung gestellt werden. Entweder durch eine automatisierte, technologisch gestützte Erhebung der Daten (z. B. wenn ein Drucker erkennt, dass der Toner leer ist) oder durch eine manuelle Eingabe (z. B. wenn ein Mitarbeiter im System hinterlegt, dass der Toner leer ist). Insbesondere der manuelle Vorgang ist fehleranfällig. Der Drucker soll nun direkt mit dem Bestellmanagement-System kommunizieren und automatisch einen Bestellvorgang für einen neuen Toner auslösen. Die Bestellung erfolgt mit dem notwendigen Vorlauf bis zum Zeitpunkt des Austauschs, also noch bevor der aktuelle Toner leer ist. Die Herausforderung besteht darin, den Toner vorrätig zu haben und gleichzeitig unter der Maxime zu handeln, die Lagerhaltungskosten zu minimieren. Dies nennt sich Predictive Maintenance.

Hierzu muss im Bestellsystem für den Drucker der richtige Tonertyp hinterlegt sein, mit den entsprechenden Einkaufskonditionen. Sind diese Materialstammdaten nicht korrekt, wird aufgrund der schlechten Datenqualität eine fehlerhafte oder überteuerte Bestellung ausgelöst. Zusätzlich kann der Drucker für den Zeitraum der aufwendigen manuellen Neubestellung nicht genutzt werden. Überträgt man dieses plakative Beispiel aus dem Büroalltag in die voll automatisierten Produktionshallen deutscher Hightech-Unternehmen, wird schnell deutlich, welche Tragweite Datenqualität im Kontext von IoT haben kann.

Kernaussagen:

  • IoT benötigt eine Vernetzung zwischen Maschinen bzw. IT-Systemen.
  • Die Vorteile von IoT können nur dann voll ausgeschöpft werden, wenn die Daten in dem System auch korrekt sind.
  • Schlüsselfaktoren sind die Vernetzung von Systemen und die Verbesserung der Datenqualität.
  • Dedizierte Datenqualitätssysteme bieten eine Integrationsplattform zur Vernetzung.
  • Eine zentrale Datenbasis mit qualitätsgesicherten Daten vereinfacht IoT-Projekte und schafft Mehrwerte im gesamten Unternehmen.

Quellen:

  • https://de.wikipedia.org/wiki/Internet_der_Dinge, Abrufdatum: 26.09.2018.
  • Otto, B. und Reichert, A. 2010. „Organizing master data management“, in Proceedings of the 2010 ACM Symposium on Applied Computing – SAC ’10, New York, New York, USA: ACM Press, S. 106.
  • Saul Judah, Gartner Inc., Master Data Management Summit (London), 2015.
  • ISO, 8000-1:2011 (15.12.2011). ISO/TS 8000-1:2011.
  • Gebauer, M. und Windheuser, U. 2011. „Strukturierte Datenanalyse, Profiling und Geschäftsregeln“, in Daten und Informationsqualität – Auf dem Weg zur Information Excellence, Hildebrand, K., Gebauer, M., Hinrichs, H. und Mielke, M. (Hrsg.), Wiesbaden: Vieweg+Teubner, S. 88–101.

CC-LizenzDer Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen:
https://creativecommons.org/licenses/by-sa/3.0/de/

Die Erstveröffentlichung fand im Handbuch Internet of Things (Trendreport) statt. Online einzusehen ist der Artikel unter: www.handbuch-iot.de/Stammdatenmanagement-im-Zeitalter-des-IoT.

Photo by Federico Beccari on Unsplash

Mit Roland wächst der Vertrieb bei innoscale

Berlin, den 19. Oktober 2018 | Wir haben Verstärkung im Sales-Team bekommen und begrüßen Roland ganz herzlich bei der innoscale AG. Er wird im Raum Bayern, Österreich und Schweiz neue Kunden aufstöbern und ihnen mit unser Stammdatenmanagement-Software DataRocket eine effiziente Lösung zur Verbesserung von Stammdaten anbieten.

Vertriebsprofi mit dem Schwerpunkt Datenqualität

Roland Winter für die innoscale AG

Roland Winter für die innoscale AG

Roland bringt viele Jahre an Berufserfahrung mit. Allein für Coca Cola war er 25 Jahre lang tätig, zunächst als ERP-Trainer und ERP-Berater.  Später war er dafür zuständig, die Sales-Prozesse als IT-Experte zu beraten und systemtechnisch lebendig zu machen, also Projektmanagement im CRM- und Mobile-Computing-Bereich.

Mit dem operativen Tagesgeschäft für den Sales Support in Bayern übernahm er außerdem die Verantwortung für die Stammdatenqualität zur Einführung von SAP-Systemen für verschiedene Datenarten: Kunden- und Artikelstammdaten, logistische Datenfelder, Mitarbeiterstammdaten, Pricing und Equipment.

Gemeinsam Lösungen finden

Im Oktober nahm Roland seine Tätigkeit für die innoscale AG auf und ist nun zuständig für den Vertrieb und die Kundenberatung. Gemeinsam mit unseren Kunden wird er maßgeschneiderte Lösungen für bestehende Bedürfnisse erarbeiten.

Im Folgenden sollen einige mögliche Einsatzgebiete für unsere Produkte skizziert werden:
Für den Einstieg in die Themen Stammdatenmanagement, Datenqualität und Data Governance empfiehlt sich beispielsweise ein DataCanvas-Workshop. Dieser umfasst zwei Tage á fünf Stunden und dient dazu, den Status Quo im Unternehmen zu bestimmen und Handlungsempfehlungen für die Zukunft abzuleiten.

Konkrete Herausforderungen im Stammdatenmanagement wie eine Datenmigration von einem Datenbank-System in ein anderes oder die Implementierung einer Stammdatenmanagement-Software meistert DataRocket.

Roland Winter wird Sie gerne umfassend zu unseren Lösungen beraten. Falls Sie weitere Fragen haben, nehmen Sie gerne Kontakt mit uns auf.

Willkommen bei innoscale, Roland! Wir freuen uns auf die Zusammenarbeit in vielen spannenden neuen Projekten!

Photo by Manolo Chrétien on Unsplash

Lieferantenonboarding ohne Probleme

Berlin, den 12. Oktober 2018 | Was macht einen guten Onlineshop aus? Richtig, seine sorgfältig ausgewählten und hervorragend präsentierten Produkte. Hinter der kundenfreundlichen Erscheinung verbirgt sich natürlich jede Menge Arbeit. Für eine optimale Produktauswahl arbeiten Shopbetreiber schließlich mit einer Vielzahl von Lieferanten zusammen. Das bedeutet, dass mit jedem dieser Lieferanten eigene Wege zur Integration seiner Produkte in den Shop zu finden sind.

Wer pflegt die Produktdaten der Lieferanten ein?

Im eCommerce ist es für die kundenfreundliche Produktpräsentation unverzichtbar, dass die Darstellung der Produktpalette gut aufbereitet ist. Neben den Kerninformationen zum Artikel (z.B. Farbe, Material und Preis) sollen Zusatzinformationen wie Verpackungsgrößen, Lieferzeiten sowie Fotos mit einer einheitlichen Bildsprache bereitstehen. Selbstverständlich müssen die Daten korrekt sein. Das heißt u.a., dass Größen und Produktmerkmale richtig zugeordnet sind und die Verfügbarkeit gewährleistet ist.

Anzunehmen wäre es ja, dass die Lieferanten sich selbst darum kümmern, ihre Daten in das bestehende Produkt-Informations-Management-System (PIM) des Online-Shops einzupflegen insbesondere bei großen Shops mit bestimmter Marktmacht. Das bleibt allerdings Wunschdenken. In der Realität übermitteln verschiedene Lieferanten die Produktdaten in unterschiedlichen Formaten. Oft genug werden lediglich Excel-Listen zur Verfügung gestellt, die dann aufwendig integriert und ausgebessert werden müssen, berichten Insider aus der Branche.

Produktdaten sind mannigfaltig

Das größte Problem bei Produktdaten ist die Diversität der Attribute. Obwohl beispielsweise Hemden, Sneakern und Ohrringe bereits sehr unterschiedliche Attribute zugeordnet werden müssen, ist die Bandbreite bei Kleidung fast noch übersichtlich. Werkzeuge hingegen warten bereits mit einer wesentlich größeren Palette an Attributen auf.

Photos © Barn Images + Nathan Dumlao + NordWood Themes on Unsplash

Photos © Barn Images + Nathan Dumlao + NordWood Themes on Unsplash

Nun stellen Lieferanten die Listen mit Attributen in unterschiedlicher Qualität und Struktur zur Verfügung. Vieles muss händisch nachgetragen werden. Aus diesem Grund haben Online-Shops häufig sehr große Produktionsabteilungen, deren Mitarbeiter mit der Aufbereitung der Produktdaten im Zuge des Lieferantenonboardings beschäftigt sind.

Geht das auch automatisiert?

Genau dieser Frage geht das AuDaMaC-Forschungsprojekt nach, das die innoscale AG gemeinsam mit den Projektpartnern maßgeblich vorantreibt. Wir arbeiten seit April auf Hochtouren an einer Lösung für automatisches Datenmapping im eCommerce.

Bisher wird meist einer der folgenden Lösungsansätze gewählt:

  1. Eine technische Lösung: Die IT-Abteilung entwickelt mit hohem Aufwand eine spezifische Schnittstelle zum Lieferanten.
  2. Eine Batch-Lösung: Zur Datenübertragung werden Onboarding-Excel-Listen verwendet, die von der Produktionsabteilung im Nachgang aufbereitet werden.
  3. Eine rein manuelle Lösung: Die Waren werden in Handarbeit vollständig in das Interface des Shopsystems übertragen.

Sämtliche Lösungen sind ähnlich unbefriedigend: hohe Kosten, hoher Zeitaufwand und Mangel an Eleganz. Das geht doch auch besser!

Lieferantenonboarding mit DataRocket

innoscale stellt eine Software zur Verfügung, die ein prozess-unterstütztes Lieferantenonboarding ermöglicht: DataRocket. Der Prozess gestaltet sich dann folgendermaßen: Lieferanten erhalten eine Maske zum Hochladen der Datei mit Produktdaten. DataRocket prüft diese auf Vollständigkeit und die Einhaltung von zuvor individuell definierten Datenqualitätsregeln. Die Mitarbeiter des Online-Shops können im nächsten Schritt die Produktdaten freigeben, bevor DataRocket diese in das Shopsystem überführt.

Wie funktioniert das konkret? Zunächst wird das Referenzdatenmodell abgebildet. Anschließend wird ein Datenmapping gebaut. Jeder Lieferant bekommt in seiner Onboarding-Ansicht ein eigenes Profil. Zwar ist es zu Beginn aufwendig, diese Profile zu definieren. Langfristig zahlt sich der Aufwand allerdings aus, da die Basis für eine hohe Datenqualität im Online-Shop damit gelegt ist.

Die Vorteile:

  • Die Datenqualität steigt messbar an.
  • Das Lieferantenonboarding geht schneller.
  • Das Lieferantenonboarding wird transparent, weil es prozessgesteuert und übersichtlicher abläuft.
  • Der Arbeitsaufwand sinkt deutlich, denn die Daten werden teilautomatisiert übernommen.
  • Die Kunden Ihres Online-Shops sind wesentlich zufriedener, da sie ihre Kaufentscheidungen auf einer validen Datenbasis treffen.

Möchten Sie Ihr Lieferantenonboarding optimieren? Dann füllen Sie bitte das Kontaktformular aus und wir werden Sie in einem unverbindlichen Gespräch beraten!

Photo by Octavian Rosca on Unsplash

IT Budget: Planung für 2019

Berlin, den 2. Oktober 2018 | Das letzte Quartal steht bereits ganz im Zeichen des kommenden Jahres. Abschlussberichte, Evaluationen und die Planung für 2019 stehen auf der To-Do-Liste des Managements − so auch in der IT. Die Trends der digitalen Transformation fließen sicher in die Planung ein. Doch was ist eigentlich mit dem Schmieröl der Zukunft, den Daten? Da die schöne neue Welt auf Daten gebaut wird, bleibt unsere innoscale Mission essenziell: Wir wollen unseren Kunden zu guter Stammdatenqualität verhelfen. Also ab damit auf die Agenda!

Wie wird das IT Budget aufgeteilt?

In vielen Unternehmen sind steigende Budgets für das nächste Jahr zu erwarten, so die Capgemini Studie. Knapp die Hälfte der befragten CIOs rechnet mit höheren Ausgaben. Diese sollen vor allem in Innovationen fließen. Der Löwenanteil des Budgets wird allerdings nach wie vor für den Betrieb, die Wartung und die Pflege der bestehenden Strukturen verwendet, immerhin 45 Prozent. (Quelle: Capgemini Studie 2018)

Verwendung des IT Budgets (Capgemini Studien 2018)

Die Trends der digitalen Transformation

Wenn im IT Bereich von Innovationen die Rede ist, zündet gleich ein großes Feuerwerk an Assoziationen. Künstliche Intelligenz (KI), Maschinelles Lernen, Robotik − diese Trends zieren die Titelblätter der Tech-Magazine. Uns interessiert vor allem die Nr. 5 aus dieser spannenden Liste von Forbes

„Im Mittelpunkt all dieser Trends und in der Mitte dieser Top Ten Liste stehen Daten als Dreh- und Angelpunkt. Daten sind für Unternehmen der Schlüssel zu guten Entscheidungen über Produkte, Services, Mitarbeiter, Strategie und vieles mehr. Neuere Recherchen zeigen, dass 90 Prozent der weltweiten Datenmenge im vergangen Jahr entstanden ist. Gleichzeitig wird nur ca. 1 Prozent dieser Daten tatsächlich effektiv genutzt. Trotz eines Überangebots an Business Analytics Tools, z.B. von Microsoft, SAP, SAS oder Salesforce, die bedeutsame Erkenntnisse aus Daten generieren sollen, müssen sich viele Unternehmen noch des Potenzials bewusst werden, das in ihren Daten schlummert.“ (Daniel Newman in Forbes: Top 10 Digital Transformation Trends For 2019)

2019 − Das Jahr der Datenqualität?

Der erste Schritt zur Entdeckung Ihres Datenschatzes besteht beispielsweise in einem Workshop mit innoscale. Gemeinsam mit der Universität Duisburg-Essen haben wir den DataCanvas Workshop entwickelt. In zwei Tagen à 5 Stunden strukturieren wir Ihr Stammdatenmanagement systematisch, ordnen es mittels des Reifegradmodelles (MDM3) ein und leiten konkrete Aufgabenstellungen ab.

Das Resultat des DataCanvas Workshops besteht in einer abgestimmten, verbindlichen Strategie für das Stammdatenmanagement und die digitale Transformation. Außerdem finden wir zusammen heraus, wie Sie Ihre Datenqualität verbessern können. Seit 2013 unterstützen wir unsere Kunden dabei, das volle Potenzial ihrer Unternehmensdaten auszuschöpfen, Transparenz zu schaffen, produktiver zu werden, bessere Entscheidungen zu treffen und letztendlich Kosten zu senken.

Der DataCanvas Workshop passt mit Sicherheit noch in Ihr IT Budget. Wir beraten Sie gerne dazu − auch kurzfristig!  

Photo by Bethany Legg on Unsplash

Viele neue Gesichter bei innoscale

Berlin, den 14. September 2018 | Zum Ende des Sommers begrüßen wir gleich drei tolle neue Mitarbeiter! Als Berater werden Martin und Thomas unsere Kunden im gesamtem Prozess der Implementierung unserer Stammdatenmanagement-Software DataRocket begleiten. Nadja wird hingegen Camilla bei der strategischen Unternehmenskommunikation unterstützen.

Von Mexiko nach Berlin

Thomas Knupfer für die innoscale AG

Thomas Knupfer für die innoscale AG

Vor 10 Jahren ging Thomas nach Monterrey in Mexiko, um einen neuen Produktionsstandort für Liebherr Components zu planen und aufzubauen. Der Wechsel ins neue Produktionswerk brachte die erste tiefgründigere Erfahrung mit der IT und dem ERP-System mit sich. Schließlich entschied sich Thomas, die Branche komplett zu wechseln.

Seit August 2018 ist nun alles auf Anfang: Rückkehr nach Deutschland und Neueinstig bei der innoscale AG. Für Thomas bedeutet dies einen hervorragenden Wechsel hinsichtlich Arbeitsklima, Kommunikation, Teambildung, Größe und seinem persönlichem Interesse für die IT.

Der Master Data Management Spezialist

Martin Steinfeldt für die innoscale AG

Martin Steinfeldt für die innoscale AG

Aus seinem tiefen Interesse für alle fachlichen und technischen Fragen rund um die Qualität, Modellierung, Analyse und Visualisierung von Daten heraus, steigt Martin bei innoscale ein. Er bringt reichlich Erfahrung mit – Wissen zu den entsprechenden Technologien und Konzepten sowie Praxis als ERP-Berater und Softwareentwickler.

Gemeinsam mit unserem Beraterteam wird sich Martin nun als Consultant Master Data Management mit auf unsere Mission begeben: Die Verbesserung der Stammdatenqualität in den Unternehmen unserer Kunden.

Das Wissen um die Inszenierung

Nadja Schröder für die innoscale AG

Nadja Schröder für die innoscale AG

Nach vielen Jahren in der Onlinewerbebranche startet Nadja als Marketing Managerin nun mit einem neuen Thema: Stammdatenqualität. Die Begeisterung war schnell geweckt – digitale Transformation und revolutionäre Zukunftstechnologien, die mit Daten gefüttert werden – dazu werden gemeinsam mit Camilla die Ideen sprudeln.

Das Willkommen hätte nicht herzlicher sein können. Wir starteten gleich mit einem Workshop zur Marketingplanung – die beste Art, den Bereich kennenzulernen. Und aufregend ging es weiter: Die ZEIT-Konferenz zur Künstlichen Intelligenz sowie der Besuch des KnowHow-Meetings in Hamburg füllten Nadjas erste Arbeitstage.

Schön, dass ihr bei innoscale seid, Martin, Nadja und Thomas!

innoscale auf dem 3. KnowHow-Meeting in Hamburg

innoscale im hohen Norden: das 3. KnowHow-Meeting in Hamburg

Berlin, den 5. September 2018 | Ein anregender Tag in Hamburg geht zu Ende.

Anregende Gespräche am innoscale Stand

Tolle Gespräche am innoscale Stand

Wir nahmen am KnowHow-Meeting des DataCampus teil. In vielen inspirierenden Gesprächen und spannenden Vorträgen tauchten alle Teilnehmer tief in das Thema Stammdatenmanagement mit MDM (Master Data Management) Systemen ein.

Nach zwei Jahren Pause startete das KnowHow-Meeting in die dritte Runde. So groß wie noch nie – mit einem breiten Vortragsprogramm und mehreren Company Slam Sessions, bei denen sich die Teilnehmer in mini Pitches vorstellten. innoscale ist seit jeher begeisterter Teilnehmer und Partner der Veranstaltung.

Die Location war traumhaft ausgewählt, das Hotel Hafen in Hamburg. Oben in der Elbkuppel mit Blick über das Wasser und den Hafen ließ es sich hervorragend netzwerken.

Master Data Management ist in aller Munde

Das KnowHow-Meeting zeichnete sich durch den regen Austausch unter Fachexperten aus. Unser Stand war dafür eine beliebte Anlaufstation. Wir trafen Software Anbieter, Berater aus dem IT Bereich sowie einige Firmen, die vor oder mitten im Prozess der Implementierung eines Stammdatenqualitätsmanagements stecken.

Vortrag von Dr. Tobias Brockmann über Stammdatenqualität

Vortrag von Dr. Tobias Brockmann über Stammdatenqualität

Den Auftakt im Fachvortragsprogramm übernahm Dr. Tobias Brockmann, einer der Firmengründer der innoscale AG. Als Stammdatenexperte sprach er über das Thema „Messung und Reporting der Materialstammdatenqualität im produzierenden Gewerbe“. Ein besonderes Augenmerk legte er auf die Integration der Fachbereiche bei der Durchführung eines Stammdatenmanagementprojekts. Mehrere Konferenzteilnehmer berichteten, dass der Erfolg eines solchen Projekts maßgeblich davon beeinflusst wird, dass Mitarbeiter sich mit Freude und Expertise einbringen.

Für viele fängt die Entwicklung eben erst an

Den fundierten Vorträgen von Vordenkern der MDM Systeme folgten stets intensive Fragerunden. Jedes Mal offenbarte sich der große Gesprächsbedarf zu diesem Thema. Sollten auch Sie Fragen haben, lassen Sie uns gerne davon wissen!

Der Tag endete mit einer Hafenrundfahrt in freundlichem Sonnenschein – da blieben keine Wünsche offen. Wir waren begeistert vom reibungslosen Ablauf dank hervorragender Organisation des Events – vielen Dank an den DataCampus – und bis zum nächsten Mal!

Künstliche Intelligenz: Spannende Einblicke in das Zukunftsthema auf der ZEIT Konferenz

Berlin, den 4. September 2018 | Wir waren auf der ZEIT Konferenz über Künstliche Intelligenz dabei. Hier trafen sich Akteure aus Wirtschaft, Wissenschaft und Gesellschaft mit Redakteuren und Ressortleitern der ZEIT und diskutierten die Erwartungen über zukünftige Umwälzungen. Am Ende des Tages war klar, was Künstliche Intelligenz braucht: Schlaue Köpfe und vor allem Daten!

Am vergangenen Freitag öffnete das Berliner Radialsystem seine Türen für zukunftsweisende Themen. Den Auftakt bildete die ZEIT Konferenz über Künstliche Intelligenz (KI).

Wann wird Ihr Job von einem Roboter übernommen?

Die KI Konferenz suchte Antworten auf mehrere Fragen. Die mit Augenzwinkern meistgestellte war sicherlich: „Und, könnte eine Maschine Ihren Job machen?“

Der Bundesminister für Arbeit und Soziales, Hubertus Heil, erklärte zur Digitalisierung der Arbeitswelt: Ebenso wie es viele unterschiedliche KI Anwendungen gibt, sind auch die neuen Arbeitswelten mannigfaltig. Essenziell für den Wandel zu KI-getriebenen Arbeitsumgebungen ist lebenslanges Lernen – Qualifizierung statt Jobverlust.

Diskussionsrunde auf der ZEIT Konferenz Künstliche Intelligenz

Diskussionsrunde auf der ZEIT Konferenz Künstliche Intelligenz

Dass Künstliche Intelligenz als Curriculum für lebenslanges Lernen zu verstehen sei, betonte auch Jens Redmer von Google. Er meinte, es würde noch lange dauern, bis Jobs zufriedenstellend automatisierter sind. Zumal Arbeitsplätze wohl nicht eins-zu-eins ersetzt werden. Es sind eher die repetitiven Anteile der Arbeit, die demnächst von Maschinen erledigt werden könnten.

Künstliche Intelligenz made in Germany – Ist Deutschland wettbewerbsfähig?

Im abschließenden Gespräch mit Michael Bolle von der Robert Bosch GmbH und Wolfgang Wahlster, dem Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz, ging es um Deutschlands Kompetenzen auf dem Feld der KI. Beide waren sich einig, es gibt noch einiges zu tun. Insbesondere wird es in der kommenden Zeit darum gehen, Produkte noch schneller intelligent zu machen.

Der Megatrend der Konsumindustrie, der auch auf der IFA zu beobachten war, ist die Vernetzung, bspw. von Hausgeräten. Die Redner waren der Ansicht, bahnbrechende Ansätze für die Weiterentwicklung intelligenter Produkte könnte die Startup Szene liefern. Deshalb wurde in mehreren Gesprächen darauf hingewiesen, dass die Startup Kultur in Deutschland dringend zu pflegen und auszubauen sei.

Daten sind der Treibstoff der Künstlichen Intelligenz

Letztendlich werden KI Anwendungen aber nur dann sinnstiftende und revolutionäre Ergebnisse hervorbringen, wenn sie mit hochwertigen Daten befeuert werden. Eine hohe Datenqualität beruht auf sauberen und gut organisierten Daten.

Mit Data Governance von innoscale legen Sie den Grundstein für die digitale Transformation. Entwickeln Sie gemeinsam mit uns eine Vorgehensweise zur Organisation und Umsetzung des Datenqualitätsmanagements in Ihrem Unternehmen. Wenn Sie Beratung wünschen, schreiben Sie uns gerne eine Nachricht über unser Kontaktformular!