Was Elfmeter mit Daten-Gold zu tun haben oder warum es sich für Unternehmen lohnt, zunächst keine Data Scientists einzustellen

Tun oder nichts tun – das ist nicht die Frage? Beim Elfmeter im Fußball hechtet der Torwart statistisch je zur Hälfte entweder nach links oder nach rechts. Ein Drittel der Schüsse vom Punkt geht aber in die Mitte. Action ist also scheinbar attraktiver als nichts tun. Das gleiche gilt für Unternehmen im neuen Daten-Goldrausch. Fast alle investieren in Data Analytics, Big Data und KI. Belohnt wird die Entschlossenheit zu handeln, sinnvolles Abwarten erscheint undenkbar. Und: Ob grüner Rasen oder Office, Nichtstun fühlt sich peinlich vor Mannschaft, Zuschauern, Mitarbeitern, Aufsichtsrat und Aktionären an.

Dabei bleibt leider die Antwort auf eine wichtige Frage oft auf der Strecke: Was bringt mir als Unternehmen Data Analytics tatsächlich? Steigern eine Heerschar von Data Scientists tatsächlich meinen Umsatz? Klar ist, die primäre Limitierung ist die Qualität meiner Daten bzw. die Konsistenz des unternehmensübergreifenden Datenmodells, welche ein Data Scientist ohne echte Domain Knowledge nur ganz schwer beurteilen kann.

Erfolgsschlüssel ist die Datenqualität

Datenqualität fängt mit einer einheitlichen Nomenklatur in Bezug auf wirklich alle relevanten Geschäftsobjekte und ihre Attribute im Unternehmensbereich und / oder Gesamtunternehmen an. Darüber hinaus braucht es ein einheitliches Verständnis über die Relationen und Abhängigkeiten zwischen den einzelnen Objekten. Diese Informationen sollten in einem möglichst unternehmensübergreifenden Datenmodell dokumentiert und im gesamten Unternehmen kommuniziert werden. Einheitliche Erhebungs-, Verarbeitungs-, und Speicherlogiken sowie klare Verantwortlichkeiten über die Datenobjekte (Stichwort: Data Governance) sind zudem erforderlich, um die Konsistenz dieses Modells langfristig sicherzustellen.

Welche Konsequenzen ergeben sich in der Praxis bei inkonsistenter Nomenklatur in Unternehmen?

Das Produktportfolio eines Mittelständlers mit 500 Mitarbeitern wächst auf über 30.000 Produkte. Und das nicht weil tatsächlich 30.000 unterschiedliche Produkte angeboten werden, sondern weil für jede Bestellung eines Neukunden aus der Kombination „Artikelnummer“ und „Kundennummer“ vermeintlich neue Produkte in den ERP-Systemen angelegt werden. Im Engineering-Bereich eines Weltkonzerns verbauen die Ingenieure augenscheinlich immer neue Bauteile in ihren Maschinen, da sich aus der Kombination „Materialnummer“ und „Maschine“ von Prototyp zu Prototyp vermeintlich neue (Bau)Teile ergeben. In beiden Fällen ist mit erheblichen Ineffizienzen in der Beschaffung aufgrund der uneinheitlichen Nomenklatur sowie dem fehlenden Verständnis des Zusammenhangs zwischen den (Geschäfts-)Objekten, z. B. „Stückliste“ im Engineering und „Beschaffungsliste“ im Einkauf, zu rechnen. Inkonsistenzen in der Nomenklatur (und damit in den Daten) sind insbesondere bei etablierten, großen Unternehmen mit langer Marktpräsenz stärker verbreitet als bei Start-ups. In Sachen Altlasten haben diese Platzhirsche also mehr Hausaufgaben zu erledigen als kleine, junge Unternehmen, bevor sich der Aufsprung auf den Trendzug „Data Analytics“ lohnt.
Was gilt es zu tun?

Daten-Inventur als Startpunkt

Auf dem Weg zu einem unternehmensweit konsistenten Datenmodell empfiehlt es sich mit einer „Daten-Inventur“ zu beginnen. Domain-Experten bewerten die aktuelle Datenqualität im Unternehmensbereich bzw. idealerweise im gesamten Unternehmen, indem sie sich im ersten Schritt einen Überblick über alle relevanten Geschäftsobjekte mit ihren Attributen verschaffen. Sie analysieren, wie, wann und wo Daten zu diesen Objekten erhoben, verarbeitet und gespeichert werden.
Vor diesem Hintergrund evaluieren die Domain-Experten im nächsten Schritt die unternehmensweit verwendete Nomenklatur, das Verständnis zu Relationen und Abhängigkeiten der (Daten-)Objekte sowie die übergreifende Qualität der gespeicherten Daten im Unternehmen.

Das konzeptionelle Datenmodell als Nordstern

Ausgehend von der Daten-Inventur bzw. der sich anschließenden Evaluation der Datenqualität beginnen Domain-Experten mit der Erstellung eines möglichst unternehmensübergreifenden Datenmodells. Dabei liegt der Fokus zunächst auf der konzeptionellen Ebene, die die fachliche Perspektive zu den physischen oder auch digitalen Geschäftsobjekten inklusive deren Eigenschaften, Beziehungen und (eindeutigen) Namen abbildet. Es empfiehlt sich, mit dem Unternehmensbereich zu starten, der für geplante Data Analytics-Initiativen das höchste Potential oder aber in der Daten-Inventur bzw. deren Evaluation die meisten Inkonsistenzen aufweist (Stichwort: Reduktion von
Ineffizienzen). Weitere Unternehmensbereiche können sukzessive dazugenommen und mit dem anfangs erstellten (konzeptionellen) Datenmodell zusammengeführt werden.
Während des gesamten Erstellungsprozesses ist eine enge Abstimmung mit allen relevanten Stakeholdern unabdingbar sowie die unternehmensweite Kommunikation der Ergebnisse in Bezug auf Nomenklatur, Relationen und Abhängigkeiten der (Daten-)Objekte sicherzustellen.

Vom Konzept zur Umsetzung

Auf Grundlage des konzeptionellen Datenmodells kann die IT schließlich mit der Umsetzung bzw. den Anpassungen dem Datenbank-Management-System beginnen. Dazu gilt es, das fachliche Datenmodell um die technische Perspektive zu ergänzen, zum Beispiel die Beziehungen zwischen relevanten Informationsobjekten zu spezifizieren und die Daten(bank)struktur zu beschreiben. Neben der technischen Umsetzung bzw. Anpassungen an den Systemen, ist zudem die Erstellung eines Migrationsplans zum neuen Datenmodell notwendig, beispielsweise um die Zusammenführung von verschiedenen Materialbezeichnungen oder Artikelnummern für identische Teile zu planen. Darüber hinaus sollten durch geeignete Management- und Reporting-Prozesse sowie klar definierte Datenverantwortlichkeiten (Stichwort: Data Governance) die nachhaltige Sicherung der Datenqualität bereits bei der Umsetzung in den Systemen berücksichtigt werden.

Mittelfristig Wettbewerbsvorteil durch Data Analytics auf Basis gesteigerter Datenqualität

Der Erfolg von Data Analytics hängt ganz erheblich von den zugrundeliegenden Daten ab. Dabei ist insbesondere die inhaltliche Konsistenz im eigenen Datenmodell entscheidend. Dies stellt gerade große, etablierte Unternehmen vor immense Herausforderungen. Für sie kann es sinnvoll sein, erstmal abzuwarten, statt aktionistisch auf den Trendzug „Data Analytics“ aufzuspringen. Primär gilt es, in die Qualität der eigenen Datengrundlage zu investieren. Der Schlüssel zum Erfolg ist ein abgestimmtes und unternehmensweit kommuniziertes Datenmodell. Nur hohe Datenqualität und ein konsistentes Datenmodell ermöglichen tatsächlich und manchmal eben erst mittelfristig echte Wettbewerbsvorteile durch Data Analytics.