Auf dem Weg zum Quantified Enterprise – Phase 1: Datenerfassung und -identifizierung

  • Data Analytics beginnt mit dem ersten Schritt: der Sammlung von Daten. Diese ist nicht immer trivial und oftmals mit diversen Hürden verbunden
  • Plattformen und APIs benötigen zum Erfolg die qualitativ hochwertige und nachhaltig überwachte Daten
  • Unternehmen sollten nicht nur bei den Daten die Hausaufgaben machen, sondern auch bei der Ausbildung der Mitarbeiter und Mitarbeiterinnen, um hier die Expertise und den schnellen Erfolg bei der Suche nach Erkenntnissen zu erreichen

Unternehmen lieben Daten, denn plattformen-basierte Geschäftsmodelle ohne eigene Assets sowie neue Entwicklungen und Technologien aus dem Bereich des Machine Learning steigern die Lust auf das große Datensammeln. Im Sinne der Selbstvermessung und Optimierung geht es bei uns als Individuum darum, uns auf den optimalsten Betriebszustand zu tunen, um leistungsfähiger denn je zu werden. Was für den Menschen ein individuelles Ziel ist und jedem selbst überlassen, ist bei Unternehmen eine strategische Komponente. Denn Daten ebnen erst den Weg hin zu digitalen Diensten und Produkten. Diejenigen Unternehmen, die in der Lage sind Daten im eigenen Geschäftsraum entsprechend sinnvoll zu nutzen, haben einen entscheidenden Wettbewerbsvorteil.

Unternehmensdaten sammeln

Wer im Unternehmen Fragen beantworten, Daten analysieren oder Insights generieren möchte, der benötigt die richtigen Datenquellen. Um die entsprechenden Analysen durchführen zu können, sollte man einige Punkte beachten:

  • Ein Unternehmen muss Daten sammeln.
  • Daten müssen zugreifbar und abfragbar sein.
  • Mitarbeiter, Partner und APIs müssen einen entsprechenden Zugang zu den notwendigen Daten bekommen.
  • Alle Zugriffe auf Daten, die Durchführung von Transformationen oder die Datenanreicherungen müssen entsprechen protokolliert werden.
  • Die Datenqualität muss kontinuierlich überwacht und kontrolliert werden.

Im weiteren Vorgehen sollten diese Punkte als eine Checkliste kontinuierlich genutzt werden. Gerade der Punkt bzgl. der Protokollierung ist im nächsten Jahr mit der neuen Europäischen Datenschutz-Grundverordnung (EU-DSGVO) besonders wichtig.

Um eine effektive Datenkultur innerhalb eines Unternehmens und auch über die Unternehmensgrenzen hinweg aufbauen zu können, benötigt man eine einheitliche Strategie, die sowohl alle internen Quellen und Konsumenten von Daten einschließt, als auch alle externen, wie beispielsweise Partner oder E-Commerce-Plattformen. Der Zugriff auf die Daten sollte dabei Standards unterworfen sein. Dadurch wird ein möglichst homogener Zugang zu den Daten für alle Beteiligten gewährleistet. Ebenso ermöglicht dies eine bessere Kontrolle der Daten in Hinblick auf Sicherheit, Governance und Compliance. Bei der Ausgestaltung der Datenstrategie kann es dabei sogar sehr sinnvoll sein, die Daten auch für externe Nutzer zugänglich zu machen. Dies mag gerade für deutsche Unternehmen ein ungewöhnlicher Schritt sein, eröffnet aber im Gegenzug auch die Möglichkeit mehr Daten von anderen Unternehmen ebenfalls nutzbar zu machen und damit die Breite des Spektrums für die Ideenfindung deutlich zu erweitern.

Falsche Annahmen und Schlussfolgerungen sind ein Risiko. Daher sind methodische Schulungen der Mitarbeiter ein wichtiger Baustein der Datenstrategie im Unternehmen. Hat man die entsprechenden Skills erst einmal etabliert und das gemeinsame Verständnis von Daten ausgeprägt, dann gilt es die Datenquellen und die öffentlichen APIs entsprechend in den Produktlebenszyklus und die Ideenfindung zu integrieren. Dies umfasst alle Phasen eines datenbasierten Geschäftsmodells - von der Ideenfindung bis hin zum Partnersystem. Die zu etablierenden Standards sollten hierbei unter anderem auf

  • die Quelle der Daten,
  • die Aktualisierungsfrequenz,
  • den Bezug,
  • die Qualität,
  • das Format,
  • die Struktur,
  • und die Relevanz achten.

Diese Standards sollten auch regelmäßig überprüft oder am besten kontinuierlich überwacht werden, etwa durch Dashboards.

Wege zur Erkenntnis

Daten müssen erzeugt oder gesammelt werden. Was zunächst einmal sehr trivial klingt, ist in der Realität oftmals gar nicht so trivial. Denn rechtliche, organisatorische, ethische und technische Hürden sind zu umschiffen, wenn man Daten sammelt. Sind diese Hürden genommen, dann geht es darum die Qualität zu verifizieren. Die Daten müssen geprüft werden, ähnlich, wie man Lebensmittel beim Eingang in einem Supermarkt, Restaurant oder beim Einkauf auf dem Wochenmarkt prüfen würde. Nur mit der richtigen Reife und Qualität der Daten kann ein Unternehmen dann in den weiteren Schritten etwas anfangen. Die Datensicherung ist der folgende Schritt nach der Verifizierung. Es gilt alle gewonnenen Daten sinnvoll, also in einem wertigen Format, nachhaltig und gut dokumentiert, beispielsweise mittels Metadaten, aufzubewahren. Dabei sollten die Datenquellen alle nach einem einheitlichem Vorgehensmodell verarbeitet werden. Liegen die Daten dann bereit, so folgt die Suche nach der Nadel im Heuhaufen. Muster müssen versucht werden zu identifizieren, Daten mit anderen Daten korreliert werden oder auch externe Datenquellen von anderen Partnern oder Anbietern hinzugefügt werden. Die Erforschung der Daten benötigt dabei geschultes Personal und die richtigen Tools, um hier möglichst effizient und zügig zu den gewünschten Ergebnissen zu gelangen. Die gewonnenen Einsichten und Erkenntnisse lassen sich sodann in neue Produkte, Dienste oder Datenquellen für andere Fachbereiche, Partner oder Endkunden nutzbar machen.

Fazit

Wer eine Reise unternehmen möchte, der muss zunächst den ersten Schritt machen. Unternehmen, die eine Plattform aufbauen wollen, welche wiederum Daten nutzt oder bereitstellt, sollten die ersten Schritte hin zu einer sinnvollen Datensammlung unternehmen. Je nach eigener Infrastrukturstrategie ergeben sich dann Handlungsoptionen hinsichtlich der eigenen Datalakes. Dieses kann Hadoop basiert oder Stack basiert sein. Die kontinuierliche Überwachung von allen Datenquellen in Quantität und Qualität ist notwendig, ebenso wie die entsprechende organisatorische und technische Umsetzung von Überwachung und Kontrolle der Datenzugriffe und -verarbeitung. Unternehmen haben hier gerade in Zeiten von IoT-Szenarien und Plattform-Geschäften einen neuen Komplexitätslevel zu meistern.

Mehr zu den Themen Data Analytics Data Culture Datenanalyse Datenerfassung EU-DSGVO

Share on:


Über den Autor:

Senior Analyst & Data Practice Lead

Cloud Computing Hadoop Container DIgital Lab Big Data Analytics Data Stack Datenanalyse Technologie-Stack Cloud Container Container-Technologie Machine Learning PaaS Programmiersprache SaaS Serverless Serverless Infrastructure Serverless Service

Björn BöttcherBjörn Böttcher ist Senior Analyst bei Crisp Research. Er leitet als “Data Practice Lead” die Research- und Beratungsaktivitäten zu den Themen Analytics, BI, datenbasierte Geschäftsmodelle und Künstliche Intelligenz. Als Gründer der ersten deutschen User Groups für Amazon AWS und Microsoft Azure zählt Björn Böttcher zu den Pionieren des Cloud Computing in Deutschland. Als Veranstalter der ersten deutschen Cloud-Konferenzen und Lehrbeauftragter für Informatik und Computational Web in der Parallel Computing Group der TU Hamburg hat er wesentliche Beiträge zur Entwicklung der Cloud-Community geleistet. Björn Böttcher verfügt über 10 Jahre Berufserfahrung in der IT-Industrie in der Rolle des Software-Architekten und des IT-Strategieberaters. Zuletzt arbeitete er am Deloitte Analytics Institute und verantwortete dort die Entwicklung und Umsetzung datenbasierter Geschäftsmodelle für Unternehmen aus der Finanz-, Automotive- und Logistik-Branche. Björn Böttcher hat einen Abschluss als Dipl.-Informatikingenieur der Technischen Universität Hamburg-Harburg. Er hat als Autor eine Vielzahl von Fachbeiträgen publiziert und trägt als Key Note-Speaker und Experte aktiv zu den Debatten um neuen Markttrends, Standards und Technologien bei.