Vertrauen ist gut, Kontrolle ist besser! Die neue Generation von Analytics-, Visualisierungs- und Monitoring-Tools ist da

Daten sind das neue Gold - wird gerne proklamiert. Doch große Datenmengen stellen nicht nur IT-Infrastrukturen, sondern vor allem den Mensch als Entscheider vor große Probleme. Nur wenn sich die Datenlawine aus Sensoren, Applikationen und IT-Systemen ohne große Probleme analysieren und visualisieren lässt, können Daten Mehrwert generieren und für bessere Entscheidungen sorgen. Eine neue Generation von Tools und Services steht dafür bereit.

Seeing is Believing – Nur was man mit den eigenen Augen sieht, lässt sich verstehen und verarbeiten. Nur wenn sich Daten in Form von anschaulichen Grafiken manifestieren, lassen sich Anomalien und Muster von Menschen erkennen, Aktionen ableiten und intelligente Schlussfolgerungen ziehen.

Zwar leben wir in einer Welt, in der Algorithmen in vielen Bereichen die Entscheidungen darüber treffen, was beim Eintreten eines bestimmten Ergebnisses oder dem Überschreiten einer Datengrenze zu passieren hat. Aber in ganz vielen Anwendungsszenarien ist und bleibt der Mensch die letzte Instanz. So ist bei der Überwachung von IT-Sicherheitssystemen letztendlich der IT-Admin oder Chief Security Officer derjenige, der die Entscheidungen trifft. Aus der Vielzahl der Informationen und Daten muss der Marketingleiter die finale Schlussfolgerung ziehen, wo das millionenschwere Werbebudget anzulegen ist. Derlei Beispiele gibt es viele. Und in immer mehr Unternehmen müssen Manager, Ingenieure, Produktentwickler oder IT-Administratoren immer mehr Datenquellen in einer immer kürzeren Frequenz beobachten und verarbeiten.

So wird es in den Unternehmen immer erfolgskritischer verschiedene Datenquellen integrieren, auswerten und vor allem auch visualisieren zu können. Dies gilt vor allem dort, wo das Verhalten von Systemen quasi in Echtzeit gemessen und entsprechend optimiert werden muss, z.B. bei der Überwachung von Log Files, der User Experience von Webapplikationen oder Sensordaten. Diese weisen die typischen Big Data-Charakteristika von „Volume, Variety, Velocity, Variability“ auf und benötigen eine neue Generation von Monitoring-, Analytics- und Visualisierungswerkzeugen.

Diese neue Generation an Tools zeichnet sich vor allem durch folgende Eigenschaften und Funktionen aus:

  • Leichte Integration unterschiedlichster Datenquellen und –Typen
  • APIs zur Integration von Echtzeitdaten aus Cloud-Anwendungen
  • Vielfältige Visualisierungsmöglichkeiten und übersichtliche Dashboards
  • Herausragende User Experience für einfache Handhabung (nicht jeder ist ein „Data Scientist“)
  • Cloud-basiertes Processing für große Datenvolumina
  • Machine-Learning und KI für vorausschauende Prognosen („Predictive Analytics“)

New Kids on the Block – Eine neue Generation von Analytics-Anbietern wächst heran

Neben den etablierten BI-Anbietern wie z.B. SAS, SAP, Microsoft oder IBM, die ihr Portfolio in den letzten Jahren um entsprechende Lösungen und Tools erweitert haben, ist es vor allem eine neue Generation von Anbietern, die hinsichtlich moderner Analytics Services die Marschrichtung vorgibt. Diese haben meist sehr unterschiedliche Schwerpunkte und Hintergründe, bringen aber jeweils sehr wichtige Innovationsimpulse. An dieser Stelle sollen exemplarisch einige der „New Kids on the Block“ kurz vorgestellt werden, um die Veränderungen in der BI-Landschaft und den Mehrwert der neuen Lösungen zu illustrieren.

Splunk und Sumologic – Log File-Analyse 2.0

Das in 2003 gegründete Unternehmen Splunk ist einer der Wegbereiter für die statistische Analyse und Überwachung von Maschinen- und Logdaten. Die Technologie wird derzeit hauptsächlich von IT-Administratoren zur Überwachung von IT-Infrastruktur (Server, Netzwerk, Security) eingesetzt, eignet sich aber auch für Application Performance Management und Web Analytics. Mit 1.500 Mitarbeitern und rund 450 Millionen USD Umsatz zählt das börsennotierte Unternehmen mittlerweile zu den Platzhirschen in diesem Marktsegment.

Der wachsende Bedarf an ebenjenen Lösungen bringt immer wieder neue und innovative Player auf den Markt. So stellte in 2012 Sumologic seine komplett Cloud-basierte Log-Analytics-Plattform vor. Diese bietet eine besonders hohe Skalierbarkeit und Flexibilität, da alle Log-Daten auf einer verteilten Cloud-Infrastruktur verarbeitet werden. Machine-Learning-Verfahren ermöglichen die intelligente Reduzierung und Gruppierung des Logdaten-Volumens und ermöglichen verschiedene Prognose-Funktionen. Interessant für Anwender ist vor allem das Business-Modell. So berechnet Sumologic (als auch Splunk) seinen Kunden eine Gebühr pro GB Datenvolumen. Zum Einstieg können bei Sumologic bis 500MB kostenfrei analysiert werden. In der Professional Version kann ein Anwender bis zu 1GB Datenvolumen pro Tag für 90 USD im Monat verarbeiten. Mit einem sehr erfahrenen Managementteam (Co-Founder Kumar Saurabh und CTO Christian Beedgen - waren vorher in leitenden Positionen beim SIEM-Provider Arcsight, der 2010 von HP übernommen wurde) und rund 80 Millionen Venture Funding von Sequoia, Accel und Greylock & Co zählt Sumologic sicherlich zu den „hot bets“ im Markt für Log Analytics und Application Performance Management.

Tableau Software – Visualisierungs-Power für Jedermann

Aus dem ehemaligen Stanford-Spin-Off (Gründung 2003) ist in den letzten 10 Jahren einer der führenden Anbieter von Visualisierungs- und Analytics-Werkzeugen geworden. So beschäftigt Tableau Software weltweit mittlerweile rund 2.000 Mitarbeiter. Auch im DACH-Markt wird unter Leitung von Henrik Jörgensen und Lars Milde die Organisation weiter ausgebaut. Anders als viele Wettbewerber hat Tableau Software frühzeitig den einzelnen Anwender und das Thema User Experience im Umgang mit Daten in den Vordergrund gestellt. So spielt das Einstiegsprodukt „Tableau Desktop“ immer noch eine wichtige Rolle beim Go-to-Market. Fachanwender können ohne Programmiererfahrung und mittels Drag&Drop-Technik umfangreiche Analysen fahren und diese unterschiedlich visualisieren. Tableau Software ist somit einer der frühen Verfechter des Slogans „Democratize Data“ und setzt auf die Verbreitung der neuen Analyse-Werkezeuge über die Vielzahl von Anwendern in den Fachabteilungen – und nicht über einzelne Spezialisten. Mit Tableau Online können Teams auch Daten in der Cloud zusammenführen und visualisieren. Für den Unternehmenseinsatz ist die Version Tableau Server vorgesehen.

Parstream – Data Processing und Analytics für Massedaten und IoT

Auf der Basis einer eigenen Datenbank-Technologie hat das ursprünglich aus Köln stammende Unternehmen Parstream eine Analytics-Platform geschaffen, die hauptsächlich auf die Analyse von Massedaten im IoT- und Industriekontext spezialisiert ist. In Form einer spaltenorientierten In-Memory-Datenbank vereinigt Parstream die Funktionen relationaler Datenbanken (z.B. Tabellen über Joins verbinden, komplexe Abfragen bewältigen) mit den Vorteilen des No-SQL-Ansatzes (Parallelisierung für schnellere Datenverarbeitung). Der zum Patent angemeldete „High Parallel Compressed Index“ muss nicht dekomprimiert werden, ermöglicht simultanes Durchsuchen und Analysieren und entkoppelt Datenimport und Analyse, so dass die Processing-Geschwindigkeit sich deutlich erhöhen lässt. Das ist besonders dann von Vorteil, wenn die Datenvolumina sehr groß sind. So arbeitet Parstream mit Siemens im Bereich der Entwicklung von Gasturbinen zusammen. Diese enthalten pro Turbineneinheit rund 5000 Sensoren, die pro Jahr 180 Milliarden Datensätze zur Analyse generieren. Mit sechs weltweiten Vertriebsdependancen und namhaften VC-Investoren hat das 2011 gegründete Unternehmen eine globale Ausrichtung und die Ressourcen auch Projekte mit Großunternehmen zu stemmen.

Blue Yonder – In die Zukunft schauen

Blue Yonder wurde in 2008 vom ehemaligen CERN-Forscher Prof. Michael Feindt gegründet und fokussiert sich seitdem stark auf die Optimierung von Bedarfs-, Absatz- und Preisplanung in klassischen Handelsunternehmen. Mit diesem Fokus konnte Blue Yonder eine Reihe namhafter Handelsunternehmen als Kunden gewinnen und seine Analytics- und Prognose-Technologie zu einer Plattform ausbauen, die seit einiger Zeit auch als Software-as-a-Service (Forward Demand 5.0) verfügbar ist. Auf diese Weise erschließt Blue Yonder sich das große Marktpotenzial der mittelständischen und kleineren Handelsunternehmen unterhalb von Otto, dm & Co. Das finden auch externe Investoren interessant. So investierte das Private Equity-Unternehmen Warburg Pincus im Dezember 2014 rund 75 Millionen USD in Blue Yonder. Das Kapital wird auch verwendet, um das Go-to-Market für weitere branchenspezifische Lösungen und im Segment von IoT und Industrie 4.0 zu stärken. So konnte Blue Yonder mit Eurotunnel, Lufthansa Systems und Bosch erste Kunden in diesen Bereichen gewinnen. Die ausgereifte Technologie, Führungs- und Kapitalstärke und die Erfahrungen aus einer ganzen Reihe an Kundenprojekten machen Blue Yonder definitiv zu einem derjenigen Unternehmen, das CIOs und CEOs auf der Watchlist haben sollten. Dass das Unternehmen aus Deutschland stammt und seinen Sitz in Karlsruhe hat, zeigt, dass auch hierzulande und trotz Datenschutz-Debatte hoch attraktive Analytics-Firmen entstehen können.

Die Unternehmensperspektive – Auf dem Weg zur Data-Culture?

Über Big Data und Analytics wurde in den letzten Jahren viel diskutiert. Mittlerweile sind auch in Deutschland eine ganze Reihe interessanter Projekte umgesetzt worden, wie z.B. der aktuelle BITKOM-Leitfaden mit über 40 Use Cases zeigt. Aber noch sind viele Unternehmen weit davon entfernt eine echte „Data Culture“ zu entwickeln. Man hat vielfach den Eindruck, dass sich Manager noch zu gern auf Intuition und Baugefühl verlassen, anstatt ihre Entscheidungen primär datenbasiert zu treffen. Mit der nächsten Generation an Analytics- und Monitoring-Tools wird sich dies aber sukzessive ändern. Zumal diese meist Cloud-basiert sind, eine gute User Experience bieten und sich daher keinerlei Hürden (Implementierung, Maintenance etc.) beim Einsatz ergeben. Das bietet gerade für agile Unternehmen eine gute Chance, sich echte Wettbewerbsvorteile zu sichern. Man sollte sie nutzen!

Mehr zu den Themen Analytics Big Data IoT Machine Learning Monitoring Visualisierung

Share on:


Über den Autor:

Senior Analyst & CEO

Carlo VeltenDr. Carlo Velten ist CEO des IT-Research- und Beratungsunternehmens Crisp Research AG. Seit über 15 Jahren berät Carlo Velten als IT-Analyst namhafte Technologieunternehmen in Marketing- und Strategiefragen. Seine Schwerpunktthemen sind Cloud Strategy & Economics, Data Center Innovation und Digital Business Transformation. Zuvor leitete er 8 Jahre lang gemeinsam mit Steve Janata bei der Experton Group die „Cloud Computing & Innovation Practice“ und war Initiator des „Cloud Vendor Benchmark“. Davor war Carlo Velten verantwortlicher Senior Analyst bei der TechConsult und dort für die Themen Open Source und Web Computing verantwortlich. Dr. Carlo Velten ist Jurymitglied bei den „Best-in-Cloud-Awards“ und engagiert sich im Branchenverband BITKOM. Als Business Angel unterstützt er junge Startups und ist politisch als Vorstand des Managerkreises der Friedrich Ebert Stiftung aktiv.

One Response to “Vertrauen ist gut, Kontrolle ist besser! Die neue Generation von Analytics-, Visualisierungs- und Monitoring-Tools ist da”