Big Data-Markt im Umbruch: Unternehmen richten ihre Analytics- und Daten-Strategien neu aus

  • Trend 1: Konsolidierung der Big Data-Anbieter - Cloudera kauft Hortonworks, HPE übernimmt MapR – Konsolidierung im Umfeld der Hadoop Distributions Provider
  • Trend 2: Big Data goes Public Cloud – Anwender verlagern ihre Anwendungen und Daten zunehmend in die Public Cloud - das Big Data-Processing und die Analytics werden nachgezogen
  • Trend 3: Konsolidierung der Analytics-Plattformen und -Projekte - Konzerne und internationale Mittelständler konsolidieren ihre Big Data- und Analytics-Plattformen, um den Wildwuchs beherrschbar zu machen und Kosten zu sparen
  • Trend 4: Vom Analytics-Tool zum Data Value - Ob BI-Software-Anbieter oder interne Analytics-Abteilung - Kunden und Anwender wollen nicht mehr für Analytics-Tools, sondern nur noch echte Insights und „Data Value” zahlen

Die Luft ist raus! Rund 10 Jahre nach Aufkommen des Begriffs Big Data” kühlt sich der Wachstumsmarkt rund um neue Technologien wie Hadoop & Co. nun etwas ab. Obgleich das Marktwachstum für entsprechende Hardware, Software und Services noch bei rund 11 Prozent pro Jahr liegt - und damit deutlich über dem durchschnittlichen Wachstum des gesamten IT-Marktes in Deutschland und Europa (Wachstum bei rund 2 Prozent).

Angesichts des Hypes um die digitale Transformation der Unternehmen und neue, datenbasierte Geschäftsmodelle, irritiert die Feststellung von der Abkühlung und Konsolidierung des Big Data Marktes. Im folgenden Beitrag soll aufgezeigt werden, 

  • in welche Richtung sich der Big Data- und Analytics-Markt entwickelt
  • welche Rolle die Public Cloud zukünftig im Kontext von Big Data und Analytics spielt
  • welche Analytics- und Big Data-Strategien die CIOs und Digitalentscheider als Antwort auf die Veränderungen verfolgen
  • und wie sich die Geschäftsmodelle im Analytics-Markt unter dem Motto vom Tool zum Data Value” wandeln

Trend 1: Konsolidierung der Big Data-Anbieter

Das Processing und die Analyse großer, verteilter und schnell wachsender Datenmengen (Big Data”) war und ist immer noch eine große Herausforderung für Unternehmen, Behörden oder Forschungseinrichtungen. Das Ökosystem um die Open-Source-Technologie Hadoop sowie artverwandte Tools, hat sich in den letzten 10 Jahren sehr dynamisch entwickelt und deutlich an technologischer Reife gewonnen. Vor wenigen Jahren nutzten die führenden Technologie-Player und Innovatoren, wie Cloudera, Hortonworks und MapR, die günstige Situation für Börsengänge (IPOs) und große VC-Finanzierungsrunden.

Doch nun wendet sich das Blatt: 

  • Anfang 2019 vollzogen Cloudera und Hortonworks ihren Merger.
  • Im Juli 2019 steht MapR vor dem Aus und wird von HPE übernommen.
  • Die Unternehmensbewertung von Cloudera-Hortonworks ist im Verlauf der letzten 12 Monate drastisch eingebrochen. 

Dies liegt allerdings nur teilweise an zu hohen Erwartungen seitens der Investoren und Kapitalmärkte, die in den letzten Jahren gerne bereit waren, hohe Bewertungen auf die Zukunft der Big-Data-Spezialisten zu zahlen. So waren Cloudera & Co. teils mit einem zehnfachen Umsatz-Multiple bewertet. Heute generiert Cloudera-Hortonworks rund 700 Mio. Umsatz - und das bei deutlichen Verlusten. 

Quelle: Google Finance, 30.08.2019

Der wesentliche Grund für die Konsolidierung liegt allerdings am Wandel der Markt- und Technologie-Landschaft bzw. folgenden strategischen Trends, die im weiteren Verlauf noch näher erläutert werden:

  • Verlagerung von Datenbeständen und Analytics in die Public Clouds (siehe unten) - als neues Hosting-Modell
  • Nutzung der Big Data- und Analytics Services der Cloud Provider - direkte Konkurrenz zu Cloudera & Co
  • Neue, Microservices- und Container-basierte Architekturen - weg von den Big Data-Monolithen hin zu flexiblen Architekturen

Trend 2: Big Data goes Public Cloud

Während in den Anfangsjahren der Big-Data-Welle noch millionenschwere On-Premise-Systeme das Standard-Deployment darstellen, so gilt nun vielfach die Maxime Cloud-First”. 

Denn immer mehr Konzerne und Mittelstandsunternehmen verlagern im Rahmen ihrer Cloud-Transformation weite Teile ihrer IT-Infrastruktur, Applikationen und Daten in Richtung der Cloud-Plattformen der großen Hyperscaler AWS, Azure, Google & Co.. Aufgrund der Data Gravity” und weiterer Überlegungen, ist es sinnvoll und nachvollziehbar, auch das Big-Data-Processing und die Analytics in der Public Cloud auszuführen. Vereinfacht gesagt - Analytics follows Data. 

Auf diese Weise sparen Unternehmen Zeit und Geld - und erzielen in vielen Fällen auch Vorteile im Hinblick auf die Analyse-Performance und die Bereitstellungszeit von Processing-Kapazitäten.

Die maßgeblichen Vorteile, die sich bei der Umsetzung von Big Data- und Analytics-Projekten in der Public Cloud für die Anwender ergeben, sind folgende:

  • Geringe Einstiegsinvestitionen bzw. On-Demand Pricing (gegenüber millionenschweren Investments beim Aufbau von On-Premise Clustern und Data Lakes), was den Ansatz Start small” ermöglicht 
  • Self Service und Bereitstellung auf Knopfdruck” von Analytics und Big Data Services, was die Agilität erhöht und Projektlaufzeiten verkürzt (Time-to-Insights”) - Ressourcen der BI-Abteilung sind nicht mehr der zentrale Flaschenhals
  • Skalierbarkeit und flexible Anpassung von Processing- und Storage-Kapazitäten - Anwender können vom Gigabyte bis in den Terabyte-Bereich skalieren, ohne die Architektur und das Hardware Setup anzupassen
  • Innovation-Inside - Zugriff auf die neuesten Tools, Frameworks und Technologien als standardisierte Services via API inkl. der Nutzung neuester Machine Learning und AI-Funktionen.

Vor diesem Hintergrund erwägen auch viele heutige Big Data-Anwender die kommende Generation ihrer Systeme in der Public Cloud aufzusetzen. So lässt sich derzeit eine Migrationswelle von On-Premise gehosteten Big Data-Systemen in Richtung Public Cloud feststellen.

Trend 3: Konsolidierung der Analytics-Plattformen und -Projekte

Auch wenn in vielen großen und internationalen Unternehmen mittlerweile eine zentrale Verantwortlichkeit und Rolle für die Daten- und Analytics-Strategie existiert, z.B. in Form eines Chief Data Officers” oder eines Leiter Big Data & AI”, so gleicht die Landschaft der Datentöpfe (Data Lakes und Data Warehouses) und Analytics-Lösungen meist einem Flickenteppich, der historisch gewachsen ist und eine erhebliche technische Schuld” darstellt.

Diese technische Schuld” hat im Kontext von Big Data mehrere Dimensionen:

  • Heterogenes Data Management und Speichersysteme (Infrastruktur & Speicherort)
  • Vielzahl an Analytics-Plattformen und Tools (Software)
  • Verschiedene Datenmodelle und API-/Integrationskonzepte (Data)
  • Abhängigkeit von Vielzahl an Dienstleistern und Hosting Providern (Sourcing & Skills)
  • Hohe Kosten für den laufenden Betrieb und die Weiterentwicklung der einzelnen Big Data- und Analytics-Lösungen (TCO)

Vor diesem Hintergrund erscheint es nachvollziehbar, dass derzeit viele CIOs und Vorstände die Big Data- und Analytics-Aktivitäten auf den Prüfstand stellen. Diese müssen nicht zwangsläufig auf einen kompletten Umzug in die Public Cloud hinauslaufen (siehe oben), haben aber doch fast immer das Ziel, eine Konsolidierung der unterschiedlichen Data Lakes, Warehouses und Analytics-Lösungen auf wenige strategische Analytics-Plattformen herbeizuführen. Denn nur dann stehen perspektivisch genügend Ressourcen und Budgets zur Verfügung, um auch neue Themen und Innovationen, wie Machine Learning oder Cloud-based BI umzusetzen. 

Für die verantwortlichen Entscheider und Projektleiter ist dies allerdings nicht ganz einfach, da die Kunden und Anwender der bestehenden Big Data- und Analytics-Lösungen meist nur ungern einer Migration ihrer heißgeliebten” Dashboards und Analytics-Prozesse zustimmen. Diese lassen sich nur durch konkrete Benefits, wie signifikante Kosteneinsparungen (TCO) oder schnelle Bereitstellung innovativer Analytics-Features sowie guten Support während der Change-Phase überzeugen. Lohnenswert ist dies allemal - geben doch DAX-Konzerne meist Big Data- und Analytics-Budget im dreistelligen Millionenbereich pro Jahr aus. 

Konsolidierungs- und Einsparpotenziale ergeben sich aus der Erfahrung von Crisp Research in allen oben genannten Bereichen, z.B.:

  • Vereinheitlichung der Storage-Systeme für bessere Auslastung
  • Zusammenziehen von Datenbeständen nach zentralen Plattformen und Geographien, um Connectivity-Kosten zu reduzieren 
  • Konsolidierung von Analytics-Lösungen und Tools (Lizenzen, Training, Maintenance) auf wenige / eine strategische Plattformen
  • Hardware-Upgrades bzw. Einsatz Special Purpose Hardware für bessere Cost/Performance-Ratio (z.B. GPUs bei Machine Learning Workloads) - funktioniert in der Cloud auch “on-demand”
  • Aufsetzen neuer Big Data-Projekte nach “Cloud-First”-Ansatz, um keine Vorabinvestitionen zu tätigen
  • Automatisierung von ETL- und Data-Preparation-Prozessen
  • Vereinfachung und Self Service bei der Erstellung von Analysen und Dashboards durch bessere User Experience der Tools

Werden diese Konsolidierungs- und Einsparmaßnahmen in den kommenden Jahren erfolgreich umgesetzt, stehen nicht nur die nötigen Freiräume für neue Projekte und Innovationen zur Verfügung - auch ist dann die Basis für die Weiterentwicklung hin zu einer Data-Driven-Company” gelegt. Denn nur wenn die Unternehmen über einen aufgeräumten Data Landscape” und gut etablierte sowie hoch automatisierte Big Data- und Analytics-Prozesse verfügen, lassen sich mittels Daten Prozesse optimieren und neue digitale Geschäftsmodelle etablieren.

Trend 4: Vom Analytics-Tools zum Data Value

Ob Software-Anbieter oder interne BI-Abteilung - auf eines sollten sich interne wie externe Analytics-Dienstleister einstellen: dass ihre Kunden und Anwender zukünftig nur noch für echte Insights und Data Value” zu zahlen bereit sind und nicht für reine Tools!

Im Kontext der digitalen Transformation wollen CEO und CDOs neue datenbasierte Produkte und Geschäftsmodelle etablieren. Das Data Business” soll mittel- und langfristig einen wesentlichen Beitrag zum Umsatzwachstum leisten. 

Und damit werden die Kosten für die zugrundeliegenden Big Data- und Analytics-Lösungen elementar und zum strategischen Erfolgsfaktor. Denn nur wenn die digitalen Stückkosten” für ein Dashboard, einen Forecast oder eine Kaufempfehlung einen sehr geringen Anteil der Servicegebühren bzw. des Produktpreises ausmachen, sind Konzerne und Mittelständler in der digitalen Welt überlebensfähig. Denn die Wettbewerber sind neben innovativen Startups vor allem Google, Facebook und Co.. 

Dies erfordert für viele traditionelle BI-Manager ein Umdenken. Kommt man doch aus einer Welt, in der man primär den Top-Managern einen VIP-Service geliefert hat - koste es, was es wolle!

In den kommenden Jahren bedarf es also der Bereitschaft, BI und Analytics neu zu denken. Skalierung, Effizienz und Innovation können dabei die Designkriterien für erfolgreiche Big Data- und Analytics-Strategien sein.

Mehr zum Thema “Data is the Product” finden Sie in unserem gleichnamigen Report. 

Empfehlung

Digital- und IT-Entscheider sollten in den kommenden 1-2 Jahren proaktiv eine Konsolidierungs- und Plattform-Strategie für ihre Big Data- und Analytics-Lösungen entwickeln - zumindest wenn diese derzeit den Charakter eines gewachsenen Dschungels aufweisen. 

Denn CFOs beginnen schon jetzt Beiträge zu Effizienzprogrammen und konkrete Einsparpotenziale ein, da sich die Konjunktur einzutrüben beginnt. DAX-Konzerne und Mittelständler legen erste Programme zum Personalabbau auf. 

Hinzu kommt, dass sich neue datenbasierte Produkte und Geschäftsmodelle nur dann profitabel skalieren lassen, wenn die “digitalen Stückkosten” gering sind - und sich die Grenzkosten für einen Forecast, ein Dashboard oder eine Prediction nahe an der Nullgrenze bewegen.

Daher sollten CIOs und Chief Data Officers:

  • Eine Analyse zu den möglichen Einspar- und Synergiepotenzialen sowie eine Roadmap für eine Konsolidierung entwickeln
  • Genügend Zeit in die Planung einer zukunftsfähigen Zielarchitektur und ein entsprechendes Betriebskonzept zu investieren (Cloud - ja/nein/wie viel?)
  • Klare Verantwortlichkeiten schaffen sowie die notwendigen Budgets und Skills bereitstellen
  • Frühzeitig den Austausch mit den Stakeholdern und Anwendern in den Business Units beginnen sowie klar über die Business Benefits argumentieren

Zur Konsolidierung von Big Data-Landschaften bietet Crisp Research Kunden und Interessenten einen entsprechenden “Strategie-Workshop” an.

Zur Workshop-Anmeldung

Mehr zu den Themen Analytics Analytics-Tools Big Data Big Data Analytics Data Lake Public Cloud

Share on:


Über den Autor:

Senior Analyst & CEO

Carlo VeltenDr. Carlo Velten ist CEO des IT-Research- und Beratungsunternehmens Crisp Research AG. Seit über 15 Jahren berät Carlo Velten als IT-Analyst namhafte Technologieunternehmen in Marketing- und Strategiefragen. Seine Schwerpunktthemen sind Cloud Strategy & Economics, Data Center Innovation und Digital Business Transformation. Zuvor leitete er 8 Jahre lang gemeinsam mit Steve Janata bei der Experton Group die „Cloud Computing & Innovation Practice“ und war Initiator des „Cloud Vendor Benchmark“. Davor war Carlo Velten verantwortlicher Senior Analyst bei der TechConsult und dort für die Themen Open Source und Web Computing verantwortlich. Dr. Carlo Velten ist Jurymitglied bei den „Best-in-Cloud-Awards“ und engagiert sich im Branchenverband BITKOM. Als Business Angel unterstützt er junge Startups und ist politisch als Vorstand des Managerkreises der Friedrich Ebert Stiftung aktiv.