Strategien für das Datenmanagement im digitalen Zeitalter

Was wäre, wenn alle Unternehmen den Weg in Richtung Digitalisierung beschreiten? Was, wenn immer mehr Unternehmen Cloud Services nutzen und Staaten ihre öffentliche Infrastruktur und die Verkehrssysteme vernetzen? Was, wenn auch im Mittelstand Papier gegen digitale Prozesse ersetzt würde? Was, wenn die Mehrheit der Menschen Filme und Musik über das Internet streamed? Da all dies schon längst Realität ist, müssen die Prognosen zum jährlichen Datenwachstum und den Speicherkapazitäten ständig neu angepasst werden. Denn die Geschwindigkeit mit der die Digitalisierung von Produkten (Smart Products), Geschäftsprozessen, Endgeräten (IoT) oder Produktions- und Logistiksystemen (Industrie 4.0) voranschreitet ist enorm. Crisp Research geht aktuell von einem weltweiten jährlichen Datenwachstum von rund 30-40% und einem Gesamtspeichervolumen von >50 Zettabyte im Jahr 2020 aus.

Digitalisierung schafft neue Realitäten und den „Delete-Button“ endgültig ab

In den vergangenen 12 Monaten hat sich der Anteil derjenigen Unternehmen in Deutschland, welche den Impact der Digitalisierung auf das eigene Unternehmen als hoch bzw. sehr hoch einschätzen, dramatisch erhöht (vgl. Abbildung).

Nexinto_wiestark_digitaleTransformation_Q8

Quelle: Studie „Disruption im Datacenter – IT-Management im Kontext der digitalen Transformation“, 2016 in Kooperation mit Nexinto GmbH

Die digitale Transformation und der neue „Digital Mindset“ in den Chefetagen deutscher Unternehmen schafft gerade neue Realitäten. Hierzu zählen vor allem:

  • Datengetriebene Firmen (“Data-driven Companies“) brauchen Analytics und Metriken in Echtzeit. Die Verfügbarkeit von Daten und der schnelle Zugriff sind erfolgsentscheidend.
  • Im Kontext der Digitalisierung und der Automatisierung der Analyseprozesse spielen intelligente Algorithmen und Machine-Learning-Modelle eine wesentliche Rolle. Diese haben Hunger nach Daten und brauchen möglichst viele und historische Daten zum Lernen und um sich selbst zu optimieren (Stichwort Deep Learning).
  • Digitale Geschäftsmodelle erhöhen das unternehmensweite Datenvolumen signifikant und dies nach schwer prognostizierbaren Mustern. Die Anforderungen an die IT-seitige Skalierbarkeit und Performance mit der Daten und Analysen bereitgestellt werden können steigt deutlich an.
  • „Daten sind das neue Gold“ – Daten werden immer stärker als strategisches Asset betrachtet. Da die Speicherkosten weiter sinken, denkt niemand mehr ans Aufräumen und Ausmisten. Es werden zukünftig keine Daten mehr gelöscht. Der „Delete“-Button wird abgeschafft und erst mal alles aufgehoben.

Treiber des Datenwachstums in den nächsten 5 Jahren

Es gibt viele Treiber hinter dem Datenwachstum der vergangenen und der kommenden Jahre. Digitalisierungs- und IT-Entscheider sollten sich auf jeden Fall Gedanken über neue Strategien und Konzepte des Daten- und Storage-Managements machen, falls mehr als drei der genannten Treiber für ihr Unternehmen relevant sind bzw. zutreffen:

  • Intensive Nutzung von Cloud Services
  • Sammlung und Aggregation von Kundendaten in speziellen „Data Lakes“
  • Machine Learning als neue Analyse-Disziplin etabliert
  • Einführung von Predictive Maintenance und Predictive Modelling
  • Echtzeit-fähige IT-Systeme für eCommerce-, Logistik oder BI
  • Nutzung von video-basierten Collaboration-Systemen
  • Einsatz von Video in Kundenkommunikation (z.B. Medien, eLearning)
  • Augmented Reality / Virtual Reality
  • 3D Printing / Modelling
  • Digital Engineering & Simulation
  • Umfassende Einführung von IoT / Industrie 4.0

Designkriterien und Strategien für das Data Management im digitalen Zeitalter

Problematisch für vaaiele IT-Entscheider und Storage-Verantwortliche ist, dass die wachsenden Datenmengen nicht nur einfach abgelegt und verwahrt werden sollen (analog zum eMail-Archiv von früher), sondern eine Vielzahl der obig geschilderten Anwendungsfälle darauf abzielen, immer größere Datenbestände, in immer mehr Applikationen, in immer kürzeren Zeitfenstern (Echtzeit) bereitzustellen. Kostengünstiges „Wegspeichern“ von Datenblöcken als „Cold Storage“ ist also nur selten die richtige Strategie, um den Anforderungen aus dem Business zu genügen und einen klaren Beitrag zu den Digitalisierungszielen des Unternehmens zu leisten.

Zukünftig müssen sich IT-Infrastrukturmanager und IT-Architekten damit auseinandersetzen, folgende Anforderungen unter einen Hut zu bringen:

  • Skalierbarkeit: Ausbau der Speicherkapazität „on the fly“ ohne Technologiebrüche, Downtimes oder Integrationsprobleme (z.B. durch Cloud Storage bzw. IaaS)
  • Performance & Verfügbarkeit: Zugriff und Datenverarbeitung in nahezu Echtzeit für immer mehr Applikationen
  • Datenhoheit & Sicherheit: Sicherstellung von Compliance, Sicherheit und Business Continuity sowie Verschlüsselung der Daten und Risikomanagement durch eine intelligente Verteilung über Regionen, Rechenzentren und Provider
  • Effizienz: Trotz aller obigen Anforderungen und hoher SLA´s gegenüber internen und externen Kunden müssen CIOs die Kosten pro TB im Griff behalten und sich Gedanken über die langfristige Entwicklung von TCO, Strom, RZ-Fläche machen.

Innovationen im Storage- und Data Management-Kontext als Antwort

Doch welche Technologien und Innovationen im Storage und Data Management-Markt sind geeignet, um die obigen Anforderungen zu erfüllen und Unternehmen einen schnellen und skalierbaren Zugriff auf ihre Daten zu geben, ohne die Kontrolle zu verlieren? Crisp Research hält folgende Beispiele für interessant und zukunftsfest:

  • Distributed Storage Networks: Das Startup Datomia zeigt, wie sich Technologieansätze des Network Attached Storage (NAS) und Public Cloud-Plattformen intelligent und kreativ kombinieren lassen, um global hochverfügbare „Distributed Storage Networks“ auszurollen, ohne dabei über ein eigenes Rechenzentrum verfügen zu müssen. Datomia setzt auf die Vielfalt und Verfügbarkeit der Cloud-Rechenzentren von AWS, Azure und Co und verteilt die Daten der Kunden als hochgradig verschlüsselte Datenfragmente über mehrere Cloud-Provider und -Rechenzentren. So können Kundendaten nicht kompromittiert oder mitgelesen werden, der Datentransfer in und aus der Cloud geht schneller und die Speicherkosten auf AWS, Azure & Co sinken für den Anwender deutlich. Dieser kann sich mittels der neuen Technologien Tiered Storage auf den günstigen Public Cloud-Plattformen aufbauen und managen – oder die Technologie als Appliance im eigenen Rechenzentren oder hybriden Storage-Architekturen (z.B. in einer Co-Location) nutzen. Definitiv ein Ansatz, der auf die Watch-List von Storage-Experten gehört.
  • All-Flash Arrays: Mit der fortschreitenden Verbreitung von In-Memory Computing und echtzeitfähigen Anwendungen und Analysen, werden vollständig Flash-basierte Storage-Systeme (SSD) immer attraktiver. Zumal sich diese technologisch und hinsichtlich ihrer TCO in den letzten 12 Monaten deutlich weiterentwickelt haben. Neben dem Innovator Pure Storage bieten nach einer Reihe von Akquisitionen auch IBM, HPE, EMC, Netapp und Andere All-Flash Arrays an. Die Systeme erreichen mittlerweile Speicherobergrenzen von 5 TB bei 400-500.000 IOPS und Latenzzeiten im Millisekunden Bereich.
  • Hybrid Cloud Storage: Um die Skalen- und Größenvorteile der Public Cloud für rechenintensive Workloads zu nutzen, ohne die Daten aus der eigenen Hoheit zu entlassen, bieten sich sogenannte „Hybrid Cloud Storage“-Konzepte Bei diesen können die Daten auf den Enterprise Storage-Systemen des Anwenders (z.B. Netapp Cloud ONTAP) verbleiben oder werden mit diesen über die Rechenzentrumsgrenzen hinaus einheitlich verwaltet. Lösungen wie z.B. Netapp Cloud Ontap agieren wie ein Übersetzer bzw. Storage Controller und verbinden alte Welt (NFS, CIFS, iSCSI) mit der neuen Welt (Object Storage, Block Storage, Instance Storage via API). Bedenken müssen Anwender hier, dass diese Konzepte meist nur dann gut und latenzfrei funktionieren, wenn sich die eigenen Enterprise Storage-Systems möglichst „nah“ an der Public Cloud befinden. Sprich die eigenen Storage-Infrastrukturen sollten möglichst in einer Co-Location oder in einem Rechenzentrum in einem der großen Cloud-Connectivity Hubs stationiert sein. In Frankfurt, Amsterdam oder Dublin bzw. bei Equinix, eShelter oder Interxion sind die Wege zu den Public Cloud Providern ja bekanntlich besonders kurz und schnell.
  • Software-Defined Storage und Hyperconverged Systems: Die sukzessive Erweiterung von komplexen NAS- und RAID-Systemen, um neue Festplatten und Komponenten, macht im Zeitalter exponentiell wachsenden Speicherbedarf und schwer prognostizierbarer System-Auslastungen nur wenig Sinn – und hat in den letzten Jahren zu einer hohen Komplexität und meist mediokren Performance-Niveaus geführt. Die klassischen unternehmenseigenen Storage-Systeme, die über Jahre gewachsen und mit unterschiedlichen Providern aufgebaut wurden, sind vielfach der Flaschenhals, wenn es um neue digitale Use Cases und weltweite Verfügbarkeit geht. Software-Defined-Storage bzw. Software-Defined Infrastructure ist hier der klare Trend und Transformationspfad. Die Verwaltung und Skalierung der Speichersysteme muss sich von der Hardware abstrahieren lassen und in Software gegossen sein. Nur so lassen sich ein flexibles Handling, echte herstellerunabhängige Skalierbarkeit und globale Verteilung sinnvoll realisieren. Software-Defined-Konzepte sind auch in fast allen Hyperconverged Systems die Funktionsgrundlage. Zudem haben Google, Facebook & Co vorgemacht, was Nutanix & Co nun für Enterprise-Kunden als Hyperconverged bzw. Software-Defined Systems in Appliance-Form bereitstellen. Um die Komplexität im IT-Betrieb und Storage-Management zu reduzieren sicherlich ein erwähnenswerter Ansatz. Beziehungsweise ein erster Schritt in Richtung „autonome Infrastruktur“ und „NoOps“. Zumindest sollten sich IT-Administratoren zukünftig auf neue Aufgaben einstellen – denn die zugrundeliegende Infrastruktur wird sich in 2020 sicherlich größtenteils selbst verwalten und pflegen.

Ausblick und Empfehlung:

  • Im Storage-Mix der Zukunft spielen Public Clouds eine zentrale Rolle – CIOs und IT-Manager sollten sich darauf einstellen
  • SSD während Du schliefst – All-Flash-Arrays haben einen Entwicklungssprung gemacht und sind mittlerweile eine echte Alternative für unternehmensweite Data Management-Strategien – vor allem im Mittelstand
  • Machine Learning als Katalysator für Software-Defined Storage – Verfahren der künstlichen Intelligenz und die Möglichkeit riesige Mengen von Systemdaten und Logs zur Optimierung des Storage Managements zu nutzen, werden Software-Defined-Storage-Lösungen zukünftig weiter reifen lassen. Die „Autonomous IT“ ist nicht mehr weit entfernt. Hier sollten die Innovationsstrategien der IT-Infrastrukturmanager ansetzen.