Facing Data Gravity: Datenkontrolle und globale Skalierbarkeit in der Public Cloud

Mit der fortschreitenden Digitalisierung von Geschäftsmodellen und –Prozessen müssen sich CIOs mit neuen Sourcing- und Infrastrukturkonzepten beschäftigen. Die Public Cloud spielt hierbei eine zentrale Rolle. Gleichzeitig nimmt die Bedeutung von Daten signifikant zu. Auf Grund von Compliance-Richtlinien, rechtlichen Anforderungen, technischen Limitationen und individuellen Sicherheitsklassen besitzen diese jedoch eine bestimmte Trägheit. Diese sogenannte „Data Gravity“ macht die Daten unterschiedlich beweglich. Damit sich diese Daten dennoch außerhalb der eigenen IT-Infrastruktur verarbeiten lassen, ohne die Kontrolle darüber zu verlieren, sind neue Storage-Konzepte notwendig.

Data Gravity im Zeitalter der Public Cloud

Der Stellenwert von Daten nimmt im digitalen Zeitalter stetig zu. Einerseits werden immer mehr Daten für analytische Zwecke produziert. Andererseits steigt der Verletzungsgrad auf Grund einer immer größer werdenden Vernetzung mit zum Teil nicht bekannten Systemen sowie der Verteilung von Daten innerhalb von Public Cloud-Infrastrukturen, die sich nicht mehr vollständig unter der eigenen Kontrolle befinden.

Angesichts dieser Tatsache verfügen Daten je nach Typ und individueller Sicherheitsklasse über eine bestimmte Trägheit. Diese sogenannte „Data Gravity“ macht die Daten unterschiedlich beweglich. Zentrale Gründe für diese Datenträgheit sind:

  • Größe der Daten
  • Latenz des Zugriffs auf die Daten
  • Durchsatz / Bandbreite für den Zugriff auf die Daten
  • Kontrollmöglichkeiten der Daten
  • Erfüllung rechtlicher Rahmenbedingungen
  • Zugriff von lokalen / mobilen Apps und Cloud-Services

Mit der Hybrid Cloud die Data Gravity reduzieren

Eine hybride Cloud-Architektur ist in der Lage die Herausforderungen der „Data Gravity“ zu adressieren und eindeutige Lösungsansätze zu bieten. Dabei ist es nicht mehr notwendig die Daten zu bewegen. Stattdessen bleiben diese auf dem eigenen Storage-System liegen und die Public Cloud-Services (Rechenleistung, Applikationen, usw.) greifen dann zur Verarbeitung auf die Daten zu. Im Laufe der Verarbeitung wurden die Daten durch die Public Cloud Services zwar verändert und ggf. neue Daten erzeugt. Jedoch verlassen diese niemals das Storage-System in Richtung Public Cloud.

So ein Hybrid Cloud-Szenario bietet daher eine gute Grundlage, um die Herausforderungen im Zuge der Datenverarbeitung in der Public Cloud zu meistern. Zu diesen zählen:

  • Stabilisierung bzw. Verbesserung der Performance
  • Verringerung der Latenz
  • Erhöhung der Verfügbarkeit
  • Optimierung der Zugriffskontrolle
  • Einhaltung von Compliance-Richtlinien & Gesetzesvorgaben
  • Sicherstellung von Governance

Zwar bieten Public Cloud-Infrastrukturen für Unternehmen zahlreiche Wege, um sich neuen Geschäftsideen zu widmen, ihre IT-Infrastruktur skalierbarer zu betreiben oder einen Vorteil aus ihren Datenbeständen zu ziehen. Dennoch stellen sich Compliance- und Governance-Richtlinien als auch das erforderliche Kontroll-Level immer wieder als Hürden heraus.

Vor diesem Hintergrund hat Crisp Research in Zusammenarbeit mit NetApp Deutschland ein Strategiepapier erstellt, welches die Herausforderungen der Datenkontrolle und der globalen Skalierbarkeit im Rahmen von Hybrid- und Multi-Cloud-Architekturen thematisiert und Lösungsszenerien aufzeigt. Das Strategiepapier steht kostenfrei unter Die Cloud für alle Fälle – Datenkontrolle und globale Skalierbarkeit mit Hybrid- und Multi-Cloud-Architekturen sicherstellen  zum Download bereit.

 

2 Responses to “Facing Data Gravity: Datenkontrolle und globale Skalierbarkeit in der Public Cloud”