Enterprise-ready Infrastructure-as-a-Service (IaaS): Darauf sollten CIOs achten

Während der Planung moderner IT-Umgebungen gilt es für CIOs zwei Zielkonflikte aufzulösen. Zum einen haben sie die Aufgabe ihre Applikationen und Systeme mit dynamisch skalierbaren und ausfallsicheren Infrastrukturen und Plattformen zu unterstützen. Zum anderen stehen sie vor der Herausforderung die vollständige Kontrolle über die Daten und Systeme zu behalten, um rechtliche Rahmenbedingungen und Compliance-Regelungen zu erfüllen. Für den Aufbau dieser modernen IT-Infrastrukturen gelten Infrastructure-as-a-Service Umgebungen (IaaS) als gesetzter Standard. Sie bilden die notwendige Grundlage, um Unternehmensapplikationen zukunftsorientiert, skalierbar und ausfallsicher zu betreiben. Jedoch stellt sich die Frage, ob ein Kompromiss hinsichtlich der Themen Governance, Kontrolle und Compliance eingegangen werden muss.

Infrastructure-as-a-Service in der Praxis

Infrastructure-as-a-Service (IaaS) ist der zentrale Wegbereiter des Cloud Computing weltweit und bildet für eine Vielzahl von Web-Applikationen und Geschäftsmodelle die technologische Basis. Per Definition stellen IaaS-Plattformen IT-Infrastruktur-Ressourcen wie Rechenleistung, Speicherplatz und Netzwerk bereit, die über eine API angesprochen und genutzt werden können, ohne vorab kapitalintensiv in die entsprechende IT-Ressource zu investieren. Allerdings zeigt der Markt, dass es heute nicht mehr ausreicht, sich als IaaS-Anbieter lediglich auf diese reinen Infrastruktur-Ressourcen zu konzentrieren. Plattform-Services bzw. Microservices sind das Mittel der Wahl, um die herbeigesehnten Marktanteile zu gewinnen. Da der Cloud-Markt mittlerweile eine hohe Reife erreicht hat, verschiebt sich der Kundenfokus von Early Adoptern, wie Startups und Entwicklern, immer mehr in Richtung der Unternehmensanwender im Mittelstand und Großunternehmen.

Cloud-Markt_2016

Zu Beginn richteten Public Cloud-Anbieter ihren Fokus primär auf Entwickler und stellten ihnen eine Spielwiese auf Basis ihrer Infrastruktur-Plattform bereit. Der Zugriff auf die Plattform ist einfach und erfolgt über einen Self-Service unter der Angabe von Kreditkarteninformationen. Typischerweise profitieren Public IaaS-Anbieter von den „Economies of Scale“, also Skaleneffekten, indem die Infrastruktur mit einem Maximum an Kunden ausgelastet wird, um darüber kostengünstig Infrastruktur-Ressourcen anzubieten. Der Haken: In diesem Fall ist es sehr schwierig auf die speziellen Bedürfnisse einzelner Kunden einzugehen. Auch besteht in diesem Modell ein Risiko, dass die Überbelegung durch virtuelle Maschinen die physikalischen Hosts der Public IaaS-Plattform negativ beeinflussen (Noisy Neighbors). Werden Ressourcen vorab also nicht fest geplant, kann es zu mangelhafter I/O-Performance kommen, wenn zu viele Applikationen auf der zugrundeliegenden physikalischen Maschine betrieben werden. Zudem sind in diesem Modell die gesamte Infrastruktur und das Service-Portfolio weitgehend standardisiert.

Enterprise-ready IaaS aus CIO-Perspektive

Die Planung moderner IT-Umgebungen stellt CIOs vor große Herausforderungen. Einerseits müssen sie ihre Applikationen mit skalierbaren und ausfallsicheren Infrastrukturen unterstützen. Andererseits dürfen sie dabei nicht die Kontrolle über ihre Daten und Systeme verlieren, um rechtliche Rahmenbedingungen und Compliance-Regelungen zu erfüllen.

Ausfallsicherheit: Kernvoraussetzung für Applikationen auf IaaS-Umgegungen

Werden Enterprise Applikationen von einer On-Premise oder dedizierten Umgebung auf eine IaaS-Umgebung verlagert, steht eines im Mittelpunkt: die Ausfallsicherheit. Hierbei spielt insbesondere die Stabilität und Geschwindigkeit, sowohl der Infrastruktur, des Netzwerks als auch die Anbindung der Infrastruktur, eine zentrale Rolle. Cloud-basierte Applikationen erfordern eine zuverlässige und vor allem stabile Konnektivität, um zu jeder Zeit einen zuverlässigen Zugriff auf die Daten und Informationen zu gewährleisten. Noch entscheidender wird es, wenn geschäftskritische Prozesse und Applikationen auf der IaaS- Umgebung betrieben werden. Eine hohe und konstante Performance der Server und Infrastrukturen sowie eine geringe Latenz zwischen verschiedenen Standorten und gegenüber dem Kunden sind das A und O für einen modernen Infrastrukturbetrieb auf Enterprise-Niveau.

Grundsätzlich lässt sich festhalten, dass IaaS-Umgebungen (die Basis-Infrastruktur des Cloud-Anbieters) selbst mittlerweile als ausfallsicher einzustufen sind. Allerdings hat der Kunde im Rahmen der Shared-Responsibility seine Hausaufgaben zu erledigen. Und dazu gehört insbesondere, das „Design for Failure“ zu berücksichtigen. Denn „Everything fails, all the time“ (Werner Vogels, CTO Amazon.com). Das Design einer Cloud-Applikation muss den Regeln und Eigenschaften der IaaS-Umgebung folgen und die Hochverfügbarkeit berücksichtigen. Hierbei muss grundsätzlich darauf geachtet werden, einen Single Point of Failure zu vermeiden und zu berücksichtigen, dass zu jedem Zeitpunkt etwas passieren kann. Das Ziel muss daher darin bestehen, das eine Anwendung zu jeder Zeit funktioniert, auch dann, wenn die darunterliegende physikalische Infrastruktur des Anbieters in einen Fehlerzustand gerät. Die notwendigen Mittel und Services stehen dafür zur Verfügung.

Kontrolle: Management & Governance von Cloud-Umgebungen

Mit dem Auslagern der eigenen IT-Umgebung auf eine Cloud-Infrastruktur stellt sich parallel die Frage nach dem Erhalt des Kontroll-Levels. Im Vergleich zu einer On-Premise-Umgebung führt der Einsatz einer verteilten Cloud-Infrastruktur prinzipiell zu einer unmittelbaren Verringerung des Einflussbereiches über die unterschiedlichen Ebenen – z.B. Rechenzentrum, physikalische Infrastruktur und virtuelle Umgebung. Dies führt automatisch zu Fragen in Bezug auf Einhaltung von Compliance-Richtlinien, gesetzlichen Rahmenbedingungen und Datenschutzthemen. Besonders kritisch wird es, wenn unternehmensrelevante Vermögensgegenstände, wie das geistige Eigentum und F&E-Daten, ins Spiel kommen. Eine weitere Herausforderung besteht im Management der IaaS-Umgebung und in diesem Zusammenhang mit der Zugriffskontrolle auf die Infrastruktur. Cloud-Umgebungen verschaffen Mitarbeitern deutlich mehr Freiheiten und Flexibilität, als sie es von typischen On-Premise-Infrastrukturen kennen. Auf der einen Seite erhalten Mitarbeiter dadurch Möglichkeiten agiler zu handeln, indem sie zum Beispiel Server nach Bedarf selbst starten können. Auf der anderen Seite müssen sie selbstverantwortlicher agieren, um Daten nicht willkürlich verteilt zu speichern und nicht unnötige Kosten zu verursachen. Gut funktionierende interne Kontrollmechanismen verlieren somit auch in der Cloud nicht an Stellenwert. Im Gegenteil, ein kontrollierter Zugriff in Verbindung mit einem Self-Service ermöglicht die Einhaltung von Governance-Richtlinien und bietet Mitarbeitern gleichzeitig mehr Freiheit und Auswahl.

An dieser Stelle zeigt sich, dass die beiden führenden Public Cloud Anbieter Amazon Web Services (AWS) und Microsoft Azure ihre Hausaufgaben gemacht haben, um Unternehmen mit etwaigen Platform-Services wie AWS „CloudTrail“ oder Azure „Log Analytics“ zu unterstützen. Aus dieser Perspektive betrachtet, ist die Google Cloud Platform (GCP) aktuell hingegen noch davon entfernt, den Status Enterprise-ready zu erhalten. Die GCP Services „Monitoring“ und „Logging“ tendieren zwar in dieselbe Richtung. Sind aber noch nicht mächtig genug, um mit den Services von AWS und Azure hinsichtlich Compliance und Governance mithalten zu können.

Flexibilität: Mix und Skalierung von virtuellen und dedizierten Ressourcen

Ein Großteil aller CIOs und Infrastrukturmanager kennen ihre vorhandenen Applikationen und deren Bedarf sehr gut. Speziell für überwiegend statische Systeme, bei denen die Anforderungen an die Infrastruktur weitestgehend bekannt sind, eignet sich eine Kombination aus dedizierten und dynamischen Ressourcen sehr gut. Damit lassen sich periodisch auftretende Schwankungen etwa durch geplante Marketingaktionen oder bekannte Saisongeschäfte idealerweise abfangen. Hierbei wird eine „statische“ Infrastruktur dynamisch um weitere IT-Ressourcen ergänzt, um den zusätzlichen Bedarf abzudecken. Ein weiteres Szenario besteht im Aufbau einer IaaS-Architektur, bei der Teilbereiche auf eine hohe und stabile Rechenleistung angewiesen sind, andere wiederum nur „gewöhnliche“ Anfragen verarbeiten – Beispiel: Real-Time Collaboration-Platform. Für Chats und die gemeinsame Bearbeitung von Dokumenten reicht im Normalfall die Unterstützung durch einfache virtuelle Server aus. Im Falle der Echtzeit-Kommunikation wie Video-Chats, bei welchem Streaming-Prozesse verarbeitet werden, wird deutlich mehr Leistung benötigt, wofür bevorzugt physikalische Server zum Einsatz kommen.

IaaS: Architekturen und Betriebskonzepte

Abhängig von der jeweiligen Applikation oder dem zu unterstützenden Geschäftsmodell bzw. Geschäftsprozess kommen unterschiedliche Architekturen und Betriebskonzepte zum Einsatz. Im Laufe der letzten Monate ist ein Trend hin zu Multi-Cloud-Architekturen zu erkennen, weiterhin ist ein Multi-Regionen-Betrieb mittlerweile unerlässlich. Dies lässt sich zum einen mit der Risikoverteilung über mehrere Regionen erklären. Zum anderen wird die Präsenz mit lokalen (virtuellen) Infrastrukturumgebungen in einzelnen Ländermärkten aus technischer und rechtlicher Perspektive zunehmend wichtiger.

Design von Hybrid- und Multi-Cloud-Konzepten

Hybride und Multi-Cloud Design-Konzepte bieten sich für unterschiedliche Szenarien an. Eine weit verbreitete Anwendung findet sich bei hoch frequentierten eCommerce-Plattformen, deren Lastspitzen im Jahresmittel bekannt sind und die größtenteils auf eine längere Historie zurückblicken. Infrastrukturmanager solcher eCommerce-Plattformen haben einen guten Überblick und Kenntnisse über den Bedarf an Performance und Stabilität der Plattform. Dabei setzen, insbesondere über mehrere Jahre gewachsene, Webshops primär auf eine statische Hosting-Infrastruktur mit physikalischen Servern als Basis. Ein Grund für den bevorzugten Einsatz von physikalischen Systemen besteht in der Sicherstellung einer dedizierten und stabilen Geschwindigkeit für die Payment-Systeme.

Um einen einwandfreien Betrieb während Spitzenzeiten zu gewährleisten, wurden große eCommerce-Infrastrukturen in dedizierten Hosting-Umgebungen, basierend auf Erfahrungswerten, traditionell so dimensioniert, dass sie bei Anfragestürmen gut standhalten konnten. Dieses geht jedoch zu Lasten der Kosten und Effizienz. Denn eine Überdimensionierung der Infrastruktur ist auf Dauer sehr kapitalintensiv und senkt die Wettbewerbsfähigkeit eines Anbieters, in diesem ohnehin schon margenschwachen Geschäftsumfeld, nachhaltig. Aus diesem Grund sind immer mehr Infrastrukturmanager gefordert, ihre Sourcing-Strategie und Architekturkonzepte zu verändern. Statt eines vollständig statischen und auf die Bedarfsspitzen ausgelegten Infrastrukturdesigns gehen sie zu hybriden Szenarien über, die eine Kombination aus klassischem Hosting und Cloud-Ressourcen abbildet. Hierbei wird eine statische Basisinfrastruktur aus physikalischen Servern betrieben, um die bekannte Grundlast zu bedienen – hierauf können z.B. auch die Payment-Systeme laufen. Nehmen die Anfragen saisonal bedingt oder auch unerwartet zu, schaltet die eCommerce-Plattform automatisch weitere Ressourcen aus einer IaaS-Umgebung (virtuelle Maschinen) hinzu, um die Lastspitze abzufangen. Nimmt die Belastung ab, werden die virtuellen Maschinen wieder heruntergefahren bis das Normalniveau erreicht ist. Dieses on-Demand-Modell befähigt Betreiber von eCommerce-Plattformen zu einer flexiblen und Ressourcen-schonenden Nutzung ihrer Infrastruktur und führt zugleich zu einem ausfallsicheren Betrieb. Solch ein hybrides Szenario kann zudem dabei unterstützen, die Transaktionssicherheit für etwaige Applikationen sowie eine hohe I/O sicherzustellen. So werden z.B. Datenbankserver bevorzugt auf physikalischen Maschinen betrieben und die korrespondierenden verteilten Systeme wie Applikations- und Web-Server auf virtuellen Maschinen.

Mit einem Multi-Regionen-Design auf Expansionskurs

Im Hinblick auf einen Expansionskurs lässt sich das oben beschriebene Szenario von einem Rechenzentrum auf beliebig viele Standorte ausweiten. Voraussetzung dafür: Der IaaS-Anbieter verfügt über entsprechende Rechenzentrumsstandorte, um eine Skalierbarkeit z.B. auf europäischer oder globaler Ebene zu ermöglichen. Hierzu werden die Kundeninfrastrukturen an einem Standort über eine schnelle dedizierte Verbindung – z.B. Direkt-Verbindungen – mit weiteren Standorten erweitert, um eine einheitliche Datenbasis sicherzustellen und den konsistenten Zugriff auf Kernsysteme (z.B. Payment, Warenbestand) zu gewährleisten. Damit lässt sich zum Beispiel ein eCommerce-Angebot, was ursprünglich in Deutschland gestartet ist, schnell für Frankreich, Spanien, Großbritannien und in die USA ausrollen. Auf Grund der Lokalität der Daten, in den einzelnen Ländermärkten, kann der eCommerce-Anbieter seine Plattform mit einer niedrigen Latenz und somit mit einer höheren Geschwindigkeit bereitstellen. Zudem bringt er die Daten in die direkte Nähe der Kunden. Gleichzeitig kann er etwaige rechtliche Rahmenbedingungen erfüllen und Kundendaten, Payment-Systeme oder anderweitige Backend-Systeme zum Beispiel in Deutschland speichern und betreiben. Hingegen werden die Warendaten, wie konkrete Informationen, Bilder, Rezensionen sowie sämtliche Frontend-Systeme im entsprechenden Ländermarkt lokal vorgehalten.

Empfehlungen für den CIO

Im Kontext ihrer Cloud-Strategie stehen CIOs vor der Herausforderung das passende Angebot für ihre individuellen Anforderungen zu finden. Insbesondere unternehmenskritische Applikationen gilt es sensibel zu behandeln. Für die Auswahl eines Enterprise-ready IaaS-Angebots hat es sich bewährt, die folgenden Kriterien zu berücksichtigen:

  • Sicherheit: Ein hohes Sicherheitsniveau ist Hauptbestandteil einer Enterprise-ready IaaS-Umgebung. Dies sollte sich auf allen Ebenen, bis hinunter ins Netzwerk, zeigen. Regelmäßige, unabhängige Audits und eine Offenlegung der Sicherheitsarchitektur gegenüber dem Kunden sind das A und O eines IaaS-Angebots.
  • Compliance: Kontrolle und Transparenz der Nutzeraktivitäten sind essentiell wichtig, um für die erforderliche Compliance zu sorgen. Hierzu ist es erforderlich zu erkennen und festzuhalten, wie sich Nutzer auf der IaaS-Umgebung bewegen. Das bedeutet, zu verstehen und aufzuzeichnen, welche Ressourcen (Server, Storage, Service, API usw.) zu welcher Zeit von welchem Nutzer verwendet wurden.
  • Integration und API-Zugriff: Die Einbindung in eine hybride Cloud-Umgebung ist für die Mehrheit der deutschen Unternehmen die favorisierte Cloud-Strategie. Während des zukünftigen Ausbaus sollte jedoch strikt eine nahtlose Integration berücksichtigt werden, um keine System- und Datensilos entstehen zu lassen. Die Nutzung einer API unterstützt hierbei eine automatisierte Steuerung der Infrastruktur auf Skriptbasis oder direkt aus den Anwendungen heraus.
  • Hybrid Cloud: Moderne IT-Unternehmensinfrastrukturen können von vielen unterschiedlichen Cloud-Formen profitieren. Zum einen existieren Bereiche wie ERP-Systeme, die z.B. innerhalb einer Private Cloud-Infrastruktur betrieben werden sollten. Zum anderen stehen Web-Server bevorzugt innerhalb einer Public Cloud-Infrastruktur. Eine Hybrid Cloud-Umgebung, basierend auf Private und Public Cloud-Ressourcen, unterstützt deshalb bei einer ganzheitlichen Integration.
  • Disaster Recovery: Ein Backup-Service, zur Notfallwiederherstellung (Disaster Recovery), ist ein elementarer Bestandteil einer Enterprise-ready IaaS-Umgebung. Zugleich sollte das Daten-Backup über mehrere Rechenzentrumsstandorte verteilt gespeichert werden, um eine geringe Fehlertoleranz und hohe Verfügbarkeit sicherzustellen.
  • Multi-Regionen-Betrieb: Ein europaweites bzw. globales Netzwerk von Rechenzentrumsstandorten hilft global tätigen Unternehmen dabei, schnell in weitere Ländermärkte vorzudringen, um auf einer einheitlichen Technologiebasis und mit einer geringen Latenz, ein lokales Angebot bereitzustellen.

Cloud-basierte Infrastructure-as-a-Service Umgebungen gelten als gesetzter Standard für den Aufbau und Betrieb moderner IT-Infrastrukturen. Nur mit ihrer Hilfe lassen sich die notwendige Skalierbarkeit und Stabilität erzielen, um Applikationen zukunftsorientiert und ausfallsicher zu betreiben.

Im Zuge der voranschreitenden digitalen Transformationen und dem immer größer werdenden Momentum des Internet of Things (IoT) rücken IaaS-Plattformen weiter in den Mittelpunkt, um als Infrastruktur-Backend zu dienen. Insbesondere die gute Konnektivität, als auch die Möglichkeit des Multi-Cloud-Betriebs, helfen Anbietern von IoT-Services dabei, ihre Lösungen zeitnah und mit einer geringen Latenz schnell in weitere Ländermärkte auszuliefern.