AWS Hybrid – “Die Cloud dessen Namen nicht genannt werden darf”

  • Amazon Web Services präsentiert sich auf der jährlichen re:Invent erwartungsgemäß als der Cloud-Marktführer
  • Services aus fast allen Bereichen werden mit neuen Versionen, Erweiterungen oder einer neuen Verfügbarkeit bekannt gegeben.
  • Mit der General Availability von AWS Outposts entgegnet Amazon nach mehr als 7 Jahren endlich dem Wunsch der Kunden nach einer echten Hybrid-Strategie.

Zur jährlichen re:Invent feiert Amazon Web Services sich und seine Kunden wie üblich mit einem schier endlosen Feuerwerk von 77 wesentlichen Announcements. Die Crisp Research Analysten Max Hille und Stefan Ried waren vor Ort in Las Vegas und fassen die wichtigsten Ereignisse der Veranstaltung zusammen.

Die re:Invent ist mit offiziell 65.000 Teilnehmern einer der größten Technologie-Konferenzen. Nur Salesforce.com’s Dreamforce Event ist mit über 100.000 Registrierungen noch deutlich größer. Und auf diesen Konferenzen geht es bei weitem nicht nur um den einen zentralen Hersteller. So war auf der re:Invent das Who-Is-Who der Cloud-Welt vertreten. Jeder Hersteller, auch wenn es eine “Co-opetition” zu AWS gibt, will sich der geballten Kaufkraft von so vielen Teilnehmern präsentieren. Dazu gehören neben Salesforce.com auch eine große Zahl von Dienstleistern und Softwareanbietern, die auf AWS Managed Services anbieten oder ihre Software dort deployen. Viele davon bieten ihre Dienste parallel auf Google und Azure an.

Aus dem Strom der AWS Ankündigungen möchten wir diese vier Schwerpunkte herausgreifen:

  • Weiterer Ausbau des bereits größten Portfolios an Software Tools und Plattformdiensten
  • Signifikante Investitionen in Machine Learning
  • Stark ausgebautes Container Engagement
  • Endlich eine Hybrid AWS Cloud verfügbar

Das AWS Public Cloud Portfolio ist ein großer Software Stack

Die Tatsache, dass AWS bis auf wenige Ausnahmen alles als Cloud-Dienst anbietet, kann nicht mehr darüber hinwegtäuschen, dass es sich um einen riesigen Software Stack handelt, der inzwischen an Vielfalt nicht nur mit den klassischen Software-Herstellern wie IBM ebenbürtig ist, sondern unter den drei Hyperscalern (AWS, Azure, Google) den umfangreichsten Stack darstellt. Dabei vereint das AWS Geschäftsmodell die Software-Innovation, die Firmen wie IBM oder SAP eher mit einer hohen Marge betreiben, mit dem Cloud Operations Model, dass schnell kommoditisiert und deshalb eher zu einer niedrigen Marge driftet. Es bleibt spannend wie lange AWS diesen Business Model Stretch noch aushält. Die komplette Liste der re:Invent Announcements würde sicher den Rahmen dieses Analyst Views sprengen. Wir haben deshalb versucht die wichtigsten Ankündigungen aus der Gruppe der Plattform-Dienste für den Deutschen Markt zusammenzufassen:

  • Jährliches funktionales Update aller wesentlichen Services. Während es über das Jahr verteilt viele Verbesserungen und immer wieder Preissenkungen der etablierten Dienste gibt, spart sich AWS viele komplett neue Ankündigungen und “Major Releases” zur re:Invent auf. Dazu gehören beispielsweise neue Compute-Instanzen
  • Machine-Learning-Infrastruktur mit eigenem Chip Design. Nachdem Amazon im Jahr 2015 die israelische Halbleiter-Schmiede Annapurna Labs für $350M gekauft hatte, sind daraus zum Beispiel die Inf1 Instanzen oder der Gravitant 2 Prozessor entstanden, der mit seinem ARM-basierten Design nicht nur signifikante Performance-Verbesserungen für Anwender bringt, sondern auch entsprechend energieeffizient ist, was für einen Hyperscaler direkte Margen-Verbesserungen bedeutet.
  • Auch AWS schwimmt auf der Quantum-Computing-Welle mit. Während sich IBM und Google mit realen Quanten-Computern ein Wettrennen liefern, sichert sich AWS mit AWS-Bracket, dass sich an Wissenschaftler und Entwickler richtet, schon einen Marktanteil für die Entwicklung von Quanten-Algorithmen und dessen Simulation, solange die echten Q-Bits noch Mangelware sind.
  • Innovation auch bei dem Hypervisor Fundament. Die AWS Nitro-Architektur hat es zum Ziel die Bereitstellung von virtueller Compute-Leistung weiter zu optimieren. Eigens entwickelte Nitro-Hardware entlastet die CPU von IO- und anderen Standardaufgaben. Der Nitro-Security-Chip entlastet die CPU zudem von Security- und Virtualisierungsaufgaben. Letztlich laufen die Nitro-EC2-Instanzen auf einem eigens für diese Hardware entwickelten Nitro-Hypervisor.  Auf der diesjährigen re:Invent kamen noch die Nitro-Enclaves dazu. Dies sind virtuelle Maschinen ohne persistenten Storage oder jeglichen Operator- oder Administrator-Zugang. Sie haben lediglich einen lokalen Secure-Channel in eine normale EC2-Instanz auf dem gleichen EC2-Host. Damit läßt sich die Compute-Leistung deutlich aus-skalieren, ohne das Angriffspotential eines verteilten Systems zu liefern. AWS kommt mit den Nitro-Enclaves den gesteigerten Sicherheitsanforderungen der Finanz- oder Gesundheitsanwendungen entgegen.

Machine-Learning-Marktanteile durch Data-Scientist-Produktivität

Wie der AWS CEO, Andy Jassy in seiner 3-Stunden-Marathon-Keynote erklärte, nutzen 90 Prozent der Data Scientists mehrere Machine-Learning-Algorithmen. Beim entwickeln von Lernmodellen ist es daher nicht nur wichtig, dass eine Cloud-Plattform die gängigen Machine-Learning-Algorithmen als Fully Managed Service anbietet, es ist auch wichtig den Lernprozess effektiv zu gestalten und dem Data Scientist schnell zu zeigen, welcher Algorithmus zu den besten Ergebnissen kommt. Das war mit dem schon länger verfügbaren Lern-Tooling “Sagemaker” bisher mit vielen manuellen Schritten und einigem Know-how verbunden. Die neue Web-Based IDE soll diesen Prozess extrem vereinfachen und Data Scientists erheblich produktiver werden lassen.

AWS CEO, Andy Jassy, bei der Vorstellung der neuen Machine Learning IDE,
Sagemaker Studio, Bild: Crisp Research

 

Sagemaker Studio kann dazu mit einfachen CSV Files gefüttert werden, oder sich auf andere AWS- und Non-AWS-Datenquellen verbinden. Damit werden mehrere Algorithmen parallel ausprobiert und das folgende Trainieren, Tunen und Deployen für Algorithmus mit den besten Ergebnissen stark vereinfacht.

Sagemaker hat sich bereits mit ca. 50 neuen Features über die letzten 12 Monate auf diese hohe Produktivität vorbereitet. Diese Woche auf der re:Invent kam einiges davon im “Sagemaker Autopilot” zusammen. Darunter fallen die automatische Transformation von Daten, Entscheidungshilfen bei der Auswahl des besten Algorithmus, die Visualisierung von Modellen, sowie eine Hilfe bei der Auswahl des besten Models.

Auch durch das neue Sagemaker Studio wird der “Sagemaker Debugger”, der “Sagemaker Model Monitor” und “Sagemaker Experiments” sichtbar. Letzteres soll Data Scientists helfen Tuning- und Parameter-Daten zu verwalten und zu organisieren. Dieser ganze Software Stack macht letztlich die Storage- und Compute-Dienste die man zur Ausführung der Machine-Learning-Anwendungen braucht immer attraktiver - obgleich sich diese Infrastruktur selbst immer weniger von der der anderen Hyperscaler unterscheidet. Damit ist das massive Engagement von AWS im Machine-Learning-Segment ein schönes Beispiel, wie sich AWS immer mehr in ein Software Business bewegt, auch wenn dieses über die Infrastruktur monetarisiert. 

Stark ausgebautes Container Engagement

Wie Crisp Research bereits in den 2020 Trends hervorgehoben hat, ist der Trend zur Containerisierung aus der IT nicht mehr wegzudenken. Besonders im Bereich des “Fully Managed Kubernetes” war AWS im zuende gehenden Jahr zwar besser als Azure positioniert, aber immer noch etwas hinter Google. Wie man es von AWS kennt, versuchen sie nie genau das gleiche genauso gut wie ein Konkurrent zu liefern, sondern differenzieren sich durch Innovation und Vielfalt.
AWS wird auch weiter strategisch auf ECS UND EKS setzen, also das eigene Container Orchestration Management und den Opensource-Ansatz Kubernetes der stark von Google getrieben wird. Der wichtigste Differentiator für AWS ist AWS Fargate, der Serverless-Ansatz die notwendige virtuellen Maschinen dynamisch unter die Container zu provisionieren und wieder frei zu geben. Laut AWS nutzen bereits 40 Prozent aller neuen Container-Anwender Fargate, um das statische provisionieren von Compute Power zu vermeiden. Auf der re:Invent 2019 wurde nun die Verfügbarkeit von Fargate für Kubernetes angekündigt. Damit stehen Kunden eine Vielzahl von Möglichkeiten Container zu provisionieren zur Verfügung. Darunter sind:

  1. Manuelles Deployment auf Container Instanzen.
  2. Elastic Beanstalk
  3. ECS, Amazon’s eigenes Container Orchestration Framework
  4. EKS, Amazon’s fully managed Service von Kubernetes

Während Elastic Beanstalk schon selbst die Auto-Elastizität mitbringt, lassen sich die drei anderen Optionen jeweils mit oder ohne Fargate kombinieren. Die bisher fehlende EKS / Kubernetes Kombination mit Fargate ist jetzt auf der re.Invent dazugekommen.

Diese Möglichkeiten zeigen wieder einmal wie man stückweise eigene Kontrolle an den Public Cloud Provider abgeben kann, wenn man sich selbst nicht darum kümmern möchte oder kann. Um so mehr Serverless um so mehr Kontrolle liegt bei Provider, und um so weniger Compute Power wird statisch (über-) provisioniert. Ein Ansatz den viele IT-Abteilungen in Deutschen Unternehmen noch nicht erfassen, da er die eigenen Aufgaben weiter verkleinert.

In Summe kamen auf der re:Invent 77 neue Service Announcements zusammen, die man auf der AWS re:Invent Announcement Seite sortiert nach Produktkategorien findet. Da dies eine kaum noch konsumierbare Menge ist, hat AWS dieses Jahr einige IoT Announcements schon kurz vor der re:Invent verkündet und die Storage Innovationen kürzlich in einem Storage Day zusammengefasst. Dabei sind viele spannende Dinge wie der Docker Support für Greengras-IoT Devices, die den Rahmen diese Analyst Views einfach sprengen. Wir werden deshalb einiges mit speziellen Crisp Analyst Views unter die Lupe nehmen.

Doch - wie Steve Jobs zu sagen pflegte - There is one more thing - ohne dass eine re:Invent 2019 Zusammenfassung nicht annähernd vollständig wäre:

Endlich eine Hybrid/Private AWS Cloud verfügbar

Die Private Clouds waren jahrelang der Gegenspieler der Public Clouds. Provider wie IBM, die schon immer auf Wusch (fast) genau das gleiche wie im Cloud Service auch On-Premises liefern konnten, waren mit ihren Hybrid-Cloud-Angeboten ein halbes Jahrzehnt lang der Antagonist der Public Cloud Hyperscaler. Auch Andy Jassy hat jetzt öffentlich eingeräumt, dass er seit sieben Jahren diesen Bedarf hartnäckig verneint hat. Inzwischen hat sich die Welt aber geändert! Microsoft liefert Azure-Stack und sogar Google unterstützt mit Anthos ein on-premise Kubernetes Environment. Auf der re:Invent 2019 macht nun auch Amazon seine Hybrid und On-Premises Cloud verfügbar - jedoch in alter AWS Manier - mit einem anderen Technologie-Ansatz und vor allem einer komplett anderen Positionierung.

Bevor wir auf die Technik eingehen, ist es angebracht die AWS Kommunikation auf den Branchen-Standard zu übersetzen. Denn das AWS Marketing greift wieder zur gleichen Strategie, die schon bei den ganzen höherwertigen Plattformdiensten funktioniert hat. Anstelle wie alle anderen Cloud Provider von Platform-as-a-Service (PaaS) zu reden, haben sich die Infrastrukurdienste still und heimlich in das größte PaaS-Portfolio am Markt entwickelt. Darunter gibt es PaaS-Dienste die “nur” aus einem Fully Managed Open Source Frameworks bestehen, wie der gerade angekündigte “Fully Managed Apache Cassandra Service”. Viele andere Dienste jedoch, erzeugen einen starken Lock-In zu AWS. CIOs waren deshalb sehr sensibel PaaS-Diensten gegenüber. AWS hat jedoch durch die konsequente Vermeidung der PaaS-Terms und seinem viralen Entwickler-Marketing diese Hürde geschickt aus dem Weg geräumt.

Genauso vermeidet jetzt AWS schon fast peinlich-konsequent auf der re:Invent den Namen “Hybrid” als böses Synonym der Konkurrenz, ja drängt sogar alle ausstellenden Partner die Begriffe Hybrid- und Multi-Cloud aus der Stand-Kommunikation zu verbannen. Ein wenig kam uns das vor wie der Name des bösen Zauberers aus Harry Potter, den sich keiner traut auszusprechen. Doch so wie der kleine, mutige Harry, Lord Voldemort beim Namen nennt, muss es einfach gesagt werden: AWS Outposts ist nichts anderes als ein Fully Managed Hybrid Cloud oder Heavy Edge Computing Offering. Schon auf der re:Invent 2018 gab es eine Vorankündigung von AWS Outposts und ein Jahr lang viele Spekulationen oder Previews

Jetzt - zur allgemeinen Verfügbarkeit - stehen die Details und Preise fest. Dabei geht AWS technologisch ganz andere Wege als Azure und Google:

  • Microsofts Azure baut auf zertifizierter Hardware von Partnern ähnlich wie SAPs Hana Appliances. Als Folge davon hat man nicht nur mit monatelangen Lieferengpässen von Cisco-Servern kämpfen müssen, die Hardware-Hersteller haben auch versucht möglichst viele Azure Services auf einheitlicher Hardware abzubilden.
  • Google baut Anthos auf einer VMWare Infrastruktur des Kunden auf. Damit umgehen sie zwar elegant die Lieferprobleme und Kosten neuer Hardware, haben aber nicht annähernd die Performance/Energieeffizienz eines Google Rechenzentrums.

AWS baut in Outposts-Racks die gleiche Nitro-Hardware wie in den eigenen Rechenzentren ein! Das manifestiert nicht nur Amazons Rolle als Chip- und Server-Hersteller, es zeigt auch wie weit sich inzwischen die Hyperscaler Hardware von Enterprise Hardware entfernt hat. Die Server-Einschübe haben nicht nur andere Dimensionen, sondern die Racks haben eine zentrale, redundante Gleichstromversorgung die mit einem proprietären, in der Mitte liegendem Powerbus an die Einschübe verteilt wird. Kunden können in ihre Outpost Racks Einschübe “a la Carte” einer Auswahl von 18 spezialisierten Server Komponenten einschieben, aber keine einzige Third-Party Komponente. Heute lassen sich bis zu 100 Racks in einem Edge-Netzwerk ansammeln, nächstes Jahr sogar bis zu 1000 Racks.

AWS Outposts Rack, Bild: AWS

 

Hoch optimierte Hardware in speziellen Racks zu hunderten skalierbar? Wenn sich das nicht nach IBM Power Systems oder Oracle Exadata anhört? Mit dem AWS Outposts Angebot kann ein traditioneller CIO tatsächlich den Hardware und Software Stack einer IBM direkt mit der Hardware und On-Premise Software und dem Managed Service von beiden Anbietern vergleichen. Wo ist also der Unterschied?

Dazu muss man die Go-To-Market-Strategie der AWS Hybrid Cloud Angebote im Kontext zur Public Cloud verstehen. Zunächst ist hier technisch wirklich alles gleich! Die Dienste, die schon auf der Outposts Edge verfügbar sind, sind exakt die gleichen wie in der Public Cloud. Bei neuen Diensten reden wir hier von Deployments innerhalb weniger Stunden synchron mit den Availability Zones der Public Cloud. Die Hardware ist ebenfalls die gleiche energieeffiziente Purpose-Built Hardware die in AWS Rechenzentren läuft. Zu guter letzt geht Amazon mit den gleichen Outposts-Racks in drei verschiedenen Edge Computing Deployments und erhofft sich auch für die Racks und deren Management Skaleneffekte zu heben:

  • AWS Outposts richtet sich an Enterprises. In Deutschland denkt man sofort an Industrieunternehmen unter den AWS Kunden wie Volkswagen, oder an Krankenhäuser, die zumindest temporär voll autonom arbeiten müssen. Der Kunde kauft die gewünschten Hardware-Einschübe, die er braucht um die gewünschten AWS Services provisionieren zu können für drei Jahre. Die Hardware kann dabei entweder Upfront, als Monatsrate oder als Mischung daraus bezahlt werden. Die möglichen AWS Dienste erscheinen dann “kostenlos” in der AWS Management Console wie eine weitere Availability Zone. AWS Outposts ist eine Single-Tenant-Lösung, denn eine Outposts “Zone” kann nur in der Management Console einer Organisation erscheinen. Sonst würde das Billing-Konzept über den Hardware-Kauf nicht gehen. Strom und Networking stellt der Kunde bereit. Das komplette Management des Software-Stacks übernimmt AWS Remote, wie in der Public Cloud. Das Auslastungsrisiko liegt beim Kunden!
  • AWS Local Zones richten sich an mehrere Firmen, die “weit” von eine AWS Zone kooperieren möchten. Die AWS Local Zones wurden ebenfalls zur Reinvent als invited Beta angekündigt. Die erste Local Zone über die gesprochen wird, steht in LA um die Medien-Industrie in Hollywood mit maximal niedriger Latenz zu versorgen. AWS Local Zones sind Multi-Tenant Umgebungen wie alle anderen Public AWS Zones auch, nur etwas kleiner mit einer lokalen Auswahl von Diensten. Technisch baut AWS diese “kleinen” Zonen mit den gleichen Outpost-Racks. Strom und Network werden von AWS bereitgestellt. Jeder AWS Nutzer kann Dienste in jeder Local Zone konsumieren, egal ob in einem Reserved Contract oder On-Demand.
  • AWS Wavelength ist das Edge Cloud Concept für Telcos. Genauso wie die beiden anderen Edge-Modelle, basiert Wavelength auf den Outpost-Racks. AWS hat jedoch mit einer Hand voll Telcos gearbeitet um darauf einen zusätzlichen Software Layer anzubieten, der es den Telcos erlaubt aus ihren Rechenzentren ein Multi-Tenant-Modell auf Wavelength anzubieten. Dabei hat man ganz konkret die Monetarisierung der 5G Capabilities im Visier. So kann beispielsweise der Hersteller eines Video-Spiels oder der Anbieter von autonomer Fahrzeug-Software von AWS Edge Dienste sehr nahe an den zu bedienenden Devices kaufen. Der Telco zusammen mit AWS sorgt dann dafür, dass die Kapazitäten tatsächlich auf den Edges im 5G-Netz sind, wo die Devices sind. Möchte der Anbieter des Dienstes bestimmte mobile Bandbreiten und Latenzen, die 5G provisionieren kann, kauft er diese jedoch direkt beim Telco. Im Wesentlichen implementiert AWS Wavelength das erste mal standardisierte Infrastruktur- und PaaS-Dienste in so einem dynamischen Edge-Modell, dass unter dem Titel Network Function Virtualization (NFV) schon seit einigen Jahren vorhergesagt wird.

Für Kunden in Europa stellt sich natürlich die Frage, welche Edge-, Hybrid- oder On-Premise Cloud ist die richtige für mich. Zu AWS Local Zone gibt es noch keine Preise oder Ankündigung für Europa. Es wäre sicher eine interessante Option für die Automobilindustrie mit den Industrie 4.0 Szenarien. Bei AWS Wavelength sind im Moment Verizon, Vodafone Business, KDDI und SK Telecom im Boot. Bei dem schleppenden 5G Ausbau in Deutschland, hat hier kaum ein Telco wirklich Handlungsbedarf und wir glauben, dass AWS Wavelength mehr als 12 Monate braucht bis es in Deutschland und Österreich auf genügend Edge Locations verfügbar ist.

Ganz anders ist AWS Outposts jetzt für Unternehmen verfügbar. Es wird wahrscheinlich nicht gleich nach einem Tag mit Amazon Prime angeliefert, aber wir rechnen doch mit sehr kurzen Lieferzeiten in Europa. Dabei lohnt sich aber ein Preisvergleich. Um im gleichen Business Modell zu vergleichen, nehmen wir mit dem 3 Jahres Reserved Contract vier gängige m5.12xlarge Instanzen aus der Preisliste. Kostenpunkt inklusive Strom $4.239 pro Monat bei AWS in Frankfurt.

AWS Monatliche Kosten für vier 3 Jahres Reserved Instances (https://calculator.s3.amazonaws)

 

AWS Outposts Kosten für die gleichen Instances ohne Strom (https://aws.amazon.com/de/outposts/pricing

 

Um diese vier Instanzen in AWS Outposts provisionieren zu können, braucht man eine Hardware die schon $8.361 kostet.  Nimmt man den Strom dazu, ist AWS Outposts mindestens 2,5 mal so teuer wie die entsprechende AWS Public Cloud. 

Aus dieser kleinen Rechenaufgabe lernt man schnell wo Outposts Sinn ergibt und wo nicht. Hat man also kleine bis mittlere Locations die nur wenig IT Operations vor Ort haben, wie beispielsweise in einem Krankenhaus, und möchte dort höherwertige PaaS-Dienste vollkommen identisch wie in der Public Cloud konsumieren, ist AWS Outposts eine klasse Option. Der Premium-Preis rechtfertigt sich, da ein lokales Operations Personal noch teurer wäre. Geht es aber um 10, 20 oder noch mehr Racks die Standard-Compute-Leistungen zum Beispiel als Kubernetes Cluster anbieten sollen, ist weder AWS Outposts noch Azure Stack eine gute Idee. Für solche Umgebungen sind moderne Standard-Server im Management eines lokalen Kubernetes Operators auf jeden Fall günstiger. Nutzt man dann Software, die in der Public Cloud als Fully Managed Service des Cloud Providers oder des Software-Herstellers verfügbar ist, und in einem Self Managed Edge Cluster durch lokale Provider operated werden kann, kommt man zu deutlich kleineren Kosten für mittelgroße oder große Edge Locations in Unternehmen. In diesem Muster ist heute zum Beispiel die Document DB von MongoDB verfügbar. Es wäre auch ein Ansatz für die Referenz-Architektur Gaia-X.

Für Sie in Las Vegas waren Max Hille und Stefan Ried.

Mehr zu den Themen AWS Hybrid Cloud Hyperscaler Private Cloud re:Invent

Share on:


Über den Autor:

Principal Analyst & IoT Practice Lead

Stefan RiedDr. Stefan Ried – IoT Practice Lead, Principal Analyst – is responsible for the research and consulting activities covering IoT and modern platform architectures. Stefan Ried worked previously at Unify, a global communications and collaboration vendor as CTO. Graduated in Physics with an PhD at the Max Planck Institute, Germany, Stefan brings 20 years of experience in senior positions in software development, product management and marketing from international vendors to Crisp Research. His experience includes two software startups and major players including SAP and Software AG. Over 7 years at Forrester Research, Stefan lead the cloud platform research globally as a Vice President.