Tag: Amazon


AWS Activate. Startups. Marktanteile. Noch Fragen?

Startups sind die Grundlage für den Erfolg der Amazon Web Services (AWS). Mit ihnen ist der IaaS-Marktführer groß geworden. Anhand einer offiziellen Initiative baut AWS diesen Zielkundenmarkt weiter aus und wird die restlichen IaaS-Anbieter damit weiter im Regen stehen lassen. Denn von deren Seite, mit Ausnahme von Microsoft und Rackspace, passiert nichts.

AWS Activate

Es ist kein Geheimnis das AWS sich gezielt die Gunst der Startups "erkauft". Abgesehen von dem attraktiven Service Portfolio haben Gründer, die von Accelerator unterstützt werden, AWS Credits im zweistelligen Bereich erhalten, um ihre Ideen auf der Cloud Infrastruktur zu starten.

Mit AWS Activate hat Amazon nun ein offizielles Startup-Programm gestartet, um als Business-Enabler für Entwickler und Startups zu dienen. Dieses besteht aus dem "Self-Starter Package" und dem "Portfolio Package".

Das Self-Starter Package richtet sich an Startups, die ihr Glück auf eigene Faust versuchen und beinhaltet das bekannte kostenlose AWS-Angebot, welches jeder Neukunde in Anspruch nehmen kann. Hinzu kommen ein AWS Developer Support für einen Monat, "AWS Technical Professional" Training und ein vergünstigter Zugriff auf Lösungen von SOASTA oder Opscode. Das Portfolio Package ist für Startups die sich in einem Accelerator Programm befinden. Diese erhalten AWS Credits im Wert zwischen 1.000 Dollar und 15.000 Dollar sowie ein Monat bis ein Jahr kostenlosen AWS Business Support. Hinzu kommen "AWS Technical Professional" und "AWS Essentials" Trainings.

Noch Fragen wegen der hohen Marktanteile?

Angesichts dieser Initiative werden die Amazon Web Services auch in Zukunft alleine weiter vorne weglaufen. Mit Ausnahme von Microsoft, Google und Rackspace, positioniert sich nur AWS als Plattform für Nutzer, die dort ihre eigenen Ideen umsetzen können. Alle anderen Anbieter umarmen lieber Unternehmenskunden, die eher zögerlich auf den Cloud Zug aufspringen und bieten bei weitem nicht die Möglichkeiten einer AWS Cloud Infrastruktur. Anstatt das Portfolio auf Cloud-Services auszulegen, wird stattdessen mit Rechenleistung und Speicherplatz versucht auf Kundenfang zu gehen. Dabei hat Infrastruktur aus der Cloud mehr zu bedeuten als nur Infrastruktur.



ProfitBricks eröffnet Preiskampf mit den Amazon Web Services für Infrastructure-as-a-Service

ProfitBricks macht ernst. Das Berliner Infrastructure-as-a-Service (IaaS) Startup geht mit einer harten Kante gegen die Amazon Web Services vor und reduziert seine Preise sowohl in den USA als auch in Europa um 50 Prozent. Weiterhin hat der IaaS-Anbieter einen Vergleich vorgelegt, der zeigt, dass die eigenen virtuellen Server eine mindestens doppelt so hohe Performance haben sollen als die der Amazon Web Services und Rackspace. Damit versucht sich ProfitBricks über den Preis als auch über die Leistung von den US-amerikanischen Top Anbietern zu diversifizieren.

Die Preise für Infrastructure-as-a-Services sind noch viel zu hoch

Einhergehend mit der Ankündigung zeigt sich CMO Andreas Gauger entsprechend angriffslustig. „Wir haben den Eindruck, dass die regelrecht als Marktbeherrscher auftretenden Cloud Unternehmen aus den USA ihre Marktmacht für zu hohe Preise missbrauchen. Sie muten den Unternehmen bewusst undurchsichtige Tarifmodelle zu und verkünden regelmäßig punktuelle Preissenkungen, um den Eindruck einer Preisdegression zu wecken“, so Gauger.

ProfitBricks hat sich daher das Ziel gesetzt, den IaaS-Markt über den Preis von hinten aufzurollen und technische Innovationen und damit für einen Anbieter enstehende Kosteneinsparungen auch direkt und merkbar an den Kunden durchzureichen.

Bis zu 45 Prozent günstiger als Amazon AWS

ProfitBricks positioniert sich sehr deutlich gegen Amazon AWS und zeigt zwei Preisvergleiche. Kostet eine M1 Medium Instanz mit 1 Core, 3,75 GB RAM und 250 GB Block Storage bei Amazon AWS 0,1291 Euro pro Stunde bzw. 93,15 Euro pro Monat, enstehen bei ProfitBricks hierfür Kosten von 0,0694 EUR pro Stunde bzw. 49,95 Euro pro Monat. Eine Einsparung von 45 Prozent.

Werden 1 Core, 8 GB RAM und 1.000 GB redundanter Storage benötigt, ist der Unterschied noch größer. Die Kosten für eine M1 XLarge Instanz mit 4 Cores, 15 GB RAM und 1.680 GB temporärem Storage inkl. 1.000 GB Block Storage belaufen sich bei Amazon pro Monat auf 372,62 Euro. Bei ProfitBricks würden für die exakt geforderten Anforderungen 130,22 Euro pro Monat entstehen. Dabei handelt es sich um eine Einsparung von 65 Prozent pro Server.

Diversifikation allein über den Preis ist schwierig

Sich als IaaS-Anbieter alleine über den Preis zu diversifizieren ist schwierig. Wir erinnern uns, Infrastruktur ist Commodity und vertikale Services sind die Zukunft der Cloud, mit denen der Kunde einen Mehrwert erhält.

Auf diesem Weg dem IaaS Platzhirsch die Stirn zu bieten ist mutig und wirkt sehr tollkühn. Allerdings sollte man eines nicht vergessen. Als Hosting-Experten der ersten Stunde werden Andreas Gauger und Achim Weiß die Zahlen rund um ihre Infrastruktur validiert haben und suchen mit dieser Aktion sicherlich nicht den kurzen Ruhm. Es bleibt daher abzuwarten wie Amazon AWS und die anderen IaaS-Anbieter auf diesen Schlag reagieren werden. Denn ProfitBricks zeigt mit dieser Preisreduzierung, dass Kunden Infrastruktur tatsächlich deutlich günstiger bekommen können, als es derzeit der Fall ist.

Etwas sollte man als IaaS-Nutzer bei dieser Preisdiskussion allerdings nicht aus den Augen verlieren. Neben den Preisen für Rechenleistung und Speicherplatz - die immer wieder hochgehalten werden - gibt es weitere Faktoren zu berücksichtigen, die den Preis bestimmen und welche immer erst am Ende des Monats wirklich in Erinnerung gerufen werden. Dazu gehören die Kosten für den Datentransfer in die Cloud hinein und aus der Cloud heraus sowie Kosten für anderweitige Services die um die Infrastruktur herum angeboten und pro API Aufruf berechnet werden. Da fehlt in mancher Hinsicht die Transparenz. Weiterhin ist ein Vergleich der unterschiedlichen IaaS-Anbieter nur schwierig darzustellen, da viele mit unterschiedlichen Einheiten, Konfigurationen und/oder Paketen arbeiten.



Exklusiv: openQRM 5.1 wird um Hybrid Cloud Funktionalität erweitert und bindet Amazon AWS und Eucalyptus als Plugin ein

Bald ist es soweit. Noch in diesem Sommer wird openQRM 5.1 erscheinen. Projektmanager und openQRM-Enterprise CEO Matt Rechenburg hat mir vorab bereits ein paar sehr interessante neue Features verraten. Neben einem vollständig überarbeiteten Backend-Design wird die Open-Source Cloud Infrastruktursoftware aus Köln um Hybrid-Cloud Funktionalität erweitert, indem Amazon EC2, Amazon S3 und deren Klon Eucalyptus als Plugin eingebunden werden.

Neue Hybrid-Cloud Funktionen in openQRM 5.1

Ein kleiner Überblick über die neuen Hybrid-Cloud Funktionen in der kommenden openQRM 5.1 Version:

  • openQRM Cloud spricht transparent mit Amazon EC2 und Eucalyptus.
  • End-User innerhalb einer privaten openQRM Cloud können sich per Self-Service vom Administrator ausgewählte Instanz-Typen bzw. AMI's bestellen, die dann von openQRM Cloud in Amazon EC2 (oder Amazon kompatiblen Clouds) automatisch provisioniert werden.
  • Benutzerfreundliches Password-Login für den End-User der Cloud per WebSSHTerm direkt im openQRM Cloud Portal.
  • Automatisches Applications Deployment mittels Puppet.
  • Automatische Kostenabrechnung über das openQRM Cloud-Billingsystem.
  • Automatisches Service Monitoring via Nagios für die Amazon EC2 Instanzen.
  • openQRM High-Availability auf Infrastrukturebene für Amazon EC2 (oder kompatible Private Clouds). Das bedeutet: Fällt die EC2 Instanz aus oder tritt in einer Amazon Availability Zone (AZ) ein Fehler auf, wird eine exakte Kopie dieser Instanz neu gestartet. Im Falle eines Ausfalls einer AZ wird die Instanz sogar automatisch in einer anderen AZ derselben Amazon Region wieder hochgefahren.
  • Integration von Amazon S3. Daten lassen sich direkt über openQRM auf Amazon S3 speichern. Beim Erstellen einer EC2 Instanz kann ein Skript, welches auf S3 abgelegt ist mit angegeben werden, was z.B. weitere Befehle beim Start der Instanz ausführt.

Kommentar: openQRM erkennt den Trend genau zur richtigen Zeit

Auch openQRM-Enterprise zeigt mit dieser Erweiterung, dass die Hybrid Cloud ein immer ernst zunehmender Faktor beim Aufbau von Cloud-Infrastrukturen wird und kommt mit den neuen Features genau zur richtigen Zeit. Das Unternehmen aus Köln orientiert sich dabei nicht überraschend am aktuellen Public Cloud Marktführer Amazon Web Services. Damit lässt sich openQRM ebenfalls in Kombination mit Eucalyptus und anderen Amazon kompatiblen Cloud-Infrastrukturen nutzen, um eine massiv skalierbare Hybrid-Cloud Infrastruktur aufzubauen. Dabei setzt openQRM auf sein bewährtes Plugin-Konzept und bildet Amazon EC2, S3 und Eucalyptus genau so ab. Amazon und Eucalyptus werden, neben eigenen Ressourcen aus einer privaten openQRM Cloud, damit zu einem weiteren Ressourcen Provider, um schnell und unkompliziert mehr Rechenleistung zu erhalten.

Zu den absoluten Killerfeatures gehören meiner Ansicht nach das automatische Applications Deployment mittels Puppet, mit dem End-Nutzer sich bequem und automatisiert EC2 Instanzen mit einem vollständigen Softwarestack selbst bereitstellen können, sowie die Berücksichtigung der Amazon AZ-übergreifenden High-Availability Funktionalität, die von vielen Cloud-Nutzern aus Unwissenheit immer wieder vernachlässigt wird.

Viel Beachtung hat das Team ebenfalls der Optik und dem Interface des openQRM-Backends geschenkt. Die vollständig überarbeitete Oberfläche wirkt aufgeräumter und dadurch übersichtlicher in der Handhabung und wird die Bestandskunden positiv überraschen.



Eucalyptus Cloud 3.3 nähert sich immer weiter an Amazon AWS an und integriert Open-Source Tools von Netflix

Ich hatte es bereits nach der Bekanntmachung von Netflix, einige seiner Tools als Open-Source zur Verfügung zu stellen, geschrieben. Nun ist es passiert. Eucalyptus hat in seinem neuen 3.3 Release genau diese Netflix Tools integriert und bietet damit nun erstmalig mehr Funktionalität hinsichtlich Verfügbarkeit und Management für Applikationen innerhalb einer Private Cloud-Infrastruktur an. Weiterhin stehen neue Amazon Web Services (AWS) nahe Funktionen bereit.

Neue Funktionen in Eucalyptus 3.3

Eucalyptus 3.3 wurde neben den Netflix Tools um AWS-kompatible Funktionen wie Auto Scaling, Load Balancing und CloudWatch erweitert. Mit Auto Scaling lassen sich Regeln erstellen, um Workloads automatisch mit weiteren virtuellen Maschinen zu unterstützen, wenn eine bestimmte Lastgrenze erreicht ist. Dabei soll der Mechanismus exakt derselbe sein wie auf der Public Cloud Infrastruktur der Amazon Web Services. Weiterhin ist es nun möglich, Workloads automatisch zu AWS zu sklarieren

Chaos Monkey, Asgard und Edda

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht Instanzen (virtuelle Maschinen) pro Guppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Bei Asgard handelt es sich um eine Web-Oberfläche, mit der das Deployment von Applikationen gesteuert und eine Cloud verwaltet werden kann. Netflix selbst nutzt Asgard, um seine virtuelle Infrastruktur auf den Amazon Web Services zu steuern.

Edda ist ein Service, den Netflix nutzt, um kontinuierlich seine benötigten AWS Ressourcen über die AWS APIs abzufragen. Mit Edda lässt sich über die aktiven Ressourcen suchen und der Status herausfinden. Der Hintergrund für Edda ist, dass virtuelle Instanzen in der Cloud ständig in Bewegung sind. Das bedeutet, dass sie ausfallen können und dafür neue gestartet werden müssen. Ebenso verhält es sich mit IP-Adressen, die von unterschiedlichen Anwendungen wiederwendet werden können. Hier gilt es den Überblick zu behalten, wobei Edda unterstützt.

Ursprünglich hat Netflix diese Tools für die AWS Cloud-Infrastruktur geschrieben. Durch das Open-Source Release und die Eucalyptus Adaption, können sie nun ebenfalls in einer Private Cloud genutzt werden.

Kooperation: Eucalyptus und Amazon Web Services

Im März 2012 hatten die Amazon Web Services und Eucalyptus eine Kooperation angekündigt, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen. Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Die ersten Früchte hat diese Kooperation mit dem Eucalyptus Release 3.3 nun getragen. Eucalyptus nähert sich stetig immer näher an die Funktionen der Amazon Web Services an. Meine Theorie, dass Amazon für den Bau der CIA Private Cloud möglicherweise Eucalyptus nutzt, ist daher nicht ganz unberechtigt.

Übernahme nicht unwahrscheinlich

CEO Marten Mickos scheint seinem Ziel ein Stück näher zu kommen. Während eines Gespräches im Juni 2012 erzählte er mir, dass seine erste Amtshandlung als neuer Eucalyptus CEO darin bestand, zum Telefonhörer zu greifen, Amazon anzurufen und das Interesse an einer Zusammenarbeit zu bekunden.

Wie ich es bereits in dem Artikel "Netflix veröffentlicht weitere Monkeys als Open-Source – Eucalyptus Cloud wird es freuen" geschrieben habe, hat Netflix mit der Veröffentlichung seiner Monkeys Eucalyptus damit kräftig in die Arme gespielt. Dies wird nicht zuletzt die Kooperation der Amazon Web Services und Eucalyptus weiter stärken, sondern Eucalyptus für Amazon als Übernahmeobjekt immer attraktiver machen.

Warum ich dieser Meinung bin, habe ich ausführlich unter "Amazon kauft Eucalyptus Cloud – Es ist nur eine Frage der Zeit" beschrieben.



Windows Azure Infrastruktur Services – Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Das Microsoft, als eines der weltweit führenden IT-Unternehmen, irgendwann einmal mit einem "Online-Shop" und einem "Suchmaschinenanbieter" um Marktanteile kämpfen muss, hätte in Redmond wahrscheinlich auch niemand jemals zu träumen gewagt. Jedoch ist das die Realität. Amazon ist mit seinen Amazon Web Services (AWS) mit Abstand der Innovationsmotor im Cloud Computing Markt. Und auch Google holt stetig auf. Google hat speziell im Platform-as-a-Service (PaaS) Markt mit der App Engine und dem Software-as-a-Service (SaaS) Markt mit Google Apps bereits gut positionierte Produkte. Amazon ist hingegen im Bereich Infrastructure-as-a-Service (IaaS) der absolute Marktführer. Und hier greift nun auch Microsoft an. Nachdem Windows Azure zu Beginn als reiner PaaS am Markt positioniert wurde, sind sukzessive IaaS Komponenten hinzugefügt worden. Mit seinem neuen Release hat Microsoft nun offiziell die Windows Azure Infrastruktur Services ausgerollt. Für viele kommt dieser Schritt zu spät, da bereits große Marktanteile in diesem Bereich an AWS abgeflossen sind. Allerdings, wo es zunächst nachteilig ausschaut, verbergen sich auch einige Vorteile, die von den meisten übersehen werden.

Windows Azure Infrastruktur Services im Überblick

Grundsätzlich sind die Azure Infrastruktur Services nichts Neues. In einer öffentlichen Release Preview wurden diese bereits im Juni 2012 vorgestellt. Nach Aussage von Microsoft wurden seitdem "... mehr als 1,4 Millionen virtuelle Maschinen erstellt und mit mehreren hundert Millionen Prozessorstunden genutzt." Zudem sollen heute schon mehr als 50 Prozent der Fortune 500 Unternehmen Windows Azure nutzen und dabei insgesamt mehr als vier Billionen Daten und Informationen auf Windows Azure verwalten. Die Kapazitäten für Compute- und Storage-Lösungen verdoppeln sich in etwa alle sechs bis neun Monate. Laut Microsoft melden sich inzwischen täglich fast 1.000 neue Kunden für Windows Azure an.

Mit dem Release der Windows Azure Infrastruktur Services hat Microsoft seinen Cloud Computing Stack nun auch offiziell vervollständigt. Neben dem Betrieb von virtuellen Maschinen umfasst das Update die dazugehörigen Netzwerkkomponenten. Weiterhin bietet Microsoft nun auch Support für virtuelle Maschinen und auch die gängigsten Microsoft Server Workloads wie zum Beispiel Microsoft BizTalk oder SQL Server 2012. Neben Windows wird auf den virtuellen Maschinen auch das Linux Betriebssystem vollwertig unterstützt. Die Windows Azure Virtual Networks sollen zudem einen echten Hybridbetrieb ermöglichen.

Neue Instanzen und aktualisierte SLAs

Neben neuen virtuellen Instanzen mit zum Beispiel mehr Speicherkapazität von 28GB und 56GB, stehen auch vorbereitete virtuelle Images, z.B. vom BizTalk Server und SQL Server zur Verfügung. Vorbereitete Linux-Images, u.a. CentOS, Ubuntu und Suse Linux Enterprise Server (SLES), werden von kommerziellen Händlern bereitgestellt. Weiterhin stehen zahlreiche Open-Source-Anwendungen als vorbereitete Images im VM Depot auf Self-Service-Basis zur Verfügung. Microsoft Server-Produkte einschließlich Microsoft Dynamics NAV 2013, SharePoint Server 2013, BizTalk Server 2013 wurden für die Ausführung auf den virtuellen Maschinen von Microsoft bereits getestet.

Weiterhin wurden die Service Level Agreements (SLAs) überarbeitet. Microsoft garantiert eine 99,95 prozentige Verfügbarkeit inkl. finanzieller Absicherung, wenn es zu einem Ausfall auf Microsofts Seite kommt. Neben einem SLA für die Cloud Services bietet Microsoft sieben weitere SLAs speziell für Speicher, SQL-Datenbank, SQL Reporting, Service Bus, Caching, CDN und die Medienservices.

7/24/365 Support

Ein Microsoft Support-Team steht jeden Tag rund um die Uhr zur Verfügung. Die Support-Pläne unterteilen sich in vier Stufen vom Entwicklersupport bis hin zum Premier Support.

Preissenkungen für virtuelle Maschinen und Cloud-Services

Wie Amazon AWS gibt auch Microsoft seine Ersparnisse durch den Economies of Scale an seine Kunden weiter. Dazu stehen ab sofort folgende neue Preise und Erweiterungen bereit:

  • Virtuelle Maschinen (Windows, Standardinstanzen) gibt es bis zum 31. Mai zu reduzierten Preisen. Die neuen allgemeinen Verfügbarkeitspreise gelten ab dem 1. Juni 2013. Für eine kleine Instanz gilt der neue Preis 0,0671 € pro Stunde.
  • Die Preise für virtuelle Maschinen (Linux) für Standardinstanzen wurden um 25 Prozent gesenkt. Ab dem 16. April 2013 werden die Preise für kleine, mittlere, große und sehr große Instanzen um 25 Prozent gesenkt. Der Preis für eine kleine Linux-Instanz beispielsweise wird von 0,0596 €pro Stunde auf 0,0447 € pro Stunde in allen Regionen gesenkt.
  • Die Preise für virtuelle Netzwerke starten bei 0,0373 € pro Stunde, gültig ab dem 1. Juni 2013. Bis zum 1. Juni können Kunden das virtuelle Netzwerk kostenlos nutzen.
  • Die Preise für Cloud-Services für Web- und Workerrollen wurden um 33 Prozent für Standardinstanzen gesenkt. Ab dem 16. April 2013 sinkt der Preis für kleine, mittlere, große und sehr große Instanzen um 33 Prozent. Der Preis für eine kleine Workerrolle beispielsweise wird von 0,0894 € pro Stunde auf 0,0596 € pro Stunde in allen Regionen gesenkt.

Nicht zu spät für den großen Teil vom Kuchen

Auch wenn Microsoft in dem mittlerweile sehr stark umkämpften Markt für Infrastructure-as-a-Service spät dran ist, bedeutet es nicht, dass der Zug abgefahren ist. In vielen Ländern beginnt gerade erst die Adaption des Cloud Computing. Darüber hinaus wird das große Geld bei den etablierten Unternehmenskunden verdient und erst dann bei den Startups dieser Welt. Das hat auch Amazon verstanden und entsprechende Maßnahmen eingeleitet.

Weiterhin nimmt die Bedeutung der Private Cloud und somit auch der Hybrid Cloud weltweit zu. Und hier sieht das Blatt dann bereits ganz anders aus. Microsoft hat mit seinem Windows Server 2012 ein gut platziertes Produkt für die Private Cloud, was sich nahtlos mit Windows Azure integrieren lässt. Hier kann Amazon AWS nur über eine mögliche Eucalyptus Acquisition schnell aktiv werden. Eine erste intensive Kooperation beider Unternehmen besteht bereits.

Allerdings, die Windows Azure Infrastruktur Services sind in erster Linie Public Cloud Services. Und hier muss man sagen, dass die Vielfalt des Service-Portfolios der Amazon Web Services noch deutlich größer ist als das von Windows Azure. Zum Beispiel fehlen Services wie Elastic IP oder CloudFormation. Dennoch, Microsoft ist mit seinem Portfolio derzeit der einzige Public Cloud Anbieter am Markt, der Amazon AWS ernsthaft gefährlich werden kann. Denn "Infrastruktur bedeutet mehr als nur Infrastruktur" und daher heißt es "die Infrastruktur nutzbar machen".

Siehe: Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich (wird aktualisiert)

Und was ist mit Google?

Google darf auf keinen Fall unterschätzt werden. Im Gegenteil, aus einem ersten Performance-Vergleich zwischen der Google Cloud Platform und Amazon AWS ging Google als Sieger hervor. Allerdings beschränkt sich das aktuelle Serviceportfolio der Google Cloud Platform im Kern auf Rechenleistung, Speicherplatz und Datenbanken. Weitere Mehrwertservices, die auf der Plattform aufsetzen, fehlen noch. Darüber hinaus ist Google derzeit als reiner Public Cloud Anbieter zu sehen. Im Private/ Hybrid Cloud Umfeld sind bisher keine Produkte zu finden. Hier müsste mit Kooperationen bzw. Akquisitionen nachgebessert werden, um auch in Zukunft die Bedürfnisse von konservativen Unternehmenskunden zu befriedigen. Zumal Google weiterhin ein nicht zu unterschätzendes Reputationsproblem hinsichtlich Datenschutz und Datensammelwut hat. Hier muss noch mehr Transparenz gezeigt werden.

Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Mit der offiziellen Veröffentlichung der Windows Azure Infrastruktur Services hat Microsoft damit begonnen zu den Amazon Web Services im Infrastructure-as-a-Service Markt aufzuschließen. Von einem Spiel auf Augenhöhe kann hier aber noch nicht die Rede sein. Denn etwas Neuartiges oder gar Innovationen lassen sich im neuen Azure Release nicht finden. Stattdessen wird lediglich versucht den Technologievorsprung von Amazon AWS mit der Erweiterung von Infrastruktur-Ressourcen aufzuholen, mehr aber nicht. Dabei darf man nicht den Innovationsgrad von Amazon unterschätzen, die in regelmäßigen Abständen ihre Cloud Plattform mit weiteren disruptiven Services und Funktionen ausbauen.

Dennoch, für das attraktive Umfeld für Unternehmenskunden ist Microsoft in einer guten Ausgangsposition und hat sein Portfolio mit den Azure Infrastruktur Services um eine weitere wichtige Komponente gegenüber Amazon erweitert. Darüber hinaus verfügt Microsoft bereits über eine sehr große on-Premise Kundenbasis, die nun in die Cloud überführt werden muss. Darunter renommierte und finanziell gut aufgestellte Unternehmen. Und das ist genau der Bereich in dem Amazon erst noch Vertrauen aufbauen muss. Zudem sollte man den stetig wachsenden Private Cloud Markt nicht vernachlässigen. Hier sehen die Karten auf beiden Seiten gleich ganz anders aus.

Das Microsoft im IaaS Bereich noch nicht auf Augenhöhe mit Amazon ist, bedeutet nicht, dass sie nicht erfolgreich sein werden. Es ist zwangsläufig nicht entscheidend, als erster am Markt zu sein und das beste Produkt zu haben, sondern seine bestehenden und potentiellen Kunden davon zu überzeugen, einen Mehrwert zu bieten. Und es wäre nicht das erste Mal, dass Microsoft dies schaffen würde.



Die Amazon Web Services (AWS) nutzen möglicherweise Eucalyptus für den Bau der CIA Private Cloud

Es verdichten sich immer mehr die Gerüchte, dass Amazon für die CIA eine eigene Private Cloud für die Spionage bauen soll. Die erste Frage die sich dabei stellt ist natürlich warum für einen Geheimdienst? Die zweite, warum Amazon AWS als Public Cloud Anbieter, die Serviceanbieter und kein Softwareanbieter sind. Denkt man ein wenig weiter, kommt sofort Eucalyptus ins Spiel.

Der Amazon Deal mit der CIA

Laut der Federal Computer Week, haben die CIA und die Amazon Web Services (AWS) einen 600 Millionen Dollar schweren Vertrag mit einer Laufzeit von 10 Jahren abgeschlossen. Dabei geht es darum, dass Amazon AWS für die CIA eine Private Cloud auf der Infrastruktur der Regierung bauen soll. Viel mehr Informationen gibt es derzeit nicht.

Stellt sich dennoch die Frage, warum die CIA Amazon gefragt hat. Steckt hinter den $$$ noch mehr? Eines ist klar. Amazon gehört zu den wenigen Unternehmen, die über die Kenntnisse und Mitarbeiter verfügen, um sehr erfolgreich eine Cloud Infrastruktur zu betreiben. Trotz manch vermeidbarer Ausfälle, ist die Infrastruktur als äußerst robust und smart entwickelt einzuschätzen. Allerdings hat Amazon einen Nachteil. Sie sind Serviceanbieter und kein Softwareanbieter. Das bedeutet sie haben keine Erfahrung damit, wie man Software ausrollt, Kunden mit Updates usw. versorgt. Zudem werden sie wahrscheinlich bzw. hoffentlich nicht den selben Quellcode für die Cloud der CIA verwenden.

Hier könnte nun aber eine Kooperation ins Spiel kommen, die Amazon vor längerer Zeit mit Eucalyptus eingegangen ist und damit das Problem der nicht vorhandenen Software für on-Premise Clouds und die Erfahrung mit der Wartung usw. von Software für Kunden behebt.

Die Kooperation zwischen Amazon AWS und Eucalyptus

Kurz zusammengefasst handelt es sich bei Eucalyptus um einen eigenständigen Fork der Amazon Cloud, mit dem eine eigene Cloud mit den grundlegenden Eigenschaften und Funktionen der Amazon Cloud nachgebildet werden können.

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus haben im März 2012 angekündigt, in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen. Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Amazon Eucalyptus Private Cloud für die CIA

Diese Kooperation könnte nun erste Früchte für beide, Amazon als auch Eucalyptus, tragen. Durch die sehr nahe Ähnlichkeit von Eucalyptus zur Amazon Cloud, steht bereits eine fertige und direkt einsetzbare Cloud Software zur Verfügung, die Amazon kennt und sein weiteres Wissen mit einbringen kann. Services, die Eucalyptus noch nicht unterstützt, von der CIA aber benötigt werden, können successive nachgebaut werden.
Das könnte Eucalyptus wiederum bei der eigenen Weiterentwicklung helfen, indem entweder Kenntnisse aus deren Entwicklung oder gar Teile von Services in das generelle Produkt zurückfliessen.

PS:

Ich habe mit der nun scheinbar offiziellen Zusammenarbeit zwischen Amazon und der CIA so meine Probleme. Ein Stichwort heißt hier Vertrauen, was Amazon durch die Kooperation mit einem Geheimdienst für sich nicht weiter fördert.



AWS OpsWorks: Mehr PaaS-Funktionalität im Cloud-Portfolio von Amazon

Korrekterweise spricht man bei den Amazon Web Services (AWS) von einem Infrastructure-as-a-Service (IaaS). Bei AWS Elastic Beanstalk spalten sich die Lager, ob der Service zu den Platform-as-a-Services (PaaS) gezählt werden dürfe. Zumindest bietet AWS seit längerer Zeit diverse PaaS-Funktionalität in seinem Cloud-Portfolio und erweitert diese nun mit "AWS OpsWorks" (noch in der Beta).

Was ist AWS OpsWorks?

AWS OpsWorks ist eine Lösung für das flexible und automatisierte Applikationsmanagement. Es richtet sich an IT-Administratoren und DevOps Entwickler, die damit den vollständigen Lebenszyklus einer Anwendung inkl. Ressourcen-Provisionierung, Konfigurationsmanagement, Softwareupdates, Monitoring und Zugriffskontrolle verwalten können. AWS OpsWorks kann kostenlos genutzt werden. Kosten entstehen für die darunter eingesetzten virtuellen AWS Infrastrukturressourcen.

OpsWorks ermöglicht das Erstellen einer logischen Architektur, die Provisionierung der benötigten Ressourcen basierend auf der Architektur sowie das Bereitstellen der Applikation und die dafür benötigte Software und Pakete für eine bestimmte Konfiguration. OpsWorks sorgt dann für den Betrieb der Applikation und unterstützt deren Lebenszyklus inkl. Autoscaling und Softwareupdates.

AWS OpsWorks Details

AWS OpsWorks unterstützt unterschiedliche Applikations-Architekturen und arbeitet mit jeder Software zusammen, deren Installation skript-basiert verläuft. Basierend auf dem Chef Framework können bereits fertige eigene Rezepte oder welche aus der Community genutzt werden, um OpsWorks einzusetzen.

Ein Event-basiertes Konfigurationssystem hilft beim Lebenszyklus-Management einer Applikation. Dazu gehören anpassbare Deployments, Rollbacks, Patchmanagement, Autoscaling sowie Autohealing. So lässt sich z.B. ein Update über das Aktualisieren einer einzigen Konfigurationsdatei ausrollen. Zudem ist OpsWorks in der Lage, AWS Instanzen basierend auf einer selbst exakt spezifizierten Konfiguration zu hosten. Dazu gehört ebenfalls die Skalierung dieser Applikation anhand der jeweiligen Last auf der Anwendung oder einer zeitbasierten automatischen Skalierung sowie der Überwachung der Applikation und dem Austausch fehlerhafter Instanzen.

Mit OpsWorks lassen sich Applikationen in sogenannte "Layer" aufbauen. Layer definieren, wie ein Teil von Ressourcen, die zusammen verwaltet werden, konfiguriert werden sollen. Ein Beispiel könnte ein Web-Layer sein. Dieser beinhaltet EC2 Instanzen, EBS Volumes inkl. einer RAID Konfiguration und Mount Points sowie Elastic IP-Adressen. Für jeden Layer kann zudem eine Software-Konfiguration erstellt werden. Darin sind Installations-Skripte und Schritte für die Initialisierung enthalten. Wird nun eine Instanz zu einem Layer hinzugefügt, sorgt OpsWorks dafür, dass diese die entsprechenden Konfigurationen erhält. OpsWorks stellt vor-definierte Layer für Technologien wie Ruby, PHP, HAProxy, Memcached und MySQL bereit. Diese können angepasst und erweitert werden.

Technologie aus Deutschland

OpsWorks ist eine Erfindung aus Deutschland und basiert auf der Scalarium Technologie des Berliner Unternehmens Peritor. Scalarium wurde bereits 2012 von Amazon gekauft.

Kommentar

Bei AWS OpsWorks handelt es sich zwar um kein konkretes PaaS Angebot. Dieses liegt allerdings an der Building Blocks Philosophie der Amazon Web Services. Das bedeutet, dass die angebotenen Services so granular wie möglich bereitgestellt werden. Der Kunde hat anschließend die Möglichkeit, die Services für seinen Use Case so zu integrieren, wie er sie benötigt. Dafür wird natürlich dementsprechend viel Eigenleistung und Wissen benötigt, welches bei einem typischen PaaS für die Infrastruktur nicht erforderlich ist. Jedoch schließt AWS OpsWorks hinsichtlich der Convenience zu den PaaS am Markt immer weiter auf und bietet immer mehr PaaS-Funktionalität in der Amazon Cloud.

Über eines sollte man sich als Kunde dennoch bewusst sein. Und das gilt nicht nur für AWS OpsWorks, sondern für die Nutzung jedes AWS Service. Der Lock-in in die AWS-Infastruktur wird mit jedem Service den Amazon veröffentlicht immer größer. Das muss nichts Schlechtes bedeuten. Ein Lock-in ist zwangsläufig nichts Negatives und kann im Gegenteil sogar von Vorteil sein, solange die eigenen Anforderungen erfüllt werden und nicht zu große Kompromisse durch den Kunden selbst gemacht werden müssen.

Man muss sich als Kunde dies nur vor Augen halten und bereits vor dem Weg in die AWS Cloud, als auch in jede andere Cloud, über mögliche Exit-Strategien oder einen Multi-Cloud Ansatz nachdenken.



Netflix veröffentlicht weitere "Monkeys" als Open-Source – Eucalyptus Cloud wird es freuen

Wie GigaOM berichtet, wird Netflix in naher Zukunft weitere Services ähnlich zu seinem Chaos Monkey und der Simian-Army unter der Open-Source Lizenz auf Github veröffentlichen.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht und Instanzen (virtuelle Maschinen) pro Gruppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter "Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur".

Weitere Services aus Netflix Monkey Portfolio

  • Denominator: Ein Tool für die Verwaltung mehrerer DNS-Provider.
  • Odin: Eine Orchestration API, die von Jenkins und Asgard, dem Netflix Deployment Tool, aufgerufen werden kann. Sie soll Entwicklern helfen bequemer zu deployen.
  • Recipes: Dabei handelt es sich um Blaupausen (blueprints), mit denen sich mehrere Netflix Komponenten zusammen einfacher ausrollen lassen.
  • Launcher: Soll per Knopfdruck die fertigen Blaupausen ausrollen.
  • Mehr Monkeys: Zu den weiteren Netflix Monkeys die noch in diesem Jahr folgen sollen, gehören der Conformity Monkey, der Latency Monkey und der Latency Howler Monkey. Der Conformity Monkey stellt sicher, dass alle relevanten Instanzen äquivalent aufgesetzt sind. Der Latency Monkey simuliert Latenzen und weitere Fehler. Der Latency Howler Monkey überwacht, ob ein Workload auf mögliche AWS Limitierungen trifft und meldet dies.

Der Chaos Gorilla, der wahllos den Absturz einer vollständigen AWS Availability Zone simuliert sowie der Chaos Kong, der eine ganze AWS Region simuliert abschießt, sollen ebenfalls bald folgen.

Kommentar

Zwar möchte Netflix seine "Monkeys" Cloud übergreifend anbieten, so dass z.B. auch OpenStack Nutzer darauf zurückgreifen können. Allerdings spielt Netflix mit der stetigen Veröffentlichung seiner HA-Testsuite Eucalyptus damit immer mehr in die Arme.

Eucalyptus Cloud ermöglicht den Aufbau einer Private Cloud auf Basis der grundlegenden Funktionen der Amazon Cloud Infrastruktur. Was Amazon bei sich z.B. als AWS Availiablty Zone bezeichnet, repräsentiert bei Eucalyptus ein "Cluster". Die Netflix Tools ermöglichen somit auch ähnliche HA-Funktionalität Prüfung in der Private/ Hybrid Cloud, wie Netflix sie selbst bereits in der Amazon Public Cloud nutzt. Darüber hinaus wird Eucalyptus die Netflix Tools mittelfristig ganz sicher in die eigene Cloud Lösung integrieren, um eine eigene HA-Prüfung im Portfolio zu haben.

Die Veröffentlichung der Netflix Tools unter der Open-Source Lizenz wird nicht zuletzt die Kooperation der Amazon Web Services und Eucalyptus weiter stärken, sondern Eucalyptus für Amazon als Übernahmeobjekt immer attraktiver machen.



Big Data in der Cloud: AWS Data Pipeline und Amazon Redshift

Amazon rüstet seine Cloud-Infrastruktur für Big Data mächtig auf. Mit der AWS Data Pipeline steht nun ein Dienst (zur Zeit in der Betaphase) zur Verfügung, mit sich Daten über verschiedene Systeme automatisch verschieben und verarbeiten lassen. Amazon Redshift stellt ein Datawarehouse in der Cloud dar, welches zehnmal schneller sein soll als bisher verfügbare Lösungen.

AWS Data Pipeline

Mit der AWS Data Pipeline sollen die stetig wachsenden Daten, welche auf verschiedenen Systemen und in unterschiedlichen Formaten vorhanden sind, einfacher zugänglich gemacht werden. Der Service lädt zum Beispiel Textdateien von Amazon EC2, verarbeitet sie und speichert diese in Amazon S3. Dreh und Angelpunkt ist dabei die AWS Management Console. Hier werden Pipelines definiert, die aus unterschiedlichen Quellen, Bedingungen, Zielen und Anweisungen bestehen. Über Zeitpläne wird festgelegt, wann welcher Job ausgeführt wird. Die AWS Data Pipeline legt fest, von welchem System welche Daten auf Basis von bestimmten Bedingungen geladen werden, unter welchen Bedingungen sie zu verarbeiten sind und wo diese am Ende gespeichert werden.

Die Verarbeitung der Daten kann entweder direkt in der Amazon Cloud auf EC2-Instanzen oder im eigenen Rechenzentrum durchgeführt werden. Dafür steht mit dem Task Runner ein Open-Source Tool bereit, dass mit der AWS Data Pipeline kommuniziert. Der Task Runner muss dafür auf den jeweiligen datenverarbeitenden Systemen gestartet sein.

Amazon Redshift

Amazons Cloud-Datawarehouse Amazon Redshift soll dabei helfen, große Datenmengen innerhalb kürzester Zeit zu analysieren. Darin lassen sich bis zu 1,6 Petabyte Daten speichern und per SQL abfragen. Zwar wird der Service, wie üblich, nach Verbrauch abgerechnet. Kunden, die allerdings einen Dreijahresvertrag unterschreiben und volle Last auf ihre virtuelle Infrastruktur bringen, zahlen ab 1.000 US-Dollar pro Terabyte pro Jahr. Amazon stellt dazu einen Vergleich mit Zahlen von IBM an. IBM berechnet für ein Datawarehouse zwischen 19.000 US-Dollar und 25.000 US-Dollar pro Terabyte pro Jahr,
Erste Beta-Tester von Amazon Redshift sind Netflix, JPL und Flipboard, deren Abfragen 10- bis 150-mal schneller waren als auf dem derzeit genutzten System.

Amazon Redshift kann als Single-Node-Cluster mit einem Server und maximal 2 TByte Speicherplatz oder als Multi-Node-Cluster, der aus mindestens zwei Compute-Nodes und einem Leader-Node besteht, genutzt werden. Der Leader-Node ist dabei für die Verwaltung der Verbindungen, das Parsen der Anfragen, das Erzeugen der Ausführungspläne und der Verwaltung der Anfragen auf den einzelnen Compute-Nodes zuständig. Die Berechnung findet auf den Compute-Nodes statt. Die Compute-Nodes stehen als hs1.xlarge mit 2 TByte Speicherkapazität und hs1.8xlarge mit 16 TByte Speicherkapazität zu Verfügung. Ein Cluster darf dabei maximal aus 32 hs1.xlarge und 100 hs1.8xlarge Compute-Nodes bestehen. Das ergibt eine maximale Speicherkapazität von 64 Terabyte beziehungsweise 1,6 Petabyte. Die Compute-Nodes sind über ein separates 10 Gigabit/s Backbone miteinander verbunden.

Kommentar

Amazon baut ungeachtet vom Mitbewerb sein Cloud Services Portfolio weiter aus. Dadurch kann man manchmal den Eindruck bekommen, dass alle anderen IaaS-Anbieter auf der Stelle treten - angesichts der Innovationskraft der Amazon Web Services. Ich kann es an dieser Stelle nur noch einmal betonen, Mehrwert-Services sind die Zukunft von Infrastructure-as-a-Service bzw. Wer als IaaS-Anbieter zu Amazon konkurrenzfähig sein will muss mehr als nur Infrastruktur im Portfolio haben.

Schauen wir uns die aktuellen Entwicklungen an, steigt der Bedarf an Lösungen für die Verarbeitung großer strukturierter und unstrukturierter Datenmengen stetig an. Barack Obamas Wahlkampf ist dafür nur ein Use Case, der zeigt, wie wichtig der Besitz qualitativ hochwertiger Informationen ist, um sich für die Zukunft Wettbewerbsvorteile zu verschaffen. Und auch wenn viele in den Amazon Web Services "nur" einen reinen Infrastructure-as-a-Services Anbieter sehen (ich tue das nicht), wird Amazon - mehr als jeder andere (IaaS)-Anbieter - im Kampf um Big Data Lösungen weit oben mitspielen - was letztendlich nicht nur an dem Wissen auf Grund des Betriebs von Amazon.com liegt.



Mehrwert-Services sind die Zukunft von Infrastructure-as-a-Service

Der Titel dieses Beitrags mag ein wenig irritieren. Schließlich handelt es sich bei Infrastructure-as-a-Service (IaaS) bereits um Services. Aber ich habe meinen Grund dafür. Von Beginn an bezeichnet Gartner die Amazon Web Services, in seinem Magic Quadrant, als den führenden Anbieter im IaaS Markt. Wen ich hier mittlerweile jedoch vermisse ist Windows Azure. Aber warum ist es gerade Amazon, die den Markt anführen und warum gehört Windows Azure meiner Meinung nach ebenfalls in denselben Quadranten wie Amazon.

Frühe Präsenz und ein ausgeprägtes Angebot zahlen sich aus

Ein Grund für Amazons Erfolg liegt unumstritten in der frühen Präsenz am Markt. Als erster IaaS Anbieter (2006) haben sie den Markt geprägt und dem Cloud Computing damit die Richtung vorgegeben, an der sich viele Anbieter orientieren. Microsoft folgte mit Windows Azure zwar relativ spät (2010), hat sein Portfolio aber schnell ausgebaut.

Ein weiterer aber viel prägnanter Grund sind die Services beider Anbieter. Wie bei den anderen IaaS Anbietern am Markt, stehen bei Amazon AWS und Microsoft Windows Azure nicht nur die reine Infrastruktur im Vordergrund, sondern viel mehr Lösungen drum herum. Das Angebot beider Anbieter ist im Vergleich zum restlichen Markt sehr ausgeprägt und bietet deutlich mehr als nur virtuelle Server und Speicherplatz. Und das ist der Knackpunkt.

Die Infrastruktur nutzbar machen

IaaS bedeutet im Kern das Angebot von Rechenleistung, Speicherplatz und Netzwerkkapazitäten als Service im Pay as you go Modell. Das beherzigen die meisten Cloud Anbieter am Markt. Nur nicht Amazon AWS und Windows Azure. Beide bieten viele Mehrwert-Services um ihre Infrastruktur herum an und machen diese damit nutzbar. Kunden sind damit in der Lage die "dumme" Infrastruktur direkt produktiv zu nutzen.

Egal welchen Anbieter man sich aus dem Public Cloud Bereich zur Brust nimmt, in der Regel besteht das Angebot aus Compute (Rechenleistung), Storage (Speicherplatz) und Database (Datenbanken). Der eine oder andere bietet zudem noch ein CDN (Content Delivery Network) und Tools für das Monitoring. Das war es dann aber auch schon. Hingegen zeigt ein Blick auf die Services von Amazon AWS und Windows Azure, wie umfangreich deren Portfolio mittlerweile ist.

Daher, Mehrwert-Services sind der Schlüssel und die Zukunft von Infrastructure-as-a-Service, mit denen sich die Infrastruktur gewinnbringender nutzen lässt.



Amazon kauft Eucalyptus Cloud – Es ist nur eine Frage der Zeit

In der Public Cloud sind die Amazon Web Services (AWS) derzeit die unangefochtene Nummer Eins. Bei Private bzw. Hybrid Cloud Lösungen sind Anbieter wie Microsoft oder HP allerdings besser aufgestellt. AWS selbst hat hier zur Zeit kein eigenes Angebot zu bieten. Stattdessen wurde im März 2012 eine exklusive Kooperation mit Eucalyptus Systems eingegangen, die ein Abbild der grundlegenden AWS Funktionen bieten. Diese strategische Entscheidung ist nachvollziehbar und wird Folgen für die Zukunft haben.

Die Kooperation zwischen AWS und Eucalyptus

Im März 2012 haben AWS und Eucalyptus Systems, Anbieter einer Private Cloud Infrastruktur-Software, mit der sich die grundlegenden Funktionen der Amazon Cloud auch im eigenen Rechenzentrum aufbauen lassen, sich zu einer engeren zusammenarbeiten entschlossen. Diese Kooperation ging verstärkt von Eucalyptus CEO Marten Mickos aus und hat den Hintergrund, die Migration von Daten zwischen der Amazon Cloud und Eucalyptus Private Clouds besser zu unterstützen.

Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst konzentrieren sich Entwickler aus beiden Unternehmen darauf, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Der Mitbewerb holt auf

Auch wenn es in der Public Cloud derzeit sehr rosig aussieht, die Zukunft liegt in der Hybrid Cloud. Hinzu kommt, dass viele Unternehmen eher mit einer eigenen Private Cloud liebäugeln, als in die Public Cloud zu wechseln. Das bedeutet, dass die Private bzw. die Hybrid zunehmend an Bedeutung gewinnen. Hier haben die Amazon Web Services, bis auf die Virtual Private Cloud, jedoch selbst nichts zu bieten. Microsoft und HP verfügen bereits über ein sehr ausgeglichenes Portfolio, das sowohl Lösungen und Angebote für die Public als auch für die Private Cloud bietet. Weiterhin verfügen beide über eine große Kundenbasis.

Außerdem ist ein weiterer Punkt klar. Wo sich Microsoft und HP auf Unternehmen konzentrieren, sind die Amazon Web Services derzeit noch verstärkt das Mekka für Startups. Der Erfolg spricht für sich. Dennoch, schaut man sich Amazons Bemühungen in den letzten Monaten an, ist die Zielrichtung klar. AWS muss und will in die Unternehmen. Das ist jedoch nur mit einer echten Private/ Hybrid Cloud Strategie möglich. Amazon wird daher irgendwann an einem Punkt ankommen, wo es aktiv darum geht, auch diese Märkte aggressiv zu erobern.

Amazon ist ein Serviceanbieter

Bisher hat AWS im Cloud-Umfeld keine Akquisitionen getätigt, da sie es einfach nicht mussten. Als Innovation-Leader setzen sie die Maßstäbe in der Public Cloud. In der Private/ Hybrid Cloud sieht es jedoch anders aus. Hier besteht, meiner Einschätzung nach, so gut wie keine Expertise. Auch wenn Amazon eigene Rechenzentren betreibt, ist der Betrieb einer quasi Standardlösung für Unternehmen anders. Hier haben Microsoft oder HP jahrelange Erfahrungen und somit einen klaren Vorteil. Die Amazon Web Services sind ein typischer Service-Anbieter. Das bedeutet, sie liefern ihre Services aus der Cloud aus, die einfach nur konsumiert werden sollen. Cloud-Software für den Massenmarkt wird nicht entwickelt. Für das Bereitstellen, Ausliefern, Warten und Ausrollen von Updates und neuer Versionen sowie die Kunden zu besänftigen fehlt die Erfahrung. Daher ist die Kooperation mit Eucalyptus der erste richtige Schritt gewesen. Was nicht zum Kerngeschäft gehört wird ausgelagert. So wie Amazon Cloud Computing vermarktet, scheinen sie es auch selbst zu leben.

Dennoch wird Amazon mehr Einfluss auf auf die Private und Hybrid Cloud nehmen und ebenfalls ein Stück von diesem Kuchen genießen wollen. Daher wird der nächste logische Schritt darin bestehen, Eucalyptus Systems zu kaufen. Zum Einen geht es um mehr Einfluss auf Eucalyptus. Denn auch auch wenn Marten Mickos die Kooperation mit AWS vorangetrieben hat, wird er sich nicht allem beugen, was Amazon verlangt. Auf der anderen Seite muss die Hybrid Cloud Integration gestärkt werden. Hinzu kommt, dass für die Private Cloud Beratung qualifiziertes Personal benötigt wird, das Eucalyptus inkl. seiner Partnerunternehmen ebenfalls mitbringt.

Es ist nur eine Frage der Zeit

Wann Eucalyptus Systems von Amazon übernommen wird ist eine Frage der Zeit. Vielleicht schon in 2013 oder doch erst in 2014/ 2015. Auf jedenfall wird es dazu kommen. Wie Eucalyptus dann integriert wird ist schwer zu sagen. Ich gehe davon aus, dass Eucalyptus zunächst eigenständig agieren wird und als "Ein Amazon Unternehmen" unter die Dachmarke von Amazon gesetzt wird. Ganz nach dem Motto, konzentriere dich auf dein Kerngeschäft, wird AWS sich weiterhin auf die Public Cloud konzentrieren und in Ruhe schauen, wie sich die Hybrid und Private Cloud, unter dem eigenen Einfluss, entwickeln wird. Auf jedenfall hätten sie mit Eucalyptus dann schon einmal die richtige Lösung für ihre Zwecke im eigenen Portfolio.



Amazon erweitert EC2 mit automatischem Failover und liefert detaillierte Rechnungen

Amazon hat einen seiner größten "Schwachpunkte" ausgebessert und kommt seinen Kunden damit weit entgegen. Es geht um die Ausfallsicherung einzelner EC2 Instanzen. Normalerweise muss sich ein Kunde selbst darum kümmern und dafür sorgen, dass eine neue EC2 Instanz hochfährt, wenn eine laufende ausfällt. Amazon hat nun seine Infrastruktur optimiert und führt das automatische Failover von EC2 Instanzen ein. Zudem gibt es nun detaillierte Informationen in den Rechnungen.

Automatischer Failover für Amazon EC2

Als Amazon Kunde hat man es nicht leicht, wenn man seine Infrastruktur in der AWS Cloud aufbauen will. Für die vom Public Cloud Computing versprochene Hochverfügbarkeit muss man als Kunde nämlich selbst sorgen, was viele Nutzer nicht umgesetzt haben.

Amazon kommt den Kunden nun ein Stück entgegen und erweitert seine Auto Scaling Funktion mit den Amazon EC2 Status Checks. Das bedeutet, wenn eine Instanz innerhalb einer Auto Scaling Gruppe nicht mehr verfügbar ist und den status check nicht besteht, wird diese Instanz automatisch durch eine neue Instanz ersetzt.

Wie Amazon schreibt, ist es nicht notwendig dafür selbst aktiv zu werden, da die EC2 Status Checks automatisch in die Auto Scaling Gruppen integriert wurden.

Mehr Details innerhalb der Rechnungen

Darüber hinaus geben neue Abrechnungen nun mehr Informationen über die stündliche Nutzung der Amazon Infrastruktur.



Cloud Computing: Offen oder Geschlossen? Vendor Lock-in ist kein Argument!

Cloud Computing spaltet sich derzeit in zwei Lager. Die Liebhaber eines geschlossenen, proprietären Systems und die Befürworter einer offenen (Open-Source) Cloud. Interessanterweise stellen verstärkt die Open-Source Jünger, allen voran das OpenStack Projekt die größten Lautsprecher dar (Rackspace: Linux der Cloud). Sei es auch nur, um mehr Aufmerksamkeit von den derzeit erfolgreichen geschlossenen Systemen (Amazon Web Services (AWS), Microsoft Windows Azure) auf sich zu lenken. Eines vorweg, pauschal lässt sich nicht sagen, welcher Ansatz der "Bessere" ist. Es hängt immer von den eigenen Anforderungen und Möglichkeiten ab. Zudem sollte man schauen, wie geschlossen die proprietären Systeme wirklich sind. Man wird zum einen merken, dass viel mehr religiöse Ansichten dahinter stecken als man denkt und das die Argumentation Vendor Lock-in bei Open-Source Clouds nicht zwangsläufig zutrifft. Denn einen Vendor Lock-in hat man immer.

Geschlossene Cloud gleich Lock-in?

Hauptargumentation aus dem Open-Source Lager gegen proprietare Cloud Angebote ist das Risiko eines Lock-in. Um diesen zu umgehen, solle man stattdessen auf Angebote setzen, die auf Open-Source basieren, um sich über eine eigene Private Cloud die Freiheit zu verschaffen, also die Infrastruktur und Daten dann ggf. in die eigene Cloud zu transferieren.

Eines sollte man jedoch nicht vergessen, ohne Open-Source funktioniert derzeit so gut wie kein Cloud Angebot. So besteht die AWS Cloud aus wahrscheinlich der größten XEN (Hypervisor) Installation weltweit. Zudem wird argumentiert, dass mann sich bei AWS in einen Lock-in begibt. Bei der DynamoDB mag dies richtig sein. Aber für alle anderen Services gibt es Lösungen wie Eucalyptus, openQRM oder sogar OpenStack selbst, die entsprechende Schnittstellen bereitstellen. Und auch Microsoft ermöglicht es, zwischen Windows Azure und einer auf Microsoft basierenden Private Cloud mit dem Microsoft Server 2012 und dem System Center 2012 Daten usw. hin und her zu schieben. Man ist hier also auch nicht zwangsläufig auf die Public Cloud angewiesen.

Wo versteckt sich der Lock-in?

Ein Vendor Lockin besteht dann, wenn ein System, Angebot oder Lösung sehr stark abhängig macht.

Ein analoges Beispiel dafür ist Ikea. Das Design der Möbel ist so markant, dass es für einen Innenarchitekten Laien (wie mich) schwierig ist, es mit einem anderen Design zu kombinieren. Also geht man dazu über, weitere Möbel bei Ikea zukaufen. Zudem verfügt Ikea über eigene Maße und proprietäre Techniken z.B. bei den Waschbecken oder auch bei den Küchen, Schrauben und sonstigen Verbindungen.

Das Risiko des Lock-ins in der Cloud befindet sich hauptsächlich bei den Daten und Prozessen, wenn diese dort ebenfalls abgebildet werden. Denn in beiden Fällen befinden sich hier die geschäftskritischen Bereiche, die so beweglich wie möglich in der Cloud liegen sollten.

Die Ressourcen wie virtuelle Maschinen sind nicht, wie möglicherweise vermutet, von dem Lock-in betroffen. Hierzu existieren bereits diverse Import/ Export Tools z.B. von VMware für AWS oder speziell V2V (Virtual to Virtual) oder V2P (Virtual to Physical) Mechanismen von openQRM. Das bedeutet, das sich virtuelle Maschinen und deren Inhalte bequem hin und her schieben lassen.

Die Daten selbst sind in der Cloud in der Regel ebenfalls nicht von einem Lock-in betroffen. Die meisten Anbieter verfügen über entsprechende Schnittstellen, über die sich die Daten bewegen und transferieren lassen. Bei den Prozessen wird es schon schwieriger. Aber, wie viele Unternehmen haben in der Vergangenheit ihre Prozesse in die Hände von SAP Systemen gelegt und damit einen Lock-in verursacht?

Ein Lock-in ist nichts Schlechtes

Ein Lock-in, wenn er denn vorliegt, muss nicht immer etwas Schlechtes sein. Im Gegenteil, er führt zu Innovationen und verringert die Komplexität. Der Anbieter nimmt einem beim Design und der Auswahl Stückweit die Entscheidung ab und sorgt für eine stetige Weiterentwicklung und Verbesserung des Systems.

Zudem sollte man schauen, wer sich einen Lock-in nicht leisten kann. Kleine und mittelständische unternehmen, die ggf. über eine kleine oder keine IT-Abteilung verfügen, nehmen das gerne in Kauf, da sie sich die Implementation einer komplexen Umgebung nicht leisten können bzw. nicht über die Expertise verfügen. Analoges Beispiel, Ikea: Man bekommt relativ günstig gute Möbel und kann alles miteinander gut kombinieren.

Außerdem, schaut man sich Open-Source Projekte wie OpenStack an, wird deutlich, dass es nicht immer einfach ist, alle Interessen unter einen Hut zu bekommen. Open-Source mag zwar offen sein. Auf Grund der vielen beteiligten Unternehmen können so manche Konflikte den Innovationsgrad jedoch verringern. Aus diesem Grund kann ein Vorteil darin bestehen, wenn nur ein Unternehmen an der Spitze des Projekts/ Angebots steht und die Koordination übernimmt. Auch wenn mehrere Teilnehmer mehr Input und Expertise liefern. Hier haben auch geschlossene Anbieter einen Vorteil, da sie alleine verantwortlich sind, und damit schneller handeln. Das kann im Umkehrschluss bedeuten, dass der Lock-in von OpenStack in den potentiellen Konflikten und dem daraus folgenden langsamen Innovationsgrad besteht.

APIs sind entscheidend

Wichtig für jedes Cloud Computing Angebot sind die APIs. Auf diese muss sowohl von Innen als auch von Außen zugegriffen werden können, um auf dieser Basis die Daten in aus der Cloud zu transferieren.

Vorteile vs. Nachteile von Open-Source

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den "richtigen" Weg zu entscheiden.

Fazit

Verantwortliche die sich für eine Cloud Infrastruktur entscheiden, wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über eine Open-Source oder proprietären Cloud Infrastruktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine Open-Source Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und eine proprietäre Cloud besser für den eigenen Innovationsgrad ist oder auch andere Möglichkeiten evaluiert werden müssen.



Wer als IaaS-Anbieter zu Amazon konkurrenzfähig sein will muss mehr als nur Infrastruktur im Portfolio haben

Immer mehr Anbieter versuchen ihr Glück im Bereich Infrastructure-as-a-Service (IaaS) und wollen dem Platzhirsch Amazon Web Services (AWS) ein Stück vom Kuchen abnehmen. GigaOm hat bereits die Frage gestellt, ob es eine AWS Kopie aus Europa geben wird, die ähnlich wie Amazon in den USA den europäischen Markt dominieren wird. Sie kamen zu einem klaren Nein. Ich bin ebenfalls der Meinung, dass es in naher Zukunft keine nennenswerte Konkurrenz aus Europa geben wird. Ich gehe sogar einen Schritt weiter und gehe davon aus, dass es weltweit derzeit keinen Anbieter gibt und erst einmal geben wird, der - Stand heute - Amazon das Wasser reichen kann. Denn anders als es GigaOm macht, muss man den Cloud Markt global betrachten. Es gibt auf Grund der Strukturen grundsätzlich keine regional begrenzte Cloud. Jeder Nutzer kann sich weltweit bedienen. Es sei denn ein Anbieter entscheidet sich strikt dagegen. Das gibt es sogar - in Deutschland. Ich möchte Amazon an dieser Stelle keinen Freifahrtsschein ausstellen, aber für den Mitbewerb wird es sehr schwierig im IaaS Bereich diesen Marktanteil zu erreichen.

Der Markt ist groß genug aber...

Der IaaS Markt ist groß genug und bietet genug Platz für mehrere Infrastruktur-Anbieter. Jedoch sollte man sich vor Augen halten, wer sich derzeit für die Public Cloud und wer für die Private Cloud entscheidet. Danach lohnt sich ein Blick auf die Angebote der jeweiligen IaaS Anbieter, um die Spreu vom Weizen zu trennen. Dann wird auch klar, warum Amazon die Nase vorn hat und es für Neulinge schwer werden wird, wenn sie sich einfach nur auf reine Infrastruktur konzentrieren. So mancher Anbieter versucht gegen Amazon zum Beispiel mit einer höheren (Netzwerk)-Performance anzutreten. Das ist sicherlich ein netter Versuch, aber kein ausschlaggebendes Argument.

Public Cloud: Entwickler & Startups

Die Public Cloud wird bevorzugt von Entwicklern und Startups genutzt, die auf Basis des unkomplizierten Ressourcenbezugs und dem pay per use Modell ihre Geschäftsmodelle aufbauen. Mein Lieblingsbeispiel ist Pinterest, die nach eigener Aussage ohne Cloud Computing nicht so erfolgreich sein könnten. Das lag zum einem an der Möglichkeit stetig zu wachsen und die Ressourcen den Bedürfnissen nach zu erweitern ohne das Kapital für eine eigene riesige Serverfarm zu besitzen. Auf der anderen Seite hat die Cloud es Pinterest ermöglicht, effizient zu arbeiten und kostengünstig zu experimentieren. Zudem konnte die Webseite sehr schnell wachsen, während sich nur ein sehr kleines Team um die Wartung kümmern musste. Im Dezember beschäftigte Pinterest insgesamt nur 12 Mitarbeiter.

Private Cloud: Unternehmen

Viele etablierte Unternehmen stellen das Thema Datenschutz respektive Sicherheit über die hohen Investitionskosten und Wartungskosten einer Private Cloud. Hinzu kommt, dass ich in Gesprächen immer wieder höre, dass "eh bereits Investitionen in Hard-/ Software getätigt wurden" und das nun noch ausgenutzt werden muss. Laut einer Gartner Umfrage planen 75% der Befragten bis 2014 eine Strategie in diesem Bereich. Bereits viele unterschiedliche Unternehmen haben Private Cloud Lösungen in Pilot-Projekten und im produktiven Betrieb im Einsatz. Dabei ist das Hauptziel, für sich den größten Nutzen aus der Virtualisierung zu ziehen.

Infrastruktur bedeutet mehr als nur Infrastruktur

Den Fehler den - vor allem - neue IaaS Anbieter machen ist, sich nur auf reine Infrastruktur zu konzentrieren. Das bedeutet, sie bieten nur die typischen Ressourcen wie Rechenleistung, Speicherplatz, Betriebssystem-Images, weitere Software und Lösungen wie Datenbanken an. Das mag vom IaaS Grundgedanken her auch alles richtig sein, reicht aber mittlerweile nicht mehr aus, um gegen Amazon zu bestehen.

Services, Services, Services

Schaut man sich das Angebot der Amazon Web Services genauer an, besteht es mittlerweile aus viel mehr als nur virtuellen Ressourcen, Rechenleistung und Speicherplatz. Es handelt sich dabei um ein umfangreiches Service-Portfolio, welches stetig und mit einem riesen Tempo ausgebaut wird. Alle Services sind ineinander vollständig integriert und bilden ein eigenes Ökosystem, mit dem ein eigenes Rechenzentrum aufgebaut und komplexe Anwendungen entwickelt und gehostet werden können.

Entwickler sind Amazons Jünger

Auf Grund dieses in sich stimmigen Angebots ist Amazon eine beliebte Anlaufstelle für Entwickler und Startups, die hier viele Möglichkeiten finden, ihre eigenen Ideen umzusetzen. Ich habe über diese Situation schon kritisch geschrieben und bleibe dabei, dass Amazon sich ebenfalls verstärkt auf die Bedürfnisse von Unternehmen konzentrierten sollte. Dennoch sind Entwickler derzeit Amazons Trumpf, welche den Cloud Anbieter zum führenden IaaS weltweit machen.

Komfort

Was AWS derzeit fehlt ist der Komfort. Hier setzen neue Anbieter an und bündeln mit "Infrastructure-as-a-Platform" Lösungen verschiedene IaaS Ressourcen wie Rechenleistung, Speicherplatz, Netzwerkkomponenten usw. und ermöglichen Unternehmen damit den Aufbau eines eigenen Rechenzentrum on-Demand, also ein “Data-Centre-as-a-Service” (DCaaS). In diesem Bereich muss Amazon damit beginnen aufzuholen und ihren bestehenden und neuen Kunden mehr Convenience bieten, mit der diese die Infrastrukturen bequemer nutzen können und während der Konfiguration zudem weniger Zeit und Expertenwissen benötigen. Denn insbesondere IT-Abteilungen von kleinen- und mittelständischen Unternehmen werden in Zukunft auf diesen Komfort achten.

Schwer aber nicht unmöglich

Amazon gehört zu den Cloud Anbietern der ersten Generation und es gibt Bereiche in denen sie aufholen müssen. Aber das Konzept ist sehr ausgefeilt. Unter der Haube sind sie möglicherweise technologisch nicht mehr auf dem neuesten Stand. Aber die Frage ist, wie sehr es einen Kunden interessiert, ob nun Technologie A oder Technologie B in der "Blackbox" eingesetzt wird, solange die Services zur Verfügung stehen, mit denen das verfolgte Ziel realisiert werden kann. Zudem lassen sich bestimmte Technologien auf Grund der losen Kopplung der Infrastruktur und der Services (Building Blocks) austauschen.

Wie ich oben geschrieben habe, ist der Markt groß genug und nicht alle Unternehmen werden zu Amazon gehen. Ich möchte nur darauf aufmerksam machen, dass es mittlerweile nicht mehr reicht, sich nur auf die grundlegenden IaaS-Eigenschaften zu konzentrieren, wenn man ein IaaS-Angebot gegen Amazon in den Ring schickt. Ich hatte vor längerer Zeit die Amazon Web Services der Google Cloud Platform (AWS vs. Google Cloud) bzw. Microsoft Windows Azure (AWS vs. Azure) gegenübergestellt. Beide sind für mich diejenigen Public IaaS Anbieter, die derzeit in der Lage sind, aufzuholen. Allerdings sieht man besonders an Googles Tabelle, dass an einigen Stellen noch so manche Service-Lücken bestehen.


Bildquelle: ©Stephanie Hofschlaeger / PIXELIO



Amazon baut Marktplatz für seine EC2 Reserved Instances

Amazon hat vorgestern seinen Reserved Instance Marketplace vorgestellt. Dabei handelt es sich um einen Marktplatz, auf dem AWS Kunden ihre EC2 Reserved Instances an andere Unternehmen verkaufen oder Instances anderer Kunden kaufen können.

Amazon baut Marktplatz für seine EC2 Reserved Instances

Flexibilisierung von Reserved Instances

Reserved Instances erlauben es AWS Kunden, sich für einen geringen einmaligen Betrag reservierte Rechenleistungen zu kaufen, die ihnen garantiert zur Verfügung stehen, wenn sie diese benötigen.

Mit dem Reserved Instances Marketplace ermöglicht es AWS seinen Kunden nun diese reservierten Instanzen wieder zu verkaufen, wenn z.B. die AWS Region gewechselt werden soll, sich der Instanztyp ändern muss oder Kapazitäten verkauft werden sollen bei denen noch Laufzeit besteht.

Darüber hinaus lassen sich über den Marktplatz nun auch Reserved Instances einkaufen, die nicht an die bekannten Laufzeiten von einem oder gar drei Jahren gebunden sind. Damit lassen sich auch Projekte mit einer garantierten Rechenleistung von bspw. sechs Monaten absichern.

Der Marktplatz und weitere Informationen befinden sich unter http://aws.amazon.com/de/ec2/reserved-instances/marketplace



FastGlacier: Der erste Windows Client für Amazon Glacier

Es ist nicht einmal eine Woche her, dass die Amazon Web Services ihren Tape-Library Killer bzw. Service für das Langzeit-Backup Amazon Glacier präsentiert haben. Nun steht der erste Windows Client - FastGlacier - von NetSDK Software zum Download bereit. Da Amazon sich i.d.R. nicht um eigene GUI Clients für seine Services kümmert, zeigt dies, dass das Ökosystem um die Amazon Web Services herum gut funktioniert.

FastGlacier: Der erste Windows Client für Amazon Glacier

FastGlacier - Windows Client für Amazon Glacier

FastGlacier ist ein kostenloser Windows Client für Amazon Glacier, mit dem Daten von einem Windows basierten System auf den Speicher von Amazon Glacier hoch- und heruntergeladen sowie verwaltet werden können. Die Software unterstützt das parallele Hochladen von Dateien inkl. Pause und Resume Funktion. Darüber hinaus können mehrere Amazon Glacier Accounts genutzt werden. Mit FastGlacier lassen sich Dateien mit einer Größe von bis zu 40TB verwalten, die ebenfalls via Drag and Drop mit dem Windows Explorer hin- und hergeschoben werden können.

Für die private Nutzung ist FastGlacier kostenlos. Wer die Software im Unternehmen, Regierungsbereich oder anderweitig kommerziell einsetzen möchte, zahlt pro Lizenz 29,95 US-Dollar. Wobei es bereits ab der zweiten Lizenz Ermäßigungen gibt.

Amazon Glacier

AWS beschreibt Amazon Glacier als einen kostengünstigen Storage Service, der dafür entwickelt wurde, um Daten dauerhaft zu speichern. Zum Beispiel für die Datenarchivierung bzw, die Datensicherung. Der Speicher ist, entsprechend der aktuellen Marktsituation, sehr günstig. Kleine Datenmengen können ab 0,01 US-Dollar pro GB pro Monat gesichert werden. Um den Speicher so kostengünstig anzubieten, ist der Service, im Vergleich zu Amazon S3, für solche Daten gedacht, auf die selten zugegriffen wird und deren Zugriffszeit mehrere Stunden betragen darf. Dateien, die per Glacier gesichert werden, sollen laut Amazon eine Langlebigkeit von 99,999999999 Prozent aufweisen. Bei einer Speichermenge von 100 Milliarden Objekten entspricht das den Verlust von einem Objekt pro Jahr.

Weitere Lösungen von NetSDK Software

Neben FastGlacier bietet NetSDK Software mit TntDrive bereits eine Lösung für das Mapping von Amazon S3 Buckets als Windows Laufwerk und mit dem S3 Browser einen kostenlosen Windows Client (Browser) für Amazon S3.



Die Amazon Web Services erweitern Amazon RDS um weitere Funktionen für Oracle Datenbanken

Die Amazon Web Services haben vier neue Funktionen für Amazon RDS for Oracle präsentiert. Darunter die Möglichkeit, die Datenbank in einer Private Cloud zu betreiben. Dazu können Unternehmen nun RDS (Relational Database Service) Instanzen mit einer Oracle Datenbank innerhalb einer VPC (Virtual Private Cloud) nutzen. Administratoren erhalten, im Vergleich zu einer Standard Instanz oder einer virtuellen Maschine, damit mehr Kontrolle.

Die Amazon Web Services erweiterten Amazon RDS um weitere Funktionen für Oracle Datenbanken

Erweiterter Oracle Support

Weitere neue Funktionen sind die Unterstüzung für Oracle APEX (Application Express), XML DB und Time Zone. Mit Time Zone können Administratoren Informationen zu Timestamps persistent speichern, wenn Benutzer die Amazon Web Services über mehrere Zeitzonen hinweg verteilt einsetzen.

Bei APEX handelt es sich um eine freies Web-basiertes Entwicklungstool für Oracle Datenbanken. Mit dem Tool sollen ebenfalls Entwickler mit geringen Programmierkenntnissen Anwendungen entwickeln und ausrollen können. Das Entwicklungs-Framework für APEX bietet Wizards und Eigenschaftsfenster für die jeweiligen Objekte, mit denen Anwendungen geschrieben und gewartet werden sollen. Amazon RDS unterstützt die APEX Version 4.1.1.

XML DB ist eine Funktion von Oracle Datenbanken und bietet native XML Speicher- und Abfrage-Möglichkeiten.

Amazon RDS for Oracle

Mit Amazon RDS lassen sich Oracle Database 11g auf der Amazon Cloud bereitstellen. Der Service bietet Datenbank-Administrationsaufgaben wie das Provisioning, Backups, Software-Patches, Monitoring und Hardware-Skalierung.

Unternehmen können entweder ihre eigenen Datenbanken-Lizenzen nutzen oder lassen Amazon sich um die Lizenzierung kümmern. Die Preise betragen dann 0,11 Dollar pro Stunde bzw. 0,16 Dollar pro Stunde.

Erst kürzlich hatte Amazon eine Reihe von Verbesserungen für seinen Cloud-basierten Datenbank-Service Dynamo vorgestellt. Darunter die Aktualisierung der DynamoDB Management-Konsole.



Amazon Web Services (AWS) präsentieren neuen EC2 High I/O Instanz-Typ mit 2 TB SSD Speicher. Netflix mit erstem Benchmark.

Immer mehr moderne Web- und mobile Applikationen sind von einem hohen I/O Durchsatz abhängig. Für das Darstellen umfangreicher Informationen und Graphiken sowie der Reaktion auf Interaktionen in Echtzeit, sind die Anwendungen darauf angewiesen eine Menge an Daten zu speichern und auf diese zuzugreifen. Die Amazon Web Services (AWS) haben nun darauf reagiert und gestern einen neuen EC2 Instanz-Typ für Anwendungen mit einem hohen I/O Durchsatz und einer geringen Latenz präsentiert. Nach Angaben von Amazon ist die Instanz ideal für den Einsatz von NoSQL Datenbanken wie Cassandra und MongoDB.

Amazon Web Services (AWS) präsentieren neuen EC2 High-Performance Instanz-Typ mit 2 TB SSD Speicher. Netflix mit erstem Benchmark.

Eigenschaften der High I/O EC2 Instanz

Die erste Instanz aus der neuen High I/O Reihe nennt sich High I/O Quadruple Extra Large (hi1.4xlarge) und verfügt über die folgende Spezifikation:

  • 8 virtuelle Kerne, insgesamt 35 ECU (EC2 Compute Units)
  • HVM und PV Virtualisierung
  • 60,5 GB RAM
  • 10 Gigabit Ethernet
  • 2TB lokaler SSD Speicher, ein Paar von jeweils 1TB

Die High I/O Quadruple Extra Large Instanzen stehen aktuell in den Regionen US East (Northern Virginia) und EU West (Ireland) bereit. Die Kosten betragen 3,10 Dollar bzw. 3,41 Dollar pro Stunde.

Netflix präsentiert ersten Benchmark

Netflix Cloud Architekt Adrian Cockcroft hatte bereits im März 2012 während eines Interviews darüber philosophiert, dass es in Zukunft schnellere I/O Mechanismen in der Cloud geben muss und hatte sich den Einsatz von SSDs (Solid-State-Drives) als Speichertechnologie für die Amazon Cloud gewünscht.

Nach Ankündigung der neuen Technologie, lies es sich Cockcroft natürlich nicht nehmen, eigene Test durchzuführen und hat dazu einen umfangreichen Benchmark veröffentlicht, der hier zu finden ist.

Neue EC2 Instance Status Metriken

Neben dem neuen High I/O Instanz-Typ hat AWS ebenfalls weitere Status Metriken für EC2 eingeführt. Es existieren zwei unterschiedliche Tests, die System Status Checks und Instanz Status Checks. Die Ergebnisse der Tests werden auf der AWS Management Console veröffentlicht und können ebenfalls über die Kommandozeile und den EC2 APIs abgerufen werden.

Zudem können die Metriken nun auch über Amazon CloudWatch abgefragt werden. Zu jeder Instanz gehören drei Metriken, die alle 5 Minuten aktualisiert werden:

  • StatusCheckFailed_Instance = "0" wenn der Instanz-Check positiv ist, ansonsten "1".
  • StatusCheckFailed_System = "0" wenn der System-Check positiv ist, ansonsten "1".
  • StatusCheckFailed = "0" wenn keiner der beiden oben genannten Wert "0" ist, sonst "1".


Microsoft attackiert die Amazon Web Services über die Private Cloud

Microsoft portiert seine Cloud Lösungen Windows Azure Web Sites, Virtual Machines und das Service Management Portal auf den Windows Server und ermöglicht es damit Hosting Anbieter ihren Kunden hochverfügbare Webseiten und Infrastructure-as-a-Service Lösungen auf Basis von Microsoft Cloud Technologien anzubieten. Anders als die Google Compute Engine, lassen sich die neuen Microsoft Cloud Lösungen prinzipiell auch in einer Private Cloud aufbauen. Die Cloud Implementierung, die sich bei etablierten Unternehmen tendenziell als die Bevorzugte herausstellt.

Microsoft Hosting Services

Die Microsoft Hosting Services setzten sich im Kern aus der "Windows Server Hosting Platform", "Infrastructure-as-a-Service", "Windows Azure" und den "Business Productivity Hosting Solutions" zusammen. Dabei bietet die Hosting Plattform ein Framework, Web Server, Datenbanken und weitere Tools, mit denen Web Seiten auf Windows gehostet werden können. Mit dem "Dynamic Data Center Toolkit" können Web-Hoster on-Demand virtuelle Server, Cluster, Netzwerkinfrastrukturen und Speicherplatz bereitstellen. Über Windows Azure stehen Möglichkeiten zur Verfügung, neue Anwendungen auszurollen sowie neue Cloud Services zu erstellen. Die "Business Productivity Hosting Solutions" ermöglichen das Anbieten von Business Anwendungen auf Basis von Microsoft Exchange 2010 und SharePoint 2010.

Granularer wird zwischen "Web Sites", "Virtual Machines", dem "Service Management Portal" und einer "API" unterschieden.

Web Sites

Mit "Web Sites" können hochverfügbare und skalierbare Webseiten-Infrastrukturen aufgebaut werden, mit denen man über 10.000 Seiten in einer einzigen Web Farm verwalten kann. Zudem werden unterschiedliche Frameworks und Sprachen wie ASP.NET, ASP, PHP und Node.js mit einer vollständigen Git Integration unterstützt.

Virtual Machines

Zusammen mit bekannten Microsoft Technologien wie System Center und Windows Server lassen sich Infrastructure-as-a-Service Angebote aufbauen, mit denen virtuelle Machinen mit Windows Server und Linux bereitgestellt werden.

Service Management Portal und API

Anhand einer Metro-basierten Oberfläche und einem Self-Service Portal lassen sich "Web Sites" und "Virtual Machines" verwalten. Mit einer REST-basierten API lässt sich das Portal anpassen und erweitern, um damit bspw. andere Portal anzubinden.

Amazon ist ein reiner Service Anbieter

Auch wenn sich das neue Microsoft Angebot in erster Linie an Hosting-Anbieter richtet, sollte man nicht vergessen, wie einfach es ist, die Lösungen für die Private Cloud verfügbar zu machen.

Die Amazon Web Services verstehen es zwar hochwertige Public Cloud IaaS auszuliefern. Wenn es um die on-Premise Anforderungen von Unternehmen geht, hat Microsoft hier allerdings die Nase vorn. Wo AWS in der Cloud geboren ist und langsam damit anfangen muss, etablierte Kunden von der Basis abzuholen, um das große Geschäft zu machen, kommt Microsoft aus dem on-Premise Bereich und ist hier mit Abstand Marktführer.

Zudem weiß Microsoft, was es bedeutet, Software anzubieten, diese zu warten, Updates auszuliefern usw. Amazon ist ein reiner Service Anbieter und ist in kurzer Zeit nicht in der Lage diese Expertise und vor allem die notwendigen Vertriebskanäle aufzubauen.

Private Cloud wird bevorzugt

Und genau darin besteht auch Microsofts großer Vorteil. Das Unternehmen befindet sich bereits dort, wo die meisten Unternehmen gerne bleiben möchte, in den eigenen vier Wänden ihres Rechenzentrums, in der Private Cloud. Laut einer KPMG-Studie haben fast 60% (400 Befragte) der IT-Entscheider gute Erfahrung mit Private Cloud Lösungen gemacht. 21% wollen in Zukunft hier gezielter investieren. Dabei fließen bereits 19% des IT-Budgets in die Private Cloud, bevorzugt in Infrastructure-as-a-Services.

Für das Jahr 2013 wollen ein Drittel der befragten Unternehmen 26% - 50% ihres IT-Budget in die Private Cloud stecken. Darüber hinaus interessieren sich ca. 90% der Unternehmen nicht(!) für die Public Cloud, wobei 6% diese nutzen und 7% darüber nachdenken.

Amazons einziger Private Cloud Anker heißt Eucalyptus

Man kann sich nun die Frage stellen, ob AWS überhaupt daran interessiert ist, mit Microsoft in der Private Cloud in den Wettbewerb zu ziehen. Egal wird es ihnen allerdings nicht sein, das haben Maßnahmen zu Beginn des Jahres gezeigt.

Genauer geht es um den Deal der Amazon Web Services mit Eucalyptus Inc., die einen Fork der Amazon Web Services für die Private Cloud anbieten. Die Kooperation ist so aufgebaut, das Entwickler aus beiden Unternehmen Lösungen schaffen werden, um Private Cloud Lösungen auf Basis von Eucalyptus mit der Amazon Infrastruktur nahtlos zu verbinden. Zudem sollen die Kunden für die Nutzung von AWS als auch Eucalyptus dieselben Management Tools verwenden können. Darüber hinaus soll die Kompatibilität beider APIs verbessert werden.

Eucalyptus ist derzeit also der einzige Weg für die Amazon Web Services in die Rechenzentren der Unternehmen, wo Microsoft bereits wartet.



Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur

Die letzten Ausfälle bei den Amazon Web Services (AWS) hier und hier haben gezeigt, dass bei manchen Kunden wie bspw. Instagram, die Systemarchitektur nicht auf das Cloud Computing ausgelegt ist. Und auch wenn AWS so etwas nicht (mehr) passieren darf, sollte man selbst darauf achtgeben, präventiv auf den möglichen Ernstfall vorbereitet zu sein. Eine Möglichkeit ist der von Netflix entwickelte Chaos Monkey und weitere Tools, die ich in diesem Artikel vorstellen möchte.

Üben, Lernen, Testen

Bevor sich Netflix für den Einsatz seines Systems auf den Amazon Web Services entschieden hat (Migration von einer eigenen Infrastruktur), verbrachte das Unternehmen viel Zeit damit, um die AWS Plattform zu verstehen und ein Test-System innerhalb der Infrastruktur aufzubauen. Dabei wurde insbesondere darauf geachtet, soviel realistischen Traffic bzw. Traffic Szenarien wie möglich zu erzeugen, um damit das Test-System auf seine Stabilität hin zu prüfen.

Anfangs entwickelte Netflix dazu einen einfachen Repeater, der die echten und vollständigen Kundenanfragen auf das System innerhalb der AWS Infrastruktur kopierte. Damit identifizierte Netflix die möglichen Engpässe seiner Systemarchitektur und optimierte im Zuge dessen die Skalierbarkeit.

Netflix Rambo Architektur

Netflix selbst bezeichnet seine Software Architektur gerne auch als Rambo Architektur. Das hat den Hintergrund, dass jedes System unabhängig von den anderen Systemen einwandfrei funktionieren muss. Dazu wurde jedes System innerhalb der verteilten Architektur so entwickelt, dass es darauf vorbereitet ist, dass andere Systeme zu denen eine Abhängigkeit besteht, ausfallen können und das dieses toleriert wird.

Sollte das Bewertungssystem ausfallen, verschlechtert sich zwar die Qualität der Antworten, aber es wird dennoch eine Antwort geben. Statt personalisierten Angeboten werden dann nur bekannte Titel angezeigt. Sollte das System, dass für die Suchfunktion zuständig ist, unerträglich langsam sein, muss das Streaming der Filme trotzdem einwandfrei funktionieren.

Der Chaos Monkey

Eines der ersten Systeme die Netflix auf bzw. für AWS entwickelt hat, nennt sich Chaos Monkey. Sein Job ist es zufällig Instanzen und Services innerhalb der Architektur zu zerstören. Damit stellt Netflix sicher, dass alle Komponenten unabhängig voneinander funktionieren, selbst dann wenn Teil-Komponenten ein Problem haben.

Neben dem Chaos Monkey hat Netflix viele weitere Monitoring und Test-Tools für den Betrieb seines Systems auf den Amazon Web Services entwickelt, die das Unternehmen als The Netflix Simian Army bezeichnet.

Latency Monkey

Der Latency Monkey induziert künstliche Verzögerungen im Netflix eigenem REST-Client-Server Communication-Layer, um einen Leistungsabfall zu simulieren und rechtzeitig Maßnahmen zu ergreifen bzw. im Vorwege angemessen zu reagieren. Indem sehr große Verzögerungen erzeugt werden, kann damit zudem der Ausfall eines Nodes oder eines vollständigen Service simuliert werden, ohne diese Instanzen tatsächlich zu zerstören. Damit wird die Fehlertoleranz eines neuen Service überprüft, indem der Ausfall seiner Abhängigkeiten simuliert wird. Der Ausfall dieser Abhängigkeiten wirkt sich dabei jedoch nicht auf den Rest des Systems aus.

Conformity Monkey

Der Conformity Monkey findet Instanzen, die nicht den Best-Practices Anforderungen entsprechen und fährt diese herunter. Wenn z.B. Instanzen gefunden werden, die nicht zu einer Auto-Scaling Group gehören, weiß der Conformity Monkey, dass dieses zu Problemen führen wird. Diese werden also heruntergefahren, um dem Service-Owner die Gelegenheit zu geben, neue Instanzen mit den erwarteten Eigenschaften hochzufahren.

Doctor Monkey

Der Doctor Monkey überprüft die Health Checks, die sich auf jeder Instanz befinden und überwacht zudem weitere Eigenschaften, wie bspw. die CPU-Auslastung, um mögliche Fehlerquellen innerhalb der Instanzen selbst zu erkennen. Werden fehlerbehaftete Instanzen entdeckt, werden diese zunächst automatisch vom Service entfernt. Anschließend erhält der Service-Owner die Gelegenheit die Ursache für den Fehler zu finden und beendet diese Möglicherweise um stattdessen neue Instanzen zu starten.

Janitor Monkey

Der Janitor Monkey sorgt dafür, dass die Netflix Cloud Umgebung effizient betrieben wird und sich kein Müll oder überschüssige Instanzen anhäufen. Dazu sucht er nach ungenutzten Ressourcen und sorgt dafür, dass diese verschwinden.

Security Monkey

Der Security Monkey ist eine Erweiterung des Conformity Monkey. Er findet Sicherheitslücken oder Schwachstellen wie falsch konfigurierte AWS Security Groups und beendet die beanstandeten Instanzen. Er stellt zudem sicher, dass alle SSL-und DRM-Zertifikate gültig sind.

10-18 Monkey

Der 10-18 Monkey (steht auch für Lokalisierung-Internationalisierung bzw. l10n-i18n) erkennt Konfigurations- und Laufzeit Probleme innerhalb von Instanzen, die Kunden in verschiedenen geografischen Regionen, mit unterschiedlichen Sprachen und Zeichensätze bedienen.

Chaos Gorilla

Der Chaos Gorilla ist vergleichbar mit dem Chaos Monkey, simuliert allerdings einen vollständigen Ausfall einer Amazon Availability Zone. Damit wird sichergestellt, dass die Funktionalität des Systems automatisch in andere Availability Zones verschoben wird, ohne das ein manueller Eingriff von Netflix erforderlich ist und das der Nutzer davon etwas bemerkt.

Fazit

Die Simian Army von Netflix ist ein Extrembeispiel wie eine Cloud Architektur auszusehen hat. Das Unternehmen hat viel Zeit, Anstrengungen und Kapital in die Entwicklung seiner Systemarchitektur investiert, die auf der Cloud Infrastruktur der Amazon Web Services läuft. Aber es lohnt sich und jedes Unternehmen, das die Cloud ernsthaft nutzen möchte und ein hochverfügbares Angebot präsentieren will, sollte sich Netflix unbedingt zum Vorbild nehmen.