Tag: Windows Azure



Windows Azure Infrastruktur Services – Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Das Microsoft, als eines der weltweit führenden IT-Unternehmen, irgendwann einmal mit einem "Online-Shop" und einem "Suchmaschinenanbieter" um Marktanteile kämpfen muss, hätte in Redmond wahrscheinlich auch niemand jemals zu träumen gewagt. Jedoch ist das die Realität. Amazon ist mit seinen Amazon Web Services (AWS) mit Abstand der Innovationsmotor im Cloud Computing Markt. Und auch Google holt stetig auf. Google hat speziell im Platform-as-a-Service (PaaS) Markt mit der App Engine und dem Software-as-a-Service (SaaS) Markt mit Google Apps bereits gut positionierte Produkte. Amazon ist hingegen im Bereich Infrastructure-as-a-Service (IaaS) der absolute Marktführer. Und hier greift nun auch Microsoft an. Nachdem Windows Azure zu Beginn als reiner PaaS am Markt positioniert wurde, sind sukzessive IaaS Komponenten hinzugefügt worden. Mit seinem neuen Release hat Microsoft nun offiziell die Windows Azure Infrastruktur Services ausgerollt. Für viele kommt dieser Schritt zu spät, da bereits große Marktanteile in diesem Bereich an AWS abgeflossen sind. Allerdings, wo es zunächst nachteilig ausschaut, verbergen sich auch einige Vorteile, die von den meisten übersehen werden.

Windows Azure Infrastruktur Services im Überblick

Grundsätzlich sind die Azure Infrastruktur Services nichts Neues. In einer öffentlichen Release Preview wurden diese bereits im Juni 2012 vorgestellt. Nach Aussage von Microsoft wurden seitdem "... mehr als 1,4 Millionen virtuelle Maschinen erstellt und mit mehreren hundert Millionen Prozessorstunden genutzt." Zudem sollen heute schon mehr als 50 Prozent der Fortune 500 Unternehmen Windows Azure nutzen und dabei insgesamt mehr als vier Billionen Daten und Informationen auf Windows Azure verwalten. Die Kapazitäten für Compute- und Storage-Lösungen verdoppeln sich in etwa alle sechs bis neun Monate. Laut Microsoft melden sich inzwischen täglich fast 1.000 neue Kunden für Windows Azure an.

Mit dem Release der Windows Azure Infrastruktur Services hat Microsoft seinen Cloud Computing Stack nun auch offiziell vervollständigt. Neben dem Betrieb von virtuellen Maschinen umfasst das Update die dazugehörigen Netzwerkkomponenten. Weiterhin bietet Microsoft nun auch Support für virtuelle Maschinen und auch die gängigsten Microsoft Server Workloads wie zum Beispiel Microsoft BizTalk oder SQL Server 2012. Neben Windows wird auf den virtuellen Maschinen auch das Linux Betriebssystem vollwertig unterstützt. Die Windows Azure Virtual Networks sollen zudem einen echten Hybridbetrieb ermöglichen.

Neue Instanzen und aktualisierte SLAs

Neben neuen virtuellen Instanzen mit zum Beispiel mehr Speicherkapazität von 28GB und 56GB, stehen auch vorbereitete virtuelle Images, z.B. vom BizTalk Server und SQL Server zur Verfügung. Vorbereitete Linux-Images, u.a. CentOS, Ubuntu und Suse Linux Enterprise Server (SLES), werden von kommerziellen Händlern bereitgestellt. Weiterhin stehen zahlreiche Open-Source-Anwendungen als vorbereitete Images im VM Depot auf Self-Service-Basis zur Verfügung. Microsoft Server-Produkte einschließlich Microsoft Dynamics NAV 2013, SharePoint Server 2013, BizTalk Server 2013 wurden für die Ausführung auf den virtuellen Maschinen von Microsoft bereits getestet.

Weiterhin wurden die Service Level Agreements (SLAs) überarbeitet. Microsoft garantiert eine 99,95 prozentige Verfügbarkeit inkl. finanzieller Absicherung, wenn es zu einem Ausfall auf Microsofts Seite kommt. Neben einem SLA für die Cloud Services bietet Microsoft sieben weitere SLAs speziell für Speicher, SQL-Datenbank, SQL Reporting, Service Bus, Caching, CDN und die Medienservices.

7/24/365 Support

Ein Microsoft Support-Team steht jeden Tag rund um die Uhr zur Verfügung. Die Support-Pläne unterteilen sich in vier Stufen vom Entwicklersupport bis hin zum Premier Support.

Preissenkungen für virtuelle Maschinen und Cloud-Services

Wie Amazon AWS gibt auch Microsoft seine Ersparnisse durch den Economies of Scale an seine Kunden weiter. Dazu stehen ab sofort folgende neue Preise und Erweiterungen bereit:

  • Virtuelle Maschinen (Windows, Standardinstanzen) gibt es bis zum 31. Mai zu reduzierten Preisen. Die neuen allgemeinen Verfügbarkeitspreise gelten ab dem 1. Juni 2013. Für eine kleine Instanz gilt der neue Preis 0,0671 € pro Stunde.
  • Die Preise für virtuelle Maschinen (Linux) für Standardinstanzen wurden um 25 Prozent gesenkt. Ab dem 16. April 2013 werden die Preise für kleine, mittlere, große und sehr große Instanzen um 25 Prozent gesenkt. Der Preis für eine kleine Linux-Instanz beispielsweise wird von 0,0596 €pro Stunde auf 0,0447 € pro Stunde in allen Regionen gesenkt.
  • Die Preise für virtuelle Netzwerke starten bei 0,0373 € pro Stunde, gültig ab dem 1. Juni 2013. Bis zum 1. Juni können Kunden das virtuelle Netzwerk kostenlos nutzen.
  • Die Preise für Cloud-Services für Web- und Workerrollen wurden um 33 Prozent für Standardinstanzen gesenkt. Ab dem 16. April 2013 sinkt der Preis für kleine, mittlere, große und sehr große Instanzen um 33 Prozent. Der Preis für eine kleine Workerrolle beispielsweise wird von 0,0894 € pro Stunde auf 0,0596 € pro Stunde in allen Regionen gesenkt.

Nicht zu spät für den großen Teil vom Kuchen

Auch wenn Microsoft in dem mittlerweile sehr stark umkämpften Markt für Infrastructure-as-a-Service spät dran ist, bedeutet es nicht, dass der Zug abgefahren ist. In vielen Ländern beginnt gerade erst die Adaption des Cloud Computing. Darüber hinaus wird das große Geld bei den etablierten Unternehmenskunden verdient und erst dann bei den Startups dieser Welt. Das hat auch Amazon verstanden und entsprechende Maßnahmen eingeleitet.

Weiterhin nimmt die Bedeutung der Private Cloud und somit auch der Hybrid Cloud weltweit zu. Und hier sieht das Blatt dann bereits ganz anders aus. Microsoft hat mit seinem Windows Server 2012 ein gut platziertes Produkt für die Private Cloud, was sich nahtlos mit Windows Azure integrieren lässt. Hier kann Amazon AWS nur über eine mögliche Eucalyptus Acquisition schnell aktiv werden. Eine erste intensive Kooperation beider Unternehmen besteht bereits.

Allerdings, die Windows Azure Infrastruktur Services sind in erster Linie Public Cloud Services. Und hier muss man sagen, dass die Vielfalt des Service-Portfolios der Amazon Web Services noch deutlich größer ist als das von Windows Azure. Zum Beispiel fehlen Services wie Elastic IP oder CloudFormation. Dennoch, Microsoft ist mit seinem Portfolio derzeit der einzige Public Cloud Anbieter am Markt, der Amazon AWS ernsthaft gefährlich werden kann. Denn "Infrastruktur bedeutet mehr als nur Infrastruktur" und daher heißt es "die Infrastruktur nutzbar machen".

Siehe: Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich (wird aktualisiert)

Und was ist mit Google?

Google darf auf keinen Fall unterschätzt werden. Im Gegenteil, aus einem ersten Performance-Vergleich zwischen der Google Cloud Platform und Amazon AWS ging Google als Sieger hervor. Allerdings beschränkt sich das aktuelle Serviceportfolio der Google Cloud Platform im Kern auf Rechenleistung, Speicherplatz und Datenbanken. Weitere Mehrwertservices, die auf der Plattform aufsetzen, fehlen noch. Darüber hinaus ist Google derzeit als reiner Public Cloud Anbieter zu sehen. Im Private/ Hybrid Cloud Umfeld sind bisher keine Produkte zu finden. Hier müsste mit Kooperationen bzw. Akquisitionen nachgebessert werden, um auch in Zukunft die Bedürfnisse von konservativen Unternehmenskunden zu befriedigen. Zumal Google weiterhin ein nicht zu unterschätzendes Reputationsproblem hinsichtlich Datenschutz und Datensammelwut hat. Hier muss noch mehr Transparenz gezeigt werden.

Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Mit der offiziellen Veröffentlichung der Windows Azure Infrastruktur Services hat Microsoft damit begonnen zu den Amazon Web Services im Infrastructure-as-a-Service Markt aufzuschließen. Von einem Spiel auf Augenhöhe kann hier aber noch nicht die Rede sein. Denn etwas Neuartiges oder gar Innovationen lassen sich im neuen Azure Release nicht finden. Stattdessen wird lediglich versucht den Technologievorsprung von Amazon AWS mit der Erweiterung von Infrastruktur-Ressourcen aufzuholen, mehr aber nicht. Dabei darf man nicht den Innovationsgrad von Amazon unterschätzen, die in regelmäßigen Abständen ihre Cloud Plattform mit weiteren disruptiven Services und Funktionen ausbauen.

Dennoch, für das attraktive Umfeld für Unternehmenskunden ist Microsoft in einer guten Ausgangsposition und hat sein Portfolio mit den Azure Infrastruktur Services um eine weitere wichtige Komponente gegenüber Amazon erweitert. Darüber hinaus verfügt Microsoft bereits über eine sehr große on-Premise Kundenbasis, die nun in die Cloud überführt werden muss. Darunter renommierte und finanziell gut aufgestellte Unternehmen. Und das ist genau der Bereich in dem Amazon erst noch Vertrauen aufbauen muss. Zudem sollte man den stetig wachsenden Private Cloud Markt nicht vernachlässigen. Hier sehen die Karten auf beiden Seiten gleich ganz anders aus.

Das Microsoft im IaaS Bereich noch nicht auf Augenhöhe mit Amazon ist, bedeutet nicht, dass sie nicht erfolgreich sein werden. Es ist zwangsläufig nicht entscheidend, als erster am Markt zu sein und das beste Produkt zu haben, sondern seine bestehenden und potentiellen Kunden davon zu überzeugen, einen Mehrwert zu bieten. Und es wäre nicht das erste Mal, dass Microsoft dies schaffen würde.



Mehrwert-Services sind die Zukunft von Infrastructure-as-a-Service

Der Titel dieses Beitrags mag ein wenig irritieren. Schließlich handelt es sich bei Infrastructure-as-a-Service (IaaS) bereits um Services. Aber ich habe meinen Grund dafür. Von Beginn an bezeichnet Gartner die Amazon Web Services, in seinem Magic Quadrant, als den führenden Anbieter im IaaS Markt. Wen ich hier mittlerweile jedoch vermisse ist Windows Azure. Aber warum ist es gerade Amazon, die den Markt anführen und warum gehört Windows Azure meiner Meinung nach ebenfalls in denselben Quadranten wie Amazon.

Frühe Präsenz und ein ausgeprägtes Angebot zahlen sich aus

Ein Grund für Amazons Erfolg liegt unumstritten in der frühen Präsenz am Markt. Als erster IaaS Anbieter (2006) haben sie den Markt geprägt und dem Cloud Computing damit die Richtung vorgegeben, an der sich viele Anbieter orientieren. Microsoft folgte mit Windows Azure zwar relativ spät (2010), hat sein Portfolio aber schnell ausgebaut.

Ein weiterer aber viel prägnanter Grund sind die Services beider Anbieter. Wie bei den anderen IaaS Anbietern am Markt, stehen bei Amazon AWS und Microsoft Windows Azure nicht nur die reine Infrastruktur im Vordergrund, sondern viel mehr Lösungen drum herum. Das Angebot beider Anbieter ist im Vergleich zum restlichen Markt sehr ausgeprägt und bietet deutlich mehr als nur virtuelle Server und Speicherplatz. Und das ist der Knackpunkt.

Die Infrastruktur nutzbar machen

IaaS bedeutet im Kern das Angebot von Rechenleistung, Speicherplatz und Netzwerkkapazitäten als Service im Pay as you go Modell. Das beherzigen die meisten Cloud Anbieter am Markt. Nur nicht Amazon AWS und Windows Azure. Beide bieten viele Mehrwert-Services um ihre Infrastruktur herum an und machen diese damit nutzbar. Kunden sind damit in der Lage die "dumme" Infrastruktur direkt produktiv zu nutzen.

Egal welchen Anbieter man sich aus dem Public Cloud Bereich zur Brust nimmt, in der Regel besteht das Angebot aus Compute (Rechenleistung), Storage (Speicherplatz) und Database (Datenbanken). Der eine oder andere bietet zudem noch ein CDN (Content Delivery Network) und Tools für das Monitoring. Das war es dann aber auch schon. Hingegen zeigt ein Blick auf die Services von Amazon AWS und Windows Azure, wie umfangreich deren Portfolio mittlerweile ist.

Daher, Mehrwert-Services sind der Schlüssel und die Zukunft von Infrastructure-as-a-Service, mit denen sich die Infrastruktur gewinnbringender nutzen lässt.



Cloud Computing: Offen oder Geschlossen? Vendor Lock-in ist kein Argument!

Cloud Computing spaltet sich derzeit in zwei Lager. Die Liebhaber eines geschlossenen, proprietären Systems und die Befürworter einer offenen (Open-Source) Cloud. Interessanterweise stellen verstärkt die Open-Source Jünger, allen voran das OpenStack Projekt die größten Lautsprecher dar (Rackspace: Linux der Cloud). Sei es auch nur, um mehr Aufmerksamkeit von den derzeit erfolgreichen geschlossenen Systemen (Amazon Web Services (AWS), Microsoft Windows Azure) auf sich zu lenken. Eines vorweg, pauschal lässt sich nicht sagen, welcher Ansatz der "Bessere" ist. Es hängt immer von den eigenen Anforderungen und Möglichkeiten ab. Zudem sollte man schauen, wie geschlossen die proprietären Systeme wirklich sind. Man wird zum einen merken, dass viel mehr religiöse Ansichten dahinter stecken als man denkt und das die Argumentation Vendor Lock-in bei Open-Source Clouds nicht zwangsläufig zutrifft. Denn einen Vendor Lock-in hat man immer.

Geschlossene Cloud gleich Lock-in?

Hauptargumentation aus dem Open-Source Lager gegen proprietare Cloud Angebote ist das Risiko eines Lock-in. Um diesen zu umgehen, solle man stattdessen auf Angebote setzen, die auf Open-Source basieren, um sich über eine eigene Private Cloud die Freiheit zu verschaffen, also die Infrastruktur und Daten dann ggf. in die eigene Cloud zu transferieren.

Eines sollte man jedoch nicht vergessen, ohne Open-Source funktioniert derzeit so gut wie kein Cloud Angebot. So besteht die AWS Cloud aus wahrscheinlich der größten XEN (Hypervisor) Installation weltweit. Zudem wird argumentiert, dass mann sich bei AWS in einen Lock-in begibt. Bei der DynamoDB mag dies richtig sein. Aber für alle anderen Services gibt es Lösungen wie Eucalyptus, openQRM oder sogar OpenStack selbst, die entsprechende Schnittstellen bereitstellen. Und auch Microsoft ermöglicht es, zwischen Windows Azure und einer auf Microsoft basierenden Private Cloud mit dem Microsoft Server 2012 und dem System Center 2012 Daten usw. hin und her zu schieben. Man ist hier also auch nicht zwangsläufig auf die Public Cloud angewiesen.

Wo versteckt sich der Lock-in?

Ein Vendor Lockin besteht dann, wenn ein System, Angebot oder Lösung sehr stark abhängig macht.

Ein analoges Beispiel dafür ist Ikea. Das Design der Möbel ist so markant, dass es für einen Innenarchitekten Laien (wie mich) schwierig ist, es mit einem anderen Design zu kombinieren. Also geht man dazu über, weitere Möbel bei Ikea zukaufen. Zudem verfügt Ikea über eigene Maße und proprietäre Techniken z.B. bei den Waschbecken oder auch bei den Küchen, Schrauben und sonstigen Verbindungen.

Das Risiko des Lock-ins in der Cloud befindet sich hauptsächlich bei den Daten und Prozessen, wenn diese dort ebenfalls abgebildet werden. Denn in beiden Fällen befinden sich hier die geschäftskritischen Bereiche, die so beweglich wie möglich in der Cloud liegen sollten.

Die Ressourcen wie virtuelle Maschinen sind nicht, wie möglicherweise vermutet, von dem Lock-in betroffen. Hierzu existieren bereits diverse Import/ Export Tools z.B. von VMware für AWS oder speziell V2V (Virtual to Virtual) oder V2P (Virtual to Physical) Mechanismen von openQRM. Das bedeutet, das sich virtuelle Maschinen und deren Inhalte bequem hin und her schieben lassen.

Die Daten selbst sind in der Cloud in der Regel ebenfalls nicht von einem Lock-in betroffen. Die meisten Anbieter verfügen über entsprechende Schnittstellen, über die sich die Daten bewegen und transferieren lassen. Bei den Prozessen wird es schon schwieriger. Aber, wie viele Unternehmen haben in der Vergangenheit ihre Prozesse in die Hände von SAP Systemen gelegt und damit einen Lock-in verursacht?

Ein Lock-in ist nichts Schlechtes

Ein Lock-in, wenn er denn vorliegt, muss nicht immer etwas Schlechtes sein. Im Gegenteil, er führt zu Innovationen und verringert die Komplexität. Der Anbieter nimmt einem beim Design und der Auswahl Stückweit die Entscheidung ab und sorgt für eine stetige Weiterentwicklung und Verbesserung des Systems.

Zudem sollte man schauen, wer sich einen Lock-in nicht leisten kann. Kleine und mittelständische unternehmen, die ggf. über eine kleine oder keine IT-Abteilung verfügen, nehmen das gerne in Kauf, da sie sich die Implementation einer komplexen Umgebung nicht leisten können bzw. nicht über die Expertise verfügen. Analoges Beispiel, Ikea: Man bekommt relativ günstig gute Möbel und kann alles miteinander gut kombinieren.

Außerdem, schaut man sich Open-Source Projekte wie OpenStack an, wird deutlich, dass es nicht immer einfach ist, alle Interessen unter einen Hut zu bekommen. Open-Source mag zwar offen sein. Auf Grund der vielen beteiligten Unternehmen können so manche Konflikte den Innovationsgrad jedoch verringern. Aus diesem Grund kann ein Vorteil darin bestehen, wenn nur ein Unternehmen an der Spitze des Projekts/ Angebots steht und die Koordination übernimmt. Auch wenn mehrere Teilnehmer mehr Input und Expertise liefern. Hier haben auch geschlossene Anbieter einen Vorteil, da sie alleine verantwortlich sind, und damit schneller handeln. Das kann im Umkehrschluss bedeuten, dass der Lock-in von OpenStack in den potentiellen Konflikten und dem daraus folgenden langsamen Innovationsgrad besteht.

APIs sind entscheidend

Wichtig für jedes Cloud Computing Angebot sind die APIs. Auf diese muss sowohl von Innen als auch von Außen zugegriffen werden können, um auf dieser Basis die Daten in aus der Cloud zu transferieren.

Vorteile vs. Nachteile von Open-Source

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den "richtigen" Weg zu entscheiden.

Fazit

Verantwortliche die sich für eine Cloud Infrastruktur entscheiden, wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über eine Open-Source oder proprietären Cloud Infrastruktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine Open-Source Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und eine proprietäre Cloud besser für den eigenen Innovationsgrad ist oder auch andere Möglichkeiten evaluiert werden müssen.



Build 2012: Microsoft baut Windows Azure weiter aus

Während seiner Entwicklerkonferenz Build 2012 auf seinem Campus in Redmond hat Microsoft weitere Erneuerung für seine Cloud Computing Plattform Windows Azure vorgestellt. Mit Windows Azure steht Entwicklern u.a. ein Backend für Windows 8 und Windows Phone 8 Apps zur Verfügung, mit dem sie auch geschäftskritische Anwendungen entwickeln, bereitstellen, verwalten und je nach Bedarf und Aufkommen skalieren können.

build 2012: Microsoft baut Windows Azure weiter aus

Windows Azure Neuigkeiten auf einem Blick

Windows Azure als Back-End für das PC-Game Halo 4

Der Mehrspieler Modus des PC-Games Halo 4 basiert künftig auf Windows Azure, so dass die Spieler weltweit eine robuste und kosteneffiziente Plattform zur Skalierung ihres online-games erhalten. Sie können ihre Spiel dann beliebig erweitern oder begrenzen.

Erweiterter Support für Windows Azure Mobile Service

Windows Azure Mobile Services wird künftig auch Windows Phone 8 unterstützen, ergänzend zu den bereits vorhandenen Optionen für Windows 8 Clients und iOS. Entwickler können so künftig leicht Windows 8 Mobile Apps über Windows Azure verbinden.

Erweiterung der Programmiersprachen für Windows Azure

Windows Azure Web Sites unterstützt nun auch Python und bietet Anwendern damit die Wahlfreiheit, Apps in der von ihnen favorisierten Programmiersprache zu entwickeln.

Vorschau auf den Windows Azure Store

Die Vorschau auf den Windows Azure Store bietet einen ersten Einblick in die verschiedenen App Services, dazu zählt das Monitoring ebenso wie Skalierbarkeit oder eMailing und Datenbanken. Unter folgendem Link gibt es weitere Informationen: www.windowsazure.com/store.

Team Foundation Service Availability

Team Foundation Service, eine Lifecycle Management Lösung ist nun offiziell verfügbar. Team Foundation Service umfasst moderne Tools für die flexible und agile Projektplanung und das Projektmanagement, wie die Versionsverwaltung, automatisierte Entwicklungsumgebung und Tools für die automatisieret Bereitstellung der Lösung.



Windows Server 2012 – Microsoft vervollständigt sein Cloud Computing Portfolio

Microsoft hat mit dem Windows Server 2012 die neue Ära seines Serverbetriebssystems eingeläutet, mit dem sich das Unternehmen auf den Aufbau und den Betrieb von Cloud Infrastrukturen konzentrieren und sein Engagement im Bereich Cloud Computing unterstreichen will. Dabei fokussien sich die Redmonder insbesondere auf die Private Cloud, wollen im Bereich Public bzw. Hosted Cloud aber ebenfalls ein Wort mitreden.

Windows Server 2012 - Microsoft vervollständigt sein Cloud Computing Portfolio

Hintergrund: Windows Server 2012

Der Windows Server 2012 kommt mit vielen Neuigkeiten. Aus der Cloud Brille betrachtet, befinden sich die größten Innovationen im Bereich der Virtualisierung. Und hier im Speziellen mit dem neuen Hyper-V 3.0, der mit seiner neuen Funktion Hyper-V-Replica virtuelle Festplatte und vollständige Server asynchron zwischen mehreren Hyper-V-Hosts im Netzwerk manuell oder automatisiert repliziert und synchronisiert. Dabei wird die Replikation über das Dateisystem vorgenommen. Virtuelle Server lassen sich zudem im laufenden Betrieb zwischen unterschiedlichen Hyper-V-Hosts replizieren. Damit verspricht Microsoft den Betrieb von hochverfügbaren virtuellen Servern (Hochverfügbarkeitslösung) ohne den Einsatz eines Cluster.

Microsoft spricht Hybrid Cloud

Mit dem Windows Server 2012 rundet Microsoft sein Cloud Portfolio auf der on-Premise Seite (Private Cloud) ab. Nach Windows Azure (PaaS, IaaS), Office 365/ Office 2013, Dynamics CRM Online und weitere Angebote (SaaS), bildet der neue Windows Server die Basis der IT-Infrastruktur im unternehmenseigenen Rechenzentrum bzw. in dem des Service Provider.

Neben dem Private Cloud Szenario zielt Microsoft ebenfalls auf die Hybrid Cloud. Dazu beinhaltet der Windows Server 2012 neben neuen Storage- und Netzwerktechnologien, Virtualisierungs- und Automatisierungskomponenten ebenfalls Funktionen für die Integration mit Microsoft Windows Azure und dem System Center. Damit lässt sich die on-Premise Umgebung um Ressourcen aus der Microsoft Public Cloud erweitern und u.a. .NET Anwendungen sowohl innerhalb der Private als auch der Public Cloud skalierbar einsetzen.

Vorteil: Microsoft ist bereits an der Basis

Auch wenn Microsoft im Bereich Cloud im Vergleich zu den Playern Amazon Web Services oder Google ziemlich spät aus den Startlöchern gekommen ist, holen sie mit ihrem Cloud Portfolio kräftig auf. Speziell der neue Windows Server 2012 ermöglicht Microsoft direkt die Kunden zu erreichen, die Amazon und Google aus eigener Kraft nicht bekommen können und werden. Nämlich diejenigen die der Public Cloud eher kritisch gegenüber eingestellt sind bzw. die Kunden, die bereits auf Microsoft Produkte setzen.

Wo Amazon und Google sehr leicht die (Web)-Startups dieser Welt einfangen und Microsoft sich mit Azure schwer tut, hat Microsoft bereits den Fuß bei etablierten Unternehmen in der Tür, wo bekanntlich die höheren Umsätze generiert werden.

Daher kam auch Amazons strategische Kooperation mit Eucalyptus nicht überraschend, um auch auf der Private Cloud Seite zumindest eine AWS ähnliche Plattform für das Hybrid Cloud Szenario zu unterstützen. Wo Microsoft sich als Serviceanbieter als auch Softwareanbieter positioniert, sind Amazon als auch Google reine Serviceanbieter, die im Umfeld von on-Premise Software und die dafür notwendigen nachgelagerten Prozesse wenig Erfahrung haben.



Mobile Cloud: Microsoft erweitert Windows Azure mit Backend-Funktionalität für Windows 8 Apps

Microsoft hat seine Cloud Computing Plattform Windows Azure um die Windows Azure Mobile Services erweitert. Entwickler von Windows 8 Applikationen erhalten damit die Möglichkeit, Windows Azure als Cloud Backend für ihre Apps zu nutzen, um dort bspw. Daten zu speichern oder Nachrichten zu versenden oder Benutzer zu autorisieren. Zunächst wird nur Windows 8 unterstützt, Windows Phone, iOS und Android sollen folgen.

Backend-as-a-Service von Microsoft

Mit seinen Windows Azure Mobile Services ist Microsoft nicht alleine im Markt der Backend-as-a-Services (BaaS). Hier tummeln sich bereits Anbieter wie Urban Airship, Parse oder Kinvey. Die Idee eines BaaS besteht darin, Entwicklern dabei zu helfen, sich hauptsächlich auf das Frontend ihrer Applikation zu konzentrieren. Alle Themen die sich um das Backend drehen, übernimmt bzw. vereinfacht der Service.

Windows Azure Mobile Services: Hintergrund

Nach der Grundkonfiguration werden die Daten in der Azure Cloud gespeichert und mit der SQL Datenbank innerhalb von Azure verknüpft. Im Anschluss können die Apps auf die Daten zugreifen, ohne dass der Entwickler dafür extra Code schreiben muss. Im Hintergrund setzen die Windows Azure Mobile Services auf eine REST API und ein JSON-basiertes ODATA Format. Darüber hinaus hilft der Service beim Erstellen von Tabellen, dem Durchsuchen von Daten sowie dem Konfigurieren der Indizes und der Zugriffskontrolle. Weiterhin lassen sich Benutzer authentifizieren und Nachrichten an die Clients verschicken.

Im Vergleich zu anderen BaaS Anbietern ermöglichen die Windows Azure Mobile Services über ein Dashboard zusätzlich Analytics Funktionen, mit denen Entwickler die Nutzung der App und weitere Metriken überwachen können.

So geht's los

Um die Azure Mobile Services Plattform für die Entwicklung nutzen zu können ist das Visual Studio 2012 Express und das Mobile Services Managed SDK erforderlich. Eine Schritt für Schritt Anleitung hilft dabei die erste Windows 8 Applikation mit der Cloud zu verbinden.

Die Azure Mobile Services befinden sich derzeit noch im Preview Status. Entwickler müssen sich zunächst für eine kostenlose Testphase von Windows Azure registrieren und können dann die Mobile Services anfordern. Während der Testphase können die Mobile Services für die ersten zehn Windows 8 Applikationen kostenlos genutzt werden.



Microsoft erweitert Windows Azure zu einem vollständigen IaaS und PaaS Cloud Stack

Microsoft baut seine Cloud Plattform Windows Azure mit vielen neuen Services und Funktionen weiter aus. Das kündigt das Unternehmen auf dem Windows Azure Team Blog und auf seiner Konferenz Meet Windows Azure an.

Microsoft erweitert Windows Azure um weitere Services und Funktionen

Mit "Windows Azure Virtual Machines" ermöglicht Microsoft endlich die lang erwartete Möglichkeit eigene Windows- oder Linux basierte VMs persistent auf Windows Azure zu nutzen. Das "Windows Azure Virtual Network" unterstützt beim Aufbau heterogener Netzwerktopologien inkl. lokalen und Cloud basierten Elementen. Convenience bieten die "Windows Azure Websites", mit denen Webseiten anhand bekannter Frameworks auf Windows Azure gehostet werden können. Die "Windows Azure Media Services" runden die neuen Services ab und bieten Möglichkeiten für die Produktion, Verarbeitung und Bereitstellung von medialen Content.

Neben neuen Services wurden ebenfalls bereits vorhandene Dienste mit weiteren Funktionen aktualisiert. Dazu gehört ein auf HTML 5 basierendes Management Portal sowie das Windows Azure SQL Reporting. Zudem wurden die Java und Python Bibliotheken verbessert und das Windows Azure SDK aktualisiert. Neben einem neuen verteilten Caching wurde darüber hinaus die Windows Azure Active Directory und das CDN erweitert.

Windows Azure Virtual Machines

Azure Virtual Machines ermöglicht den Betrieb eigener virtueller Maschinen auf Windows Azure. Anders als von dem Web/ Worker Modell bekannt, wird der lokale Speicher der virtuellen Maschinen persistiert, wodurch der Inhalt auch z.B. nach einem Reboot vorhanden bleibt. Um das zu ermöglichen, liegen die Dateisysteme im Blob Speicher. Die virtuellen Maschinen können entweder direkt aus einer VM Gallery, also einer Art Shop vorkonfigurierter Images geladen werden oder zunächst selbst in einen eigenen Blob Speicher kopiert und später von dort bezogen werden. Dazu müssen die VMs als virtuelle Festplatten (VHDs) vorliegen. Windows Azure unterstützt zunächst sowohl Windows als auch Linux Images.

Windows Azure Virtual Network

Mit dem Azure Virtual Network können Nutzer eigene Virtual Private Networks (VPNs) innerhalb von Windows Azure aufbauen und diese ebenfalls mit der eigenen lokalen IT-Infrastruktur verbinden. Hier unterstützt Windows Azure IPv4-Adressen sowie eigene Routing Tabellen und Sicherheitseinstellungen. Auf dieser Basis lassen sich Hybrid Cloud Modelle aufbauen, wodurch sich die eigene IT-Infrastruktur mit Ressourcen aus der Azure Cloud erweitern lassen, um z.B. unerwartete Spitzenlasten auszugleichen.

Windows Azure Websites

Mit Azure Websites lassen sich Web basierte Systeme auf Basis bekannter Frameworks und Open Source Lösungen wie ASP.NET, PHP, Node.js, Wordpress usw. hochskalierbar hosten.

Windows Azure Media Services

Die Azure Media Services stehen bereits seit längerem zur Verfügung. Sie ermöglichen auf Basis von mehreren Cloud Services die Produktion von Medieninhalten wie bspw. der Codierung, der Content Protection und dem Streaming der Inhalte.

Erweiterung der Zielmärkte

Windows Azure steht mittlerweile für Kunden in 48 Ländern weltweit zur Verfügung. Darunter Russland, Südkorea, Taiuwan, Türkei, Ägypten, Südafrika und die Ukraine. Bis zum Ende diesen Monats sollen es dann 89 Länder sein und 19 lokale Währungen unterstützen.

Fazit

Microsoft legt langsam richtig los. Nachdem Windows Azure zunächst als PaaS vermarktet wurde, ziehen die Redmonder nun auch im Bereich Infrastructure-as-a-Service gewaltig nach. Ein neutraler Blick zeigt einen vollständigen und sehr umfangreichen Public Cloud Stack, der in starker Konkurrenz zu den Amazon Web Services steht. Konzentriert sich Amazon derzeit verstärkt auf die Startups dieser Welt, ist Microsoft bereits da angekommen, wo Amazon gewillt ist hinzukommen, das Enterprise. Vor allem die breite Kundenbasis Microsofts im nicht Cloud-Umfeld ist ein enormer Wettbewerbsvorteil den Amazon nicht genießt. Durch die Erweiterung seiner Azure Plattform um IaaS Eigenschaften, insbesondere das Hosting eigener VMs und die Möglichkeit zum Aufbau von Hybrid Clouds (VPNs), wird es Microsoft vereinfachen seine Bestandskunden in die eigene Cloud zu führen.



Casablanca: Microsoft schiebt C++ in die Cloud

Am 30. April haben die Microsoft DevLabs (Developer Division Labs) mit dem Codenamen "Casablanca" eine Reihe von neuen C++ Bibliotheken veröffentlicht. Damit sollen Entwickler einfacher auf RESTful Services zugreifen können, bzw. diese selbst implementieren. Das schreibt Microsoft Developer Division Corporate Vice President Soma Somasegar in seinem Blog.

Casablanca ist eine Microsoft Inkubation, um die Cloud basierte Client-Server Kommunikation in nativem Code zu unterstützen. Dabei wird eine modernes asynchrones C++ API Design verwendet, so die Microsoft DevLaps Webseite. Casablanca ermöglicht dazu den Zugriff auf REST Services aus nativem Code von Windows Vista, Windows 7 und der Windows 8 Consumer Preview, indem asynchrone C++ Bindings für HTTP, JSON und URIs zur Verfügung stehen.

Dafür bietet Microsoft eine Erweiterung für sein Visual Studio SDK, mit der Entwickler die entsprechende Unterstützung zum Schreiben von C++ HTTP Client Code in Windows 8 Apps und nativem REST Code für Azure erhalten.

Casablanca ist das Produkt aus Erfahrungen, die durch .NET, Node.js, Erlang und weiteren Einflüssen gesammelt wurden, um daraus eine Architektur zu bauen, mit der skalierbare und flexible Anwendungen entwickelt werden können, schreibt Somasegar.

C#, Visual Basic und F# Entwickler arbeiten bereits mit robusten und skalierbaren Netzwerkstacks. Node.js Entwickler können das Windows Azure Software Development Kit (SDK) und JavaScript nutzen, um skalierbare Anwendungen zu schreiben, so Somasegar. Jedoch fehlten für C++ Entwickler ähnliche Tools, die für die Nutzung und der Implementierung von RESTful Cloud Services in Verbindung mit modernen C++ Funktionen genutzt werden konnten.

Für Casablanca, wie auch bei anderen DevLaps Releases, steht noch nicht fest, ob es als ein offizielles Produkt oder Teil eines Produkts auf dem Markt erscheint. In erster Linie dient es dem Test und dem Entwickler Feedback.



Microsoft Global Foundation Services: Ein wenig Transparenz gefällig?

Cloud Computing Anbieter machen ein großes Geheimnis um ihre Rechenzentren. Google und Amazon bspw. geben nur wenige Informationen bzgl. der Standorte und weiterer Informationen bekannt. Auch ein Besuch der Einrichtungen ist nicht möglich. Der Grund sind hohe Sicherheitsvorkehrungen, um den Datenschutz und weiteren Anforderungen gerecht zu werden.

Das Kerngeschäft muss geschützt werden

Hin und wieder werden Videos von den Rechenzentren und auch aus dem Inneren veröffentlicht.

http://www.youtube.com/watch?v=zRwPSFpLX8I

http://www.youtube.com/watch?v=1SCZzgfdTBo

Zudem stellt Google auf einer Webseite Informationen zu den Rechenzentren und deren Locations zur Verfügung. Die Geheimniskrämerei ist irgendwo auch berechtigt, die Rechenzentren sind nun einmal ein Teil des Kerngeschäfts und Coca Cola verrät schließlich auch nicht seine Rezeptur. Jedoch schürt dieses Verhalten Misstrauen, insbesondere bei deutschen Unternehmen und den hiesigen Datenschutzbehörden. Die möchten nämlich mehr sehen und am besten Mal einen Blick hineinwerfen.

Microsoft möchte mehr Transparenz schaffen

Microsoft stellt sich in diesem Bereich etwas anders auf. So sagte mir Florian Müller, Produkt Manager Microsoft Office 365, in einem Gespräch, dass Microsoft seine Kunden und Partner gerne die Rechenzentren besuchen lässt, damit sich diese einen Überblick verschaffen können. Transparenz sei im Cloud Computing von besonderer Bedeutung und Microsoft ist bestrebt, trotz hoher Sicherheitsvorkehrungen, den Nutzern seiner Cloud Services so offen wie möglich gegenüber zu stehen.

Neben diesen Aktivitäten hat Microsoft mit seinen Global Foundation Services eine Webseite mit weiteren Informationen veröffentlicht.

Global Foundation Services

Die Global Foundation Services (GFS) sind zunächst nicht nur einfach eine Webseite. Es handelt sich um einen Geschäftsbereich von Microsoft, der für den Betrieb hinter den Cloud Services zuständig ist.

GFS stellt die Kern Infrastruktur und die grundlegenden Technologien für Microsofts über 200 Cloud und Web Services wie Bing.com, Microsoft.com, Microsoft Developer Network, Microsoft Dynamics CRM, Microsoft Environment, Microsoft Server & Cloud Platform, Microsoft Strategy Software & Services, Microsoft TechNet Blog, Microsoft Trustworthy Computing, Office 365, Office 365 Trust Center, Windows Azure, Windows Azure Trust Center und Windows Intune bereit.

Die Webseite GlobalFoundationServices.com bietet dazu viele Informationen zum Thema Rechenzentrum und was Microsoft unternimmt, um den Betrieb und die Sicherheit zu gewährleisten. Was allerdings fehlt sind Informationen über die Standorte der jeweiligen Rechenzentren.


Bildquellen: isource.com, globalfoundationservices.com



Performance König Amazon? – AWS hängt Azure und Rackspace beim Datentransfer ab!

Sollen Daten aus dem Storage Service der Amazon Cloud zu Mittbewerbern wie Windows Azure und Rackspace übertragen werden, dauert dieser Vorgang 10 mal länger als der Transfer von Azure und Rackspace in die Amazon Cloud, das ergaben Testergebnisse des Speicherhersteller Nasuni.

Performance König Amazon?

Nasuni führte dazu fünf Testreihen durch, bei der in jedem Fall 12TB an Daten zwischen zwei Cloud Services übertragen wurden. Die Ergebnisse zeigen, dass die Datenübertragung von Amazon S3 zu Azure oder Rackspace deutlich mehr Zeit in Anspruch nimmt, als die Übertragung der Daten vom Mittbewerb in die Amazon Cloud. So dauert bspw. der Transfer von 12TB Daten von Amazon zu Azure 40 Stunden, wohingegen dieselbe Datenmenge von Azure zu Amazon nur 4 Stunden benötigt.

Der Transfer von Rackspace in Richtung Amazon benötigte 5 Stunden. Die Übertragung von Amazon zu Rackspace hingegen fast eine Woche. Der Transfer zwischen zwei Amazon Buckets dauerte 4 Stunden. Die Tests beschränkten sich dabei nur auf den Transfer zwischen Public Cloud Anbietern und nicht zwischen dem Rechenzentrum eines Nutzers und einem der genannten Cloud Services bzw. dem Rücktransfer von einem Public Cloud Anbieter in das eigene Rechenzentrum.

Die Testergebnisse variieren zudem von der Tageszeit und der Anzahl der für den Datentransfer eingesetzten Rechner. Dennoch zeigen die Ergebnisse den kleinsten zeitlichen Horizont, den es benötigt, um 12TB zu transferieren.

Im Folgenden sind die Ergebnisse zu finden, die zeigen, wie lange es benötigt 12TB an Daten zwischen den einzelnen Cloud Anbietern zu übertragen.

  • Amazon S3 zu Amazon S3 “Bucket”: 4 Stunden
  • Amazon S3 zu Windows Azure: 40 Stunden
  • Amazon S3 zu Rackspace: Knapp eine Woche
  • Microsoft Windows Azure zu Amazon S3: 4 Stunden
  • Rackspace zu Amazon S3: 5 Stunden

Ergebnisse des Cloud Storage Performance Tests.

Ergebnisse des Cloud Storage Performance Tests.

Nasuni kommt zu dem Ergebnis, dass die Hauptprobleme derzeit bei den Schreibvorgängen, also dem Speichern der Daten, in der Cloud liegen. Alle Datenübertragungen Richtung Amazon S3 betrugen zwischen 4 und 5 Stunden, wohingegen das Schreiben Microsoft Windows Azure und Rackspace erheblich länger dauerte.

Gründe für die langsame Amazon-zu-Azure Migration sieht Nasuni darin begründet, dass die Tests das Daten-Limit von Windows Azure erreicht haben könnten. Woran es genau liegt, darauf hat Nasuni keine Antwort. Es könnte an langsamen eingehenden Netzwerkverbindungen aber auch an einer technologischen Beschränkung liegen.

Aussagen von Microsoft bzgl. der Performance Unterschiede gibt es laut Nasuni bisher nicht. Jedoch bemerkte Nasuni bei Amazon S3 keine Performance Einschränkungen und führt die Leistungen auf die Architektur oder Bandbreite von Azure zurück.

Während der Migration von Amazon zu Rackspace bemerkte Nasuni ebenfalls eine schwache eingehende Datentransferrate und zieht hier Rückschlüsse auf eine schlechte Performance bei anderen OpenStack basierten Clouds, da auch Rackspace den Open Source Cloud Stack einsetzt und das Projekt massiv unterstützt.


Bildquelle: http://wikimedia.org, http://blogspot.com/



Microsoft schickt sein Dynamics ERP in die Cloud

Microsoft hat erste Schritte unternommen, seine Enterprise Resource Planning Lösung Dynamics ERP Cloud-fähig zu machen und gegen Ende 2012 bereitzustellen. Dieses wurde auf der Convergence Conference in Houston bekanntgegeben.

Bereits auf der Convergence 2011 sprach Microsoft öffentlich über Gedanken, die ERP Anwendung über die eigene Azure Cloud Plattform auszurollen. Diese Ideen werden nun im vierten Quartal 2012 umgesetzt, wodurch NAV 2013 und GP 2013 als Cloud Lösungen bereitgestellt werden. Eine Beta Version von NAV 2013 wird im kommenden Mai veröffentlicht.

Neben diesen Erneuerungen plant Microsoft ebenfalls Kooperationen mit ISV Partnern, die in Zukunft ihre Anwendung via Windows Azure als Cloud Services anbieten sollen.

Mit dem Weg von Dynamics in die Cloud erhofft sich Microsoft eine gewisse Differenzierung von anderen Anbietern im Markt. Da die Redmonder damit nun in der Lage sind, per Public, Private und Hybrid Cloud Lösungen ihren Kunden unterschiedliche Nutzungsstrategien anzubieten.



Microsoft schafft den Spagat zwischen Cloud Computing und Mobile Computing. Die Mobile Cloud wird Realität!

Cloud Computing und Mobile Computing sind die technologischen Grundlagen von dem was als Consumerization bezeichnet wird. Es ist also nur eine logische Schlussfolgerung, dass sich diese beiden Bereiche zum Trend der Mobile Cloud zusammenschließen.

Die Mobile Cloud wird Realität

Unterbewusst nutzen wir die Mobile Cloud bereits seit längerer Zeit. Zum Beispiel dann, wenn wir eine E-Mail auf unserem mobilen Endgerät, wie Netbook, Laptop, aber vor allem Smartphone und Tablet wie Android, iPhone oder Windows bearbeiten. Die E-Mail wird zwar in der Regel lokal geschrieben, lassen wir den Zugriff über den Browser mal Außen vor, beim Versenden/ Empfangen bleibt aber eine Kopie auf den Servern des Anbieters bestehen, so dass wir auch über jedes andere Endgerät auf diese E-Mail zugreifen können. Sobald eine Datenverbindung besteht, wird diese E-Mail dann mit dem aktuell genutzten Endgerät synchronisiert.

Ein weiteres Beispiel für die Nutzung der Mobile Cloud sind Cloud Storage Lösungen wie bspw. Dropbox. Die Daten befinden sich in diesem Fall nicht auf dem lokalen Endgerät, sondern auf den Servern von Dropbox. Öffnen wir mit dem mobilen Client auf dem Smartphone/ Tablet einen Ordner werden zunächst nur Metadaten übertragen, die zeigen was sich in dem Ordner befindet. Erst wenn wir eine Datei auswählen, wird diese direkt auf das lokale Gerät übertragen. Das geschieht jedesmal, wenn wir die Datei öffnen möchten. Dropbox bietet hier allerdings die Möglichkeit, die Datei zu favorisieren. In diesem Fall wird eine lokale Kopie auf dem Smartphone abgelegt.

Die Mobile Cloud ermöglicht uns also den Zugriff auf unsere Daten von überall, zu jedem Zeitpunkt, unabhängig vom Endgerät - wenn denn eine Datenverbindung vorhanden ist. Kurzum, die Mobile Cloud ist großartig!

Auch Microsoft möchte ein Wörtchen Mitreden

In Zeiten von coolen Startups und gehypten Firmen wie Apple oder Suchmaschinen wie Google, die deutlich mehr Potential haben als nur das zu finden, über das wir uns gerade informieren möchten, wirken Unternehmen wie Microsoft im ersten Moment ein wenig blass und eingerostet. Das dieser Eindruck nicht von alleine kommt hat seine Gründe. Microsoft hat im Bereich Mobile Computing in den letzten Jahren nicht wirklich glänzen können. Erst mit dem Windows Phone und auch der Kooperation mit Nokia hat sich etwas bewegt. Was das Thema Cloud Computing angeht, hat es auch sehr lange gedauert, bis mit Windows Azure und Office 365 gute Alternativen zu anderen Lösungen den Markt erreicht haben.

Speziell beim Thema Cloud Computing kann und sollte man Microsoft jedoch ein wenig in Schutz nehmen. Mitbewerber wie Google oder Amazon konnten sich hier von Beginn an anders aufstellen. Wo Microsoft sich komplett neu erfinden musste, sind es die Kerngeschäfte, die Google und Amazon in die Cloud getrieben haben. Zudem verfügt Microsoft über eine immense Kundenbasis, die es zu befriedigen gilt. Google, Amazon oder auch Startups konnten hier relativ unbedacht an den Markt gehen und "einfach mal präsentieren" was sie haben, ohne sich direkt vor Bestandskunden rechtfertigen zu müssen und diese ggf. zu verlieren. Das werden Google und Amazon ebenfalls noch zu spüren bekommen.

Der Mobile Cloud Ansatz von Microsoft

In den Bereichen wo Microsoft anfangs Schwächen offenbart hat, startet der Konzern anscheinend nun voll durch. Zumindest beeindruckt der Mobile Cloud Ansatz und stellt dem iOS aber auch Android eine wirklich ernstzunehmende Konkurrenz dar und zeigt, dass Microsoft das Thema Consumerization verstanden hat.

Microsoft hat das Thema Consumerization verstanden.

Microsoft hat das Thema Consumerization verstanden.

Die Grundlage der Microsoft Mobile Cloud bilden Windows 8 und Office 365 sowie weitere Lösungen wie Exchange, Sharepoint und Lync. Windows 8 und Office 365 sind dabei das bekannte Duo, was wir auch von dem Desktop kennen, nur als Tablet Variante. Exchange, Sharepoint und Lync hingegen arbeiten im Hintergrund. Entweder auf den Servern von Microsoft oder in der Private Cloud im eigenen Rechenzentrum.

Windows 8 wirkt sehr aufgeräumt mit einer innovativen Oberfläche, die weit entfernt von den alten UI-Design ist und nur durch die Farben im ersten Moment die Handschrift von Microsoft erkennen lässt. Was besonders gefällt ist allerdings die Nutzung des Tablets als quasi Desktop Ersatz. Mit einem "Wisch" befindet man sich in einer bekannten Windows Oberfläche, die auch nicht Tablet affinen Nutzern das mobile Arbeiten ermöglicht, ohne sich großartig umstellen zu müssen. Hier wird auch der Unterschied zwischen einem iPad oder Android Tablet deutlich. Ein Windows 8 Tablet ist in erster Linie als Arbeitsgerät ausgelegt, wohingegen insbesondere Apple mit dem iPad zunächst die Masse der Multimedia Junkies ansprechen möchte und erst dann die Unternehmen.

Mit der lokalen Office 365 Installation auf dem Tablet in Verbindung mit einem SharePoint Server ist das verteilte Arbeiten von jedem Ort aus möglich - Internetverbindung vorausgesetzt! Sind das Tablet bzw. der Nutzer also mit dem SharePoint synchronisiert, werden alle Daten automatisch abgeglichen und das Weiterarbeiten mit einem anderen Endgerät ist kein Problem. Hier bietet ein Windows 8 Tablet allerdings einen weiteren Vorzug, der es ermöglicht das Tablet via Dockingstation mit einem Monitor, Maus und Tastatur zu verbinden und als "normalen" Desktop-PC zu nutzen.

Fazit

Es hat zwar länger gedauert als bei den anderen Unternehmen, aber Microsoft ist im Bereich Cloud und Mobile steil aus der Kurve gekommen und kann den Trend Consumerization derzeit nach einer ersten Einschätzung am besten unterstützen. Trotz aller Kritiken wird an dieser Stelle einmal mehr deutlich wo Microsoft seine Wurzeln und Stärken hat: Das Business. Und genau diese Erfahrungen sind wertvolle Vorteile gegenüber den anderen Cloud und Mobile Anbietern im Markt.


Bildquelle: http://www.futureclick.net, https://devcentral.f5.com, http://sharepoint360.de,



Microsoft und Amazon liefern sich Preiskampf in der Cloud

Als Anbieter mit einem großen Public Cloud Portfolio kämpft Microsoft nun nicht mehr nur mit Google, sondern liefert sich seit kurzem auch einen Preiskampf mit den Amazon Web Services. Das gute daran: die Gewinner sind die Nutzer.

Der Kampf verlagert sich in die Cloud

Nachdem Microsoft am Ende der vergangenen Woche seine Preise für Windows Azure Storage und Windows Azure Compute gesenkt hat und damit auf die Preissenkungen der Amazon Web Services, ebenfalls in der vergangenen Woche, reagiert hat, befinden sich die derzeitigen Preise für Speicherplatz und Rechenleistung aus der Cloud auf einem niedrigen Rekordniveau und befinden sich auf dem Stand hiesiger Stromtarife.

Die Frage ist, wie lange das noch so weitergehen kann, denn die Preise können im Prinzip nur weiter fallen. Betrachten wir nämlich die Tatsache, das die Stromtarife auf Erdgaspreisen, saisonalen Einflüssen und weiteren Variablen basieren, kann Cloud Computing noch günstiger werden.

Die Preisgestaltung beider Anbieter ist nicht direkt vergleichbar, da die Preise und Dienstleistungen variieren. Aber die Kernaussage dieses Wettbewerbs ist eindeutig: Die Preise werden weiter sinken.

Beispielweise kostet eine Amazon Small (Standard) On-Demand Instanz mit Linux/Unix 0,090 Dollar (ca. 0,067 EUR) pro Stunde. Eine Windows Instanz 0,115 Dollar (ca. 0,088 EUR) pro Stunde. Ich zahle derzeit ca. 0,244 EUR pro Kilowattstunde an meinen Stromanbieter.

Beide Anbieter argumentieren, dass sie ihre eigenen Einsparungen (Economies of scale) sehr gerne an ihre Kunden weiterreichen und fokussieren Entwickler, Startups, kleine Unternehmen sowie Großkunden.

Nachdem nun aber auch HP und weitere Anbieter in den Cloud Computing Markt für IaaS Ressourcen eingestiegen sind, werden die Preise noch weiter fallen.


Bildquellen: http://www.merkur-online.de, http://diepresse.com



Pixar Ventures investiert in Cloud Bursting Anwendung

Eines der besten Features von Cloud Computing ist der on-Demand Zugriff auf Ressourcen ohne in diese für deren Aufbau eingangs zu investieren. Unternehmen können damit bspw. Lastspitzen bequem ausgleichen, ohne den dafür benötigten Serverpark zu besitzen und können damit ebenfalls vorausschauend planen.

Wenn in diesem Zusammenhang die vorab geplanten Ressourcen nicht mehr ausreichen, sorgt die Cloud Infrastruktur automatisch dafür, dass die tatsächlich benötigten Rechen- und Speicherkapazitäten hinzugefügt werden. Dieser Vorgang wird auch als "Cloud Bursting" bezeichnet.

Beim Cloud Bursting handelt es sich um ein Deployment Model für Anwendungen, in dem sich die Anwendung in einer Private Cloud oder einem Rechenzentrum befindet und auf Ressourcen einer Public Cloud zugreift bzw. in diese verschoben wird, wenn die lokalen Ressourcen der Private Cloud bzw. des Rechenzetrums nicht mehr ausreichen, um den optimalen Betrieb sicherzustellen. - Siehe auch "Was ist Cloud Bursting?"

Cloud Bursting ist derzeit noch nicht sehr populär, da die meisten Cloud Anbieter dieses noch nicht im Portfolio haben. Einer der wenigen Entwickler die auf Cloud Bursting setzen, bzw. enorm davon profitieren ist Pixar. Auf Grund der riesigen Datenmengen u.a. beim Rendern der Animationsfilme sehr naheliegend.

Konsequenterweise hat sich Pixar daher nun mit Microsoft und GreenButton zusammengeschlossen, um einen neuen Cloud Service für die Filmindustry zu entwickeln. Der Service wird durch GreenButton verwaltet und auf der Windows Azure Plattform von Microsoft gehostet.

Der Service soll anderen Filmemacher und Werbeagenturen dabei helfen kostengünstiger zu produzieren. U.a. wird der Service auch auf Pixars bereits vorhandene Rechenleistungen für 3D- und Animationsfilme zurückgreifen. Pixar ist allerdings nur eines von vielen Unternehmen, das von der "Cloud Bursting" Anwendung profitieren werden.

Ist "Cloud Bursting" möglicherweise der Geheimfavorit für neue Cloud Geschäftsmodelle in 2012?



Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich

Viele Unternehmen befinden sich derzeit in der Evaluation von Public Cloud Services wie IaaS. Die ersten Gedanken streifen dann die beiden großen und vermeintlich bekanntesten Anbieter in der Szene - die Amazon Web Services und Microsoft Windows Azure.

Beide verfügen mittlerweile über ein sehr umfangreiches und stetig wachsendes Angebot an Cloud Services. Möchte man beide Portfolios jedoch miteinander vergleichen steigen die Herausforderungen mit der Anzahl der Services.

Amazon Cloud vs. Windows Azure

Die folgende Tabelle stellt das Cloud Service Portfolio 1:1 gegenüber und schafft Klarheit, wer in welchem Bereich was anbietet, wie der Name des jeweiligen Service lautet und unter welcher URL weitere Informationen zu diesem zu finden sind.

Funktion

Amazon Web Services

Microsoft Windows Azure

Rechenleistung

Virtuelle Maschinen Elastic Compute Cloud Role Instances
High Performance Computing Cluster Compute Instances HPC Scheduler
MapReduce Elastic Map Reduce Hadoop on Azure
Dynamische Skalierung Auto Scaling Auto Scaling Application Block

Speicher

Unstrukturierter Speicher Simple Storage Service Azure Blob
Flexible Entities SimpleDB Azure Tables
Block Level Storage Elastic Block Store Azure Drive
Archivierung Amazon Glacier
Stroage Gateway AWS Storage Gateway

Datenbanken

RDBMS Relational Database Service SQL Azure
NoSQL DynamoDB Azure Tables

Caching

CDN CloudFront CDN
In-Memory ElastiCache Cache

Netzwerk

Load Balancer Elastic Load Balancer Fabric Controller / Traffic Manager
Hybrid Cloud Virtual Private Cloud Azure Connect
Peering Direct Connect
-
DNS Route 53
-

Messaging & Anwendungen

Async Messaging Simple Queue Service Azure Queues
Push Notifications Simple Notification Service Service Bus
Bulk Email Simple Email Service
Workflows Amazon Simple Workflow Service
Suche Amazon CloudSearch

Monitoring

Ressourcen Monitoring CloudWatch System Center

Sicherheit

Identitätsmanagement Identity Access Management Azure Active Directory

Deployment

Ressourcenerstellung CloudFormation
-
Web Application Container Elastic Beanstalk Web Role


Exklusiv: Interview mit Holger Sirtl von Microsoft Windows Azure

Es wird viel über Cloud Services und deren Anbieter gesprochen und geschrieben. Dabei bleiben jedoch die treibende Kräfte hinter den Angeboten meistens im Schatten. Allerdings sind es gerade sie, die entscheidenden Anteil an der Entwicklung haben. In diesem Interview beantwortet Holger Sirtl aus dem Microsoft Windows Azure Team 10 Fragen zum Thema Cloud Computing.

Holger, stell Dich bitte kurz vor.
Gerne. Mein Name ist Holger Sirtl. Seit ca. 5 Jahren bin ich jetzt bei Microsoft beschäftigt und dort als sogenannter Architect Evangelist zuständig für die Themen Cloud Computing und Windows Azure Platform. Eine wirklich spannende Aufgabe.

Microsoft ist neben den Office- und Collaborationstools mit Windows Azure in der Cloud präsent. Kurz Zusammengefasst, was sind die Stärken von Windows Azure?
Windows Azure ist Microsofts Platform-as-a-Service-Angebot, d.h. die Windows Azure Platform fasst verschiedene Dienste zusammen, die von Entwicklern dazu genutzt werden können, eigene Cloud-basierte Anwendungen zu schreiben und in der Cloud zu betreiben. Die Dienste sind dabei so gehalten, dass sie möglichst einfach genutzt werden können. Dadurch können sich Entwickler wirklich auf ihre Kernaufgabe – das Schreiben von Software – fokussieren. Fragen der zugrundeliegenden Infrastruktur, wie das Konfigurieren virtueller Maschinen, oder des Betriebs wie das Einspielen von Betriebssystem-Upgrades oder Hotfixes bleiben dem Entwickler erspart. Das übernimmt alles die Plattform vollautomatisch.

Welche Funktion in Windows Azure ist für Dich das Highlight?
Natürlich umfasst die Plattform viele tolle Services. Wenn ich aber einen Dienst herauspicken soll, dann vielleicht den Access Control Service, da an ihm das Wesen von „Platform-as-a-Service“ besonders deutlich wird. Du brauchst Authentifizierung über Facebook-ID oder Windows Live ID in Deiner Anwendung? Kein Problem: mit wenigen Mausklicks ist der Access Control Service konfiguriert und in Deine eigene Anwendung – übrigens egal wo sie letztlich betrieben wird – integriert. Programmierung ist dann nur noch zur Auswertung der vom Access Control Service ausgestellten Security Token notwendig.

Werden wir mal generischer. Was sind für Dich DIE Hauptargumente Cloud Computing einzusetzen?
Die Wesensmerkmale der Cloud, d.h. bedarfsgerechte Bereitstellung von quasi beliebig vielen IT-Ressourcen, nutzungsabhängige Abrechnung, standardisierte Zugriffsschnittstellen geben bereits Hinweise auf deren Vorteile: Die Cloud bietet die Möglichkeit, in kürzester Zeit, ohne Vorab-Investitionen IT-Ressourcen zu nutzen und diese Nutzung bei Ende des Bedarfs auch sofort wieder einzustellen. Man zahlt nur für das, was man verbraucht. Durch die Standard-Schnittstellen (z.B. RESTful Services) wird die Nutzung denkbar einfach. Heißt also: wann immer man sich keine großen Gedanken über Kapazitätsplanung machen möchte oder eine solche Planung schwer durchführbar ist (weil man entweder die zukünftige Last schwer abschätzen kann oder die Last stark schwanken wird und man nicht unnötig Ressourcen für vermeintliche Spitzenlasten vorhalten möchte) kann die Cloud ihre Stärken ausspielen. Und das bei minimalem Kostenrisiko für den Nutzer.

Zu Beginn des Cloud Computing Zeitalters war der Tenor, auf Grund von Kosten, Flexibilität etc. Public Clouds zu nutzen. In Private Clouds hingegen würde kein nennenswerter Vorteil gesehen, da die Komplexität im eigenen RZ bleibt bzw. noch erhöht wird. Diese Stimmung hat sich bzgl. Datenschutzthemen etc. geändert. Wie stehst Du zu dem Thema Private oder Public Cloud? Ist die Hybrid Cloud der goldene Mittelweg?
Das Konzept der Private Cloud, d.h. Einsatz von Cloud Technologien (Virtualisierung, automatisierte Provisionierung von IT-Ressourcen etc.) im eigenen Rechenzentrum hat durchaus seine Daseinsberechtigung. Es gibt Fälle, in denen rechtliche Vorgaben oder branchenspezifische Regelungen (z.B. in der Finanzbranche) den Speicherung und Verarbeitung von Daten im eigenen Rechenzentrum erzwingen. Die Private Cloud kann jedoch nicht alle zuvor genannten Stärken der Cloud ausspielen. So sind die zur Verfügung stehenden Ressourcen begrenzt durch die Infrastruktur des eigenen Rechenzentrums. Darüber hinaus fallen Kosten an, die unabhängig von der tatsächlichen Nutzung sind. Sofern die Nutzung gut berechenbar ist (weil z.B. eine gleichmäßige Last auf den Systemen zu erwarten ist) ist dies aber vertretbar. Als Fazit würde ich deshalb formulieren „Public Cloud wo möglich, Private Cloud wo nötig“. Eine Kombination aus Public und Private Cloud ist deshalb in der Tat ein guter Mittelweg. Allerdings werden sich meiner Meinung nach langfristig die Public Cloud Angebote durchsetzen.

PaaS wird im Vergleich zu IaaS und SaaS der größte Wachstumsmarkt in den nächsten Jahren zugesprochen. Woran liegt das Deiner Meinung nach?
Ich denke, auf Infrastruktur-Ebene werden wir in den nächsten Jahren durch Standardisierung der Angebote eine Konsolidierung sehen. Dies hat zur Folge, dass sich Anbieter auf dieser Ebene kaum mehr voneinander differenzieren können und der Wettbewerb primär über den Preis der angebotenen Dienste stattfindet. In der Folge werden die Anbieter zunehmend Dienste auf einer höheren Abstraktionsebene, der Plattform-Ebene, sehen. Die Bereitstellung derartiger Plattform-Dienste wird dabei nicht nur von den großen Cloud-Anbietern sondern auch von vielen anderen Software-Herstellern, die auf die jeweiligen Plattformen aufsetzen, erfolgen. Hier tut sich also ein großer Markt mit entsprechenden Wachstumsprognosen auf. Auf der Software-Ebene sehe ich übrigens durchaus auch ähnliches Wachstum.

Welche weitere Servicesart neben PaaS, IaaS und SaaS wird sich in Zukunft Deiner Meinung nach entwickeln und eine wichtige Rolle spielen?
Das hängt ein wenig davon ab, wie eng oder weit man die genannten Konzepte fasst. Neben diesen Diensten sehe ich noch Potenzial für Integrationsdienste die die Brücke zwischen heterogenen Cloud-Services verschiedener Provider schlagen können. Auch für Business-Process-as-a-Service, d.h. die Weiterentwicklung von SaaS-Diensten zu geschäftsprozessorientierten Diensten sehe ich einen Markt.

Das Thema Closed Source vs. Open Source wird seit Jahren diskutiert. Nun zielt die Thematik ebenfalls auf Cloud Infrastrakturen ab. Wie stehst du zu dem Thema bezogen auf Clouds?
Serviceorientierung ist ein weiteres Wesensmerkmal der Cloud. Zugriff auf die Funktionalität der Services erfolgt über Standardschnittstellen, die innere Funktionsweise der Services ist für die Nutzung irrelevant, d.h. liegt in der Verantwortung des Service Providers. Hier liegt das Optimierungspotenzial für den Provider und auch die Möglichkeit, Wettbewerbsvorteile zu erzielen. Aus diesem Grund liegt es nicht unbedingt im Interesse des Providers, Implementierungsdetails (also auch den Sourcecode) offenzulegen. Das Spiel kann sich ändern, wenn bei der Optimierung ein gewisses Maximum erreicht ist, d.h. Wettbewerbsvorteile kaum mehr erzielt werden können. Dann kann es ein Weg sein, Code offenzulegen, um der eigenen Technologie zu größerer Verbreitung zu verhelfen. Dies ist etwas, was wir im Infrastrukturbereich beobachten. Es ist durchaus interessant, über den Aufbau von Clouds mit Open Source Technologien nachzudenken. Dabei bewegen wir uns allerdings typischerweise im Private-Cloud-Umfeld mit den bereits genannten Einschränkungen.

Microsoft hat sich vor längerer Zeit auch stückweit für das Thema Open Source geöffnet. Wird es Bestrebungen geben, dass sich MS auch in der Cloud für Open Source öffnet oder wäre das zu weit hergegriffen?
Ich denke, Microsoft hat sich dem Thema nie wirklich komplett verschlossen. Tatsächlich sollte man nicht vergessen, dass die große Mehrheit an Open Source Software auf Microsoft-Betriebssystemen läuft. Und hier fügt sich Windows Azure absolut ein. Es ist absolut möglich und willkommen, beispielsweise .NET-, Java- oder PHP-basierte Open Source Software auf Windows Azure zu betreiben. Die Differenzen mit der Community begründen sich wahrscheinlich mit der Tatsache, dass dort Open Source oft gleichgesetzt wird mit der Offenlegung des Sourcecodes oder kostenlosen Bereitstellung des Betriebssystems. Dies ist aktuell bei Windows Azure ebenso wenig gegeben wie bei den anderen Microsoft-Betriebssystemen.

Bisher werden die Office- und Collaborationtools in der Cloud mehr gepushed als Windows Azure. Was können wir in Zukunft von Microsoft noch in der Cloud erwarten?
Dass die Office- und Collaborationtools rund um Office365 sichtbarer vermarktet werden, liegt womöglich daran, dass die Zielgruppe (Fachanwender) breiter gestreut ist als dies bei Windows Azure (Zielgruppe Entwickler) der Fall ist. Von der Bedeutung her sind beide Services gleichwertig. In der Tat ergeben sich in der kombinierten Nutzung von Office365 und Azure ja auch interessante Szenarien. Microsoft ist absolut „Cloud-ready“. Entsprechend werden auch alle Services weiterentwickelt. Azure wird weitere Plattformdienste erhalten, bestehende werden weiterentwickelt. Zum Teil sind Weiterentwicklungen ja auch schon in Form sogenannter Community Technology Previews zugreifbar (z.B. SQL Azure DataSync oder SQL Azure Reporting Services). Darüber hinaus wird Microsoft weiter an der „Symmetrie“ von Cloud und vor-Ort-IT arbeiten. D.h. alle Werkzeuge, Anwendungen, Anpassungen etc., die in der Cloud laufen, werden auch lokal laufen (und umgekehrt). Damit überlässt es Microsoft seinen Kunden und Partnern, den bestgeeigneten Ausführungsort für IT zu bestimmen.