Tag: Private Cloud


Auf zu neuen Ufern – re:Invent 2016: AWS verlässt die Komfortzone

Eine neue Dimension

Eine der vielen Rolltreppen auf der größten AWS re:Invent aller Zeiten. Das Wachstum der Amazon Tochter und die Rolltreppe führen beide aufwärts.

1links2rechts

Wie man im Übersichtsplan gut erkennen kann, dehnt sich die Veranstaltung mittlerweile auf drei große Hotels in Las Vegas aus und die Teilnehmeranzahl wurde in der Keynote mit 32.000 Teilnehmern und Teilnehmerinnen angegeben. Damit zeigt AWS, dass das Wachstum nicht nur bei den lokalen AWS Summits deutlich zulegt, sondern auch das Hauptevent des Jahres noch einmal deutlich an Interesse zulegen kann. Continue reading “Auf zu neuen Ufern – re:Invent 2016: AWS verlässt die Komfortzone” »



Sicherheitsstrategien für die Hybrid Cloud

Im Rahmen einer Digitalisierungsstrategie nehmen Public Cloud-Infrastrukturplattformen eine zentrale Rolle ein. Sie bieten die idealen Vorraussetzungen für einen unkomplizierten Zugriff auf IT-Ressourcen zu jeder Zeit, von jedem Ort und das je nach Bedarf. Public Clouds sind die Brutstätte vieler neuer, zum Teil disruptiver Geschäftsmodelle. Sie bieten zahlreiche Chancen, können gut situierte Unternehmen damit aber auch zunehmend in Schwierigkeiten bringen. Unternehmenslenker und IT-Entscheider sind somit gefordert, eindeutige Akzente in Richtung des digitalen Unternehmens zu setzen. Hierzu gehört das Überdenken des bestehenden Geschäftsmodells und die Anpassung und Neugestaltung sämtlicher Prozessketten. Die IT-Organisation muss sich hierbei in der Rolle des Impulsgebers und Enablers sehen und anhand von Technologien die notwendigen Vorraussetzungen für die Transformation und digitale Geschäftsideen schaffen.

Continue reading “Sicherheitsstrategien für die Hybrid Cloud” »



Enterprise-ready Infrastructure-as-a-Service (IaaS): Darauf sollten CIOs achten

Während der Planung moderner IT-Umgebungen gilt es für CIOs zwei Zielkonflikte aufzulösen. Zum einen haben sie die Aufgabe ihre Applikationen und Systeme mit dynamisch skalierbaren und ausfallsicheren Infrastrukturen und Plattformen zu unterstützen. Zum anderen stehen sie vor der Herausforderung die vollständige Kontrolle über die Daten und Systeme zu behalten, um rechtliche Rahmenbedingungen und Compliance-Regelungen zu erfüllen. Für den Aufbau dieser modernen IT-Infrastrukturen gelten Infrastructure-as-a-Service Umgebungen (IaaS) als gesetzter Standard. Continue reading “Enterprise-ready Infrastructure-as-a-Service (IaaS): Darauf sollten CIOs achten” »



OpenStack Best-Practices: Anforderungen an eine Umgebung auf Enterprise-Niveau

Für einen stabilen und nachhaltigen Einsatz im Unternehmensumfeld haben sich fertige OpenStack-Produkte als die richtige Wahl herauskristallisiert. Denn für einen „grüne Wiese“-Ansatz ist OpenStack zu komplex. Zahlreiche kleine und große Technologieanbieter unterstützen hierbei mit Distributionen professionellen Support, Beratungs- und Integrationsleistungen als auch erweiterten Lösungen für das tägliche Management von OpenStack-Infrastrukturen. Worauf gilt es zu achten, um eine OpenStack-Infrastruktur auf Enterprise-Niveau zu betreiben? Crisp Research hat fünf Anforderungen identifiziert, die dafür ausschlaggebend sind. Continue reading “OpenStack Best-Practices: Anforderungen an eine Umgebung auf Enterprise-Niveau” »



Deutsches Cloud Rechenzentrum: Microsoft zeigt Amazon, Salesforce und Co. wie es richtig geht!

Gutes braucht Zeit. So scheint es auch bei Microsoft der Fall zu sein. Nachdem neben den Amazon Web Services alle relevanten Public Cloud Anbieter mit einem Rechenzentrum den deutschen Markt erreicht haben, startet nun auch das Unternehmen aus Redmond nach zweijähriger Planungsphase seine Cloud-Angebote auf deutschem Boden. Continue reading “Deutsches Cloud Rechenzentrum: Microsoft zeigt Amazon, Salesforce und Co. wie es richtig geht!” »



Cloud-Market Update 2015: Wolkig mit Aussichten auf digitale Unternehmen

Harte Zahlen sprechen für sich. Wer weiterhin annehmen sollte, dass die Cloud ausschließlich eine Spielwiese für Entwickler ist, der muss sich von den 1,8 Milliarden Dollar Umsatz (391 Millionen Dollar Gewinn) der Amazon Web Services (AWS) eines Besseren belehren lassen. Solche Zahlen lassen sich nicht nur mit ein paar kleinen Workloads erzielen, sondern sind ein eindeutiges Indiz für die steigende Bedeutung bei Unternehmenskunden. Die Stärke, die AWS auf dem internationalen Parkett beweist, überträgt sich immer mehr auf Deutschland und wirkt sich positiv auf den deutschen Cloud-Markt aus. Continue reading “Cloud-Market Update 2015: Wolkig mit Aussichten auf digitale Unternehmen” »



Die Suche nach dem heiligen IaaS-Gral

Im Jahr 2014 ist Cloud Computing endgültig auch in Deutschland angekommen. Eine aktuelle Studie der Crisp Research AG unter über 700 deutschen IT-Entscheidern hat gezeigt, dass bei 19 Prozent der Befragten das Cloud Computing fester Bestandteil auf der IT-Agenda und im produktiven IT-Betrieb ist. 56 Prozent der deutschen Unternehmen befinden sich in der Planungs- oder Implementierungsphase und setzen Cloud bereits im Rahmen erster Projekte und Workloads ein. Continue reading “Die Suche nach dem heiligen IaaS-Gral” »



Egal ob Public oder Private, auf eine Cloud kann niemand mehr verzichten!

Im Jahr 2014 befinden wir uns endlich im Jahr der Cloud. Versprochen! Wie schon 2012 und 2013 wird sie auch in diesem Jahr den Durchbruch schaffen. Versprochen! Steht doch überall geschrieben. Legen wir den Sarkasmus mal ein wenig beiseite und schauen der Realität ins Auge, sieht die Wahrheit gar nicht so düster aus. Es kommt nur auf die Form der Cloud an. IDC und Gartner sprechen von Milliarden von Dollar, die in den kommenden Jahren in den weltweiten Public IaaS Markt investiert werden sollen. Crisp Research hat sich für 2013 den deutschen IaaS Markt angeschaut und kommt zu völlig gegensätzlichen Zahlen. In Public IaaS wurden in etwa 210 Millionen Euro, in Private Cloud Infrastrukturen hingegen mehrere Milliarden Euro investiert. Gegensätzlicher können sich zwei Märkte fast nicht verhalten. Aber das ist ok, das ist unsere deutsche Mentalität. Vorsichtig. Langsam. Erfolgreich. Eines sollten sich Unternehmen für 2014 und die kommenden Jahre jedoch auf die Agenda schreiben. Egal ob es nun um eine Public oder Private Cloud geht. Eines ist sicher, auf eine Cloud kann kein Unternehmen mehr verzichten! Garantiert! Warum? Weiterlesen.

Das Bereitstellungsmodell der IT hat sich verändert

Im Kern geht es bei einer Cloud um die Art und Weise wie IT-Ressourcen bereitgestellt werden. Das erfolgt on-Demand über einen Self-Service und nach einem Verrechnungsmodell, dass die Kosten nach dem tatsächlichen Verbrauch bestimmt.

Die oben genannten IT-Ressourcen, in Form von Applikationen (SaaS), Plattformen (Entwicklungsumgebungen; PaaS) und Infrastrukturen (virtuelle Server, Speicherplatz; IaaS), werden als Services bereitgestellt, die sich ein Nutzer bestellen kann. Das bedeutet im Umkehrschluss allerdings auch, dass bei einer gewöhnlichen Virtualisierung nicht aufgehört werden darf. Virtualisierung ist nur ein Mittel zum Zweck. Schließlich muss der Nutzer auch irgendwie an die Ressourcen gelangen. Zum Telefonhörer greifen, die IT-Abteilung anrufen und warten ist kein Zeichen davon, dass eine Cloud-Infrastruktur vorhanden ist. Ganz im Gegenteil.

Über welche Art von Cloud die Ressourcen nun bereitgestellt werden, das ist abhängig vom Use Case. Es gibt nicht die "Über Cloud", die alle Probleme auf einmal löst. Für eine Public Cloud existieren genügend Anwendungsfälle. Sogar für Themen oder Industrien, die im ersten Moment weit weg erscheinen. Unterm Strich handelt es sich in vielen Fällen um eine Frage der Daten. Und genau diese gilt es zu klassifizieren. Dann kann es zur Entscheidung kommen, dass nur eine Private Cloud in Frage kommt. In diesem Fall wird man als Unternehmen dann selbst zum Cloud-Anbieter (mit allen Höhen und Tiefen die ein Public Cloud Anbieter zu bewältigen hat), baut eine eigene Cloud-Infrastruktur auf und versorgt direkt seine internen Kunden. Oder man geht zu einem der Managed Cloud Anbieter, die innerhalb einer dedizierten Umgebung eine Private Cloud exklusiv nur für einen Kunden betreiben und zudem Professional Services im Portfolio haben, die Public Cloud Anbieter in der Regel nur über ein Partnernetzwerk bieten.

Es ist einzig und alleine entscheidend, dass Unternehmen sich einem Cloud-Modell zuwenden, denn ...

Mitarbeiter fordern Services on Demand

Mitarbeiter wollen Service(s) und sie wollen diese(n) jetzt und nicht in zwei Wochen oder drei Monaten. Und wenn sie nicht das bekommen was sie benötigen, dann finden sie einen Weg es zu bekommen. Ehrlich! Es existieren seit geraumer Zeit viele attraktive Alternativen auf dem IT-Markt, die nur ein paar Mausklicks und eine Kreditkartennummer entfernt sind die Bedürfnisse zu befriedigen. Das speziell im IaaS Bereich dann noch sehr viel Arbeit wartet, diese Falle ist den meisten nicht IT-lern erst einmal nicht bewusst. Aber Sie haben augenscheinlich das bekommen, was sie brauchten und wenn es nur der Wunsch nach Aufmerksamkeit war. Der Cloud-Anbieter hat schließlich sofort reagiert. Das Wunder des Self-Service!

IT-as-a-Service ist nicht nur irgendein Buzz-Word. Es ist die Realität. IT-Abteilungen sind dem Druck ausgesetzt, wie eine eigene Business Einheit geführt zu werden und selbst Produkte und Services für das eigene Unternehmen zu entwickeln oder zumindest nach den Bedürfnissen bereitzustellen. Sie müssen daher proaktiv reagieren. Und damit ist nicht das Anlegen von Handschellen gemeint, indem die Ports der Firewall geschlossen werden. Nein, hier geht es darum sich selbst zu hinterfragen.

Das dies funktioniert hat die Deutsche Bahn Tochter DB-Systel eindrucksvoll bewiesen, indem sie den Bereitstellungsprozess mit einer eigenen Private Cloud von 5 Tagen auf 5 Minuten(!) pro virtuellen Server reduziert hat.

Hybrid Cloud im Auge behalten

Bei den ständigen Diskussionen, ob nun eine Public oder Private Cloud in Frage kommt, sollte immer die Option einer Hybrid Cloud im Hinterkopf behalten werden.

Eine Hybrid Cloud ermöglicht einen eindeutigen Use Case für den Einsatz einer Public Cloud. Dabei können bestimmte Bereiche der IT-Infrastruktur (Rechenleistung und Speicherplatz) in einer Public Cloud Umgebung abgebildet werden. Der Rest und unternehmenskritische Bereiche bleiben innerhalb der selbstverwalteten on-Premise IT-Infrastruktur oder Private Cloud.

Darüber hinaus liefert das Hybrid Cloud Modell einen wertvollen Ansatz für das Architektur-Design, indem Teile der lokalen Infrastruktur, die hohe Kosten verursachen, aber gleichermaßen schwierig zu skalieren sind, mit Infrastrukturen kombiniert werden, die massiv skalierbar und bei Bedarf provisioniert werden können. Die Anwendungen und Daten werden auf der für den Einzelfall besten Plattform ausgerollt und die Verarbeitung zwischen beiden integriert.

Der Einsatz hybrider Szenarien bestätigt die Tatsache, dass nicht alle IT-Ressourcen in Public Cloud Umgebungen abgebildet werden sollten und für einige sogar niemals in Frage kommen. Werden Themen wie die Compliance, Geschwindigkeitsanforderungen und Sicherheitsbeschränkungen betrachtet, ist eine lokale Infrastruktur weiterhin notwendig. Die Erfahrungen aus dem hybriden Modell helfen dabei aber zu verstehen, welche Daten lokal bleiben sollten und welche innerhalb einer Public Cloud Umgebung verarbeitet werden können.



Die Cloud Privatisierungswelle rollt – Haben Amazon & Co sich verzockt?

“Going Private” - So lautet die neue Produktstrategie vieler Cloud-Anbieter. Nachdem sich die Unternehmensanwender mehrheitlich immer noch gegen reine Public Cloud-Modelle wehren, rüsten viele Anbieter nach. Selbst Cloud-Primus Salesforce liefert nun Services von dedizierten Umgebungen.In den letzten drei Jahren beherrschten Amazon und Google medial die Cloud-Welt. Kein Artikel kam ohne die Nennung dieser beiden Namen aus. Zu verlockend die Vision, dass zukünftig alle Rechenleistung aus den Rechenzentren der beiden US-Internetkonzerne kommen würde. Die Wachstumsraten der ersten Jahre, die Vielzahl an neuangekündigten Services, die geheimnisumwitterten Mega-Rechenzentren, zu denen weder Journalisten, Analysten oder Kunden je Zugang bekommen. Eine Aura des Mystischen entstand. Ein Cloud-Mythos könnte man sagen. Continue reading “Die Cloud Privatisierungswelle rollt – Haben Amazon & Co sich verzockt?” »



Exklusiv: openQRM 5.1 wird um Hybrid Cloud Funktionalität erweitert und bindet Amazon AWS und Eucalyptus als Plugin ein

Bald ist es soweit. Noch in diesem Sommer wird openQRM 5.1 erscheinen. Projektmanager und openQRM-Enterprise CEO Matt Rechenburg hat mir vorab bereits ein paar sehr interessante neue Features verraten. Neben einem vollständig überarbeiteten Backend-Design wird die Open-Source Cloud Infrastruktursoftware aus Köln um Hybrid-Cloud Funktionalität erweitert, indem Amazon EC2, Amazon S3 und deren Klon Eucalyptus als Plugin eingebunden werden.

Neue Hybrid-Cloud Funktionen in openQRM 5.1

Ein kleiner Überblick über die neuen Hybrid-Cloud Funktionen in der kommenden openQRM 5.1 Version:

  • openQRM Cloud spricht transparent mit Amazon EC2 und Eucalyptus.
  • End-User innerhalb einer privaten openQRM Cloud können sich per Self-Service vom Administrator ausgewählte Instanz-Typen bzw. AMI's bestellen, die dann von openQRM Cloud in Amazon EC2 (oder Amazon kompatiblen Clouds) automatisch provisioniert werden.
  • Benutzerfreundliches Password-Login für den End-User der Cloud per WebSSHTerm direkt im openQRM Cloud Portal.
  • Automatisches Applications Deployment mittels Puppet.
  • Automatische Kostenabrechnung über das openQRM Cloud-Billingsystem.
  • Automatisches Service Monitoring via Nagios für die Amazon EC2 Instanzen.
  • openQRM High-Availability auf Infrastrukturebene für Amazon EC2 (oder kompatible Private Clouds). Das bedeutet: Fällt die EC2 Instanz aus oder tritt in einer Amazon Availability Zone (AZ) ein Fehler auf, wird eine exakte Kopie dieser Instanz neu gestartet. Im Falle eines Ausfalls einer AZ wird die Instanz sogar automatisch in einer anderen AZ derselben Amazon Region wieder hochgefahren.
  • Integration von Amazon S3. Daten lassen sich direkt über openQRM auf Amazon S3 speichern. Beim Erstellen einer EC2 Instanz kann ein Skript, welches auf S3 abgelegt ist mit angegeben werden, was z.B. weitere Befehle beim Start der Instanz ausführt.

Kommentar: openQRM erkennt den Trend genau zur richtigen Zeit

Auch openQRM-Enterprise zeigt mit dieser Erweiterung, dass die Hybrid Cloud ein immer ernst zunehmender Faktor beim Aufbau von Cloud-Infrastrukturen wird und kommt mit den neuen Features genau zur richtigen Zeit. Das Unternehmen aus Köln orientiert sich dabei nicht überraschend am aktuellen Public Cloud Marktführer Amazon Web Services. Damit lässt sich openQRM ebenfalls in Kombination mit Eucalyptus und anderen Amazon kompatiblen Cloud-Infrastrukturen nutzen, um eine massiv skalierbare Hybrid-Cloud Infrastruktur aufzubauen. Dabei setzt openQRM auf sein bewährtes Plugin-Konzept und bildet Amazon EC2, S3 und Eucalyptus genau so ab. Amazon und Eucalyptus werden, neben eigenen Ressourcen aus einer privaten openQRM Cloud, damit zu einem weiteren Ressourcen Provider, um schnell und unkompliziert mehr Rechenleistung zu erhalten.

Zu den absoluten Killerfeatures gehören meiner Ansicht nach das automatische Applications Deployment mittels Puppet, mit dem End-Nutzer sich bequem und automatisiert EC2 Instanzen mit einem vollständigen Softwarestack selbst bereitstellen können, sowie die Berücksichtigung der Amazon AZ-übergreifenden High-Availability Funktionalität, die von vielen Cloud-Nutzern aus Unwissenheit immer wieder vernachlässigt wird.

Viel Beachtung hat das Team ebenfalls der Optik und dem Interface des openQRM-Backends geschenkt. Die vollständig überarbeitete Oberfläche wirkt aufgeräumter und dadurch übersichtlicher in der Handhabung und wird die Bestandskunden positiv überraschen.



Windows Azure Infrastruktur Services – Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Das Microsoft, als eines der weltweit führenden IT-Unternehmen, irgendwann einmal mit einem "Online-Shop" und einem "Suchmaschinenanbieter" um Marktanteile kämpfen muss, hätte in Redmond wahrscheinlich auch niemand jemals zu träumen gewagt. Jedoch ist das die Realität. Amazon ist mit seinen Amazon Web Services (AWS) mit Abstand der Innovationsmotor im Cloud Computing Markt. Und auch Google holt stetig auf. Google hat speziell im Platform-as-a-Service (PaaS) Markt mit der App Engine und dem Software-as-a-Service (SaaS) Markt mit Google Apps bereits gut positionierte Produkte. Amazon ist hingegen im Bereich Infrastructure-as-a-Service (IaaS) der absolute Marktführer. Und hier greift nun auch Microsoft an. Nachdem Windows Azure zu Beginn als reiner PaaS am Markt positioniert wurde, sind sukzessive IaaS Komponenten hinzugefügt worden. Mit seinem neuen Release hat Microsoft nun offiziell die Windows Azure Infrastruktur Services ausgerollt. Für viele kommt dieser Schritt zu spät, da bereits große Marktanteile in diesem Bereich an AWS abgeflossen sind. Allerdings, wo es zunächst nachteilig ausschaut, verbergen sich auch einige Vorteile, die von den meisten übersehen werden.

Windows Azure Infrastruktur Services im Überblick

Grundsätzlich sind die Azure Infrastruktur Services nichts Neues. In einer öffentlichen Release Preview wurden diese bereits im Juni 2012 vorgestellt. Nach Aussage von Microsoft wurden seitdem "... mehr als 1,4 Millionen virtuelle Maschinen erstellt und mit mehreren hundert Millionen Prozessorstunden genutzt." Zudem sollen heute schon mehr als 50 Prozent der Fortune 500 Unternehmen Windows Azure nutzen und dabei insgesamt mehr als vier Billionen Daten und Informationen auf Windows Azure verwalten. Die Kapazitäten für Compute- und Storage-Lösungen verdoppeln sich in etwa alle sechs bis neun Monate. Laut Microsoft melden sich inzwischen täglich fast 1.000 neue Kunden für Windows Azure an.

Mit dem Release der Windows Azure Infrastruktur Services hat Microsoft seinen Cloud Computing Stack nun auch offiziell vervollständigt. Neben dem Betrieb von virtuellen Maschinen umfasst das Update die dazugehörigen Netzwerkkomponenten. Weiterhin bietet Microsoft nun auch Support für virtuelle Maschinen und auch die gängigsten Microsoft Server Workloads wie zum Beispiel Microsoft BizTalk oder SQL Server 2012. Neben Windows wird auf den virtuellen Maschinen auch das Linux Betriebssystem vollwertig unterstützt. Die Windows Azure Virtual Networks sollen zudem einen echten Hybridbetrieb ermöglichen.

Neue Instanzen und aktualisierte SLAs

Neben neuen virtuellen Instanzen mit zum Beispiel mehr Speicherkapazität von 28GB und 56GB, stehen auch vorbereitete virtuelle Images, z.B. vom BizTalk Server und SQL Server zur Verfügung. Vorbereitete Linux-Images, u.a. CentOS, Ubuntu und Suse Linux Enterprise Server (SLES), werden von kommerziellen Händlern bereitgestellt. Weiterhin stehen zahlreiche Open-Source-Anwendungen als vorbereitete Images im VM Depot auf Self-Service-Basis zur Verfügung. Microsoft Server-Produkte einschließlich Microsoft Dynamics NAV 2013, SharePoint Server 2013, BizTalk Server 2013 wurden für die Ausführung auf den virtuellen Maschinen von Microsoft bereits getestet.

Weiterhin wurden die Service Level Agreements (SLAs) überarbeitet. Microsoft garantiert eine 99,95 prozentige Verfügbarkeit inkl. finanzieller Absicherung, wenn es zu einem Ausfall auf Microsofts Seite kommt. Neben einem SLA für die Cloud Services bietet Microsoft sieben weitere SLAs speziell für Speicher, SQL-Datenbank, SQL Reporting, Service Bus, Caching, CDN und die Medienservices.

7/24/365 Support

Ein Microsoft Support-Team steht jeden Tag rund um die Uhr zur Verfügung. Die Support-Pläne unterteilen sich in vier Stufen vom Entwicklersupport bis hin zum Premier Support.

Preissenkungen für virtuelle Maschinen und Cloud-Services

Wie Amazon AWS gibt auch Microsoft seine Ersparnisse durch den Economies of Scale an seine Kunden weiter. Dazu stehen ab sofort folgende neue Preise und Erweiterungen bereit:

  • Virtuelle Maschinen (Windows, Standardinstanzen) gibt es bis zum 31. Mai zu reduzierten Preisen. Die neuen allgemeinen Verfügbarkeitspreise gelten ab dem 1. Juni 2013. Für eine kleine Instanz gilt der neue Preis 0,0671 € pro Stunde.
  • Die Preise für virtuelle Maschinen (Linux) für Standardinstanzen wurden um 25 Prozent gesenkt. Ab dem 16. April 2013 werden die Preise für kleine, mittlere, große und sehr große Instanzen um 25 Prozent gesenkt. Der Preis für eine kleine Linux-Instanz beispielsweise wird von 0,0596 €pro Stunde auf 0,0447 € pro Stunde in allen Regionen gesenkt.
  • Die Preise für virtuelle Netzwerke starten bei 0,0373 € pro Stunde, gültig ab dem 1. Juni 2013. Bis zum 1. Juni können Kunden das virtuelle Netzwerk kostenlos nutzen.
  • Die Preise für Cloud-Services für Web- und Workerrollen wurden um 33 Prozent für Standardinstanzen gesenkt. Ab dem 16. April 2013 sinkt der Preis für kleine, mittlere, große und sehr große Instanzen um 33 Prozent. Der Preis für eine kleine Workerrolle beispielsweise wird von 0,0894 € pro Stunde auf 0,0596 € pro Stunde in allen Regionen gesenkt.

Nicht zu spät für den großen Teil vom Kuchen

Auch wenn Microsoft in dem mittlerweile sehr stark umkämpften Markt für Infrastructure-as-a-Service spät dran ist, bedeutet es nicht, dass der Zug abgefahren ist. In vielen Ländern beginnt gerade erst die Adaption des Cloud Computing. Darüber hinaus wird das große Geld bei den etablierten Unternehmenskunden verdient und erst dann bei den Startups dieser Welt. Das hat auch Amazon verstanden und entsprechende Maßnahmen eingeleitet.

Weiterhin nimmt die Bedeutung der Private Cloud und somit auch der Hybrid Cloud weltweit zu. Und hier sieht das Blatt dann bereits ganz anders aus. Microsoft hat mit seinem Windows Server 2012 ein gut platziertes Produkt für die Private Cloud, was sich nahtlos mit Windows Azure integrieren lässt. Hier kann Amazon AWS nur über eine mögliche Eucalyptus Acquisition schnell aktiv werden. Eine erste intensive Kooperation beider Unternehmen besteht bereits.

Allerdings, die Windows Azure Infrastruktur Services sind in erster Linie Public Cloud Services. Und hier muss man sagen, dass die Vielfalt des Service-Portfolios der Amazon Web Services noch deutlich größer ist als das von Windows Azure. Zum Beispiel fehlen Services wie Elastic IP oder CloudFormation. Dennoch, Microsoft ist mit seinem Portfolio derzeit der einzige Public Cloud Anbieter am Markt, der Amazon AWS ernsthaft gefährlich werden kann. Denn "Infrastruktur bedeutet mehr als nur Infrastruktur" und daher heißt es "die Infrastruktur nutzbar machen".

Siehe: Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich (wird aktualisiert)

Und was ist mit Google?

Google darf auf keinen Fall unterschätzt werden. Im Gegenteil, aus einem ersten Performance-Vergleich zwischen der Google Cloud Platform und Amazon AWS ging Google als Sieger hervor. Allerdings beschränkt sich das aktuelle Serviceportfolio der Google Cloud Platform im Kern auf Rechenleistung, Speicherplatz und Datenbanken. Weitere Mehrwertservices, die auf der Plattform aufsetzen, fehlen noch. Darüber hinaus ist Google derzeit als reiner Public Cloud Anbieter zu sehen. Im Private/ Hybrid Cloud Umfeld sind bisher keine Produkte zu finden. Hier müsste mit Kooperationen bzw. Akquisitionen nachgebessert werden, um auch in Zukunft die Bedürfnisse von konservativen Unternehmenskunden zu befriedigen. Zumal Google weiterhin ein nicht zu unterschätzendes Reputationsproblem hinsichtlich Datenschutz und Datensammelwut hat. Hier muss noch mehr Transparenz gezeigt werden.

Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Mit der offiziellen Veröffentlichung der Windows Azure Infrastruktur Services hat Microsoft damit begonnen zu den Amazon Web Services im Infrastructure-as-a-Service Markt aufzuschließen. Von einem Spiel auf Augenhöhe kann hier aber noch nicht die Rede sein. Denn etwas Neuartiges oder gar Innovationen lassen sich im neuen Azure Release nicht finden. Stattdessen wird lediglich versucht den Technologievorsprung von Amazon AWS mit der Erweiterung von Infrastruktur-Ressourcen aufzuholen, mehr aber nicht. Dabei darf man nicht den Innovationsgrad von Amazon unterschätzen, die in regelmäßigen Abständen ihre Cloud Plattform mit weiteren disruptiven Services und Funktionen ausbauen.

Dennoch, für das attraktive Umfeld für Unternehmenskunden ist Microsoft in einer guten Ausgangsposition und hat sein Portfolio mit den Azure Infrastruktur Services um eine weitere wichtige Komponente gegenüber Amazon erweitert. Darüber hinaus verfügt Microsoft bereits über eine sehr große on-Premise Kundenbasis, die nun in die Cloud überführt werden muss. Darunter renommierte und finanziell gut aufgestellte Unternehmen. Und das ist genau der Bereich in dem Amazon erst noch Vertrauen aufbauen muss. Zudem sollte man den stetig wachsenden Private Cloud Markt nicht vernachlässigen. Hier sehen die Karten auf beiden Seiten gleich ganz anders aus.

Das Microsoft im IaaS Bereich noch nicht auf Augenhöhe mit Amazon ist, bedeutet nicht, dass sie nicht erfolgreich sein werden. Es ist zwangsläufig nicht entscheidend, als erster am Markt zu sein und das beste Produkt zu haben, sondern seine bestehenden und potentiellen Kunden davon zu überzeugen, einen Mehrwert zu bieten. Und es wäre nicht das erste Mal, dass Microsoft dies schaffen würde.



Die Amazon Web Services (AWS) nutzen möglicherweise Eucalyptus für den Bau der CIA Private Cloud

Es verdichten sich immer mehr die Gerüchte, dass Amazon für die CIA eine eigene Private Cloud für die Spionage bauen soll. Die erste Frage die sich dabei stellt ist natürlich warum für einen Geheimdienst? Die zweite, warum Amazon AWS als Public Cloud Anbieter, die Serviceanbieter und kein Softwareanbieter sind. Denkt man ein wenig weiter, kommt sofort Eucalyptus ins Spiel.

Der Amazon Deal mit der CIA

Laut der Federal Computer Week, haben die CIA und die Amazon Web Services (AWS) einen 600 Millionen Dollar schweren Vertrag mit einer Laufzeit von 10 Jahren abgeschlossen. Dabei geht es darum, dass Amazon AWS für die CIA eine Private Cloud auf der Infrastruktur der Regierung bauen soll. Viel mehr Informationen gibt es derzeit nicht.

Stellt sich dennoch die Frage, warum die CIA Amazon gefragt hat. Steckt hinter den $$$ noch mehr? Eines ist klar. Amazon gehört zu den wenigen Unternehmen, die über die Kenntnisse und Mitarbeiter verfügen, um sehr erfolgreich eine Cloud Infrastruktur zu betreiben. Trotz manch vermeidbarer Ausfälle, ist die Infrastruktur als äußerst robust und smart entwickelt einzuschätzen. Allerdings hat Amazon einen Nachteil. Sie sind Serviceanbieter und kein Softwareanbieter. Das bedeutet sie haben keine Erfahrung damit, wie man Software ausrollt, Kunden mit Updates usw. versorgt. Zudem werden sie wahrscheinlich bzw. hoffentlich nicht den selben Quellcode für die Cloud der CIA verwenden.

Hier könnte nun aber eine Kooperation ins Spiel kommen, die Amazon vor längerer Zeit mit Eucalyptus eingegangen ist und damit das Problem der nicht vorhandenen Software für on-Premise Clouds und die Erfahrung mit der Wartung usw. von Software für Kunden behebt.

Die Kooperation zwischen Amazon AWS und Eucalyptus

Kurz zusammengefasst handelt es sich bei Eucalyptus um einen eigenständigen Fork der Amazon Cloud, mit dem eine eigene Cloud mit den grundlegenden Eigenschaften und Funktionen der Amazon Cloud nachgebildet werden können.

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus haben im März 2012 angekündigt, in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen. Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Amazon Eucalyptus Private Cloud für die CIA

Diese Kooperation könnte nun erste Früchte für beide, Amazon als auch Eucalyptus, tragen. Durch die sehr nahe Ähnlichkeit von Eucalyptus zur Amazon Cloud, steht bereits eine fertige und direkt einsetzbare Cloud Software zur Verfügung, die Amazon kennt und sein weiteres Wissen mit einbringen kann. Services, die Eucalyptus noch nicht unterstützt, von der CIA aber benötigt werden, können successive nachgebaut werden.
Das könnte Eucalyptus wiederum bei der eigenen Weiterentwicklung helfen, indem entweder Kenntnisse aus deren Entwicklung oder gar Teile von Services in das generelle Produkt zurückfliessen.

PS:

Ich habe mit der nun scheinbar offiziellen Zusammenarbeit zwischen Amazon und der CIA so meine Probleme. Ein Stichwort heißt hier Vertrauen, was Amazon durch die Kooperation mit einem Geheimdienst für sich nicht weiter fördert.



Der Cloud Computing ROI: Kosten sagen nicht immer viel aus!

Wie der Return on Investment (ROI) des Cloud Computing bestimmt werden kann, habe ich in diesem Artikel bereits beschrieben. Die Praxis zeigt jedoch, dass es meistens gar nicht so leicht umsetzbar ist und andere Werte im Vordergrund stehen sollten.

Der Return on Investment

Der Begriff Return on Investment (deutsch Kapitalverzinsung, Kapitalrendite oder Anlagenrendite) bezeichnet ein Modell zur Messung der Rendite einer unternehmerischen Tätigkeit, gemessen am Gewinn im Verhältnis zum eingesetzten Kapital. Der ROI beschreibt als Oberbegriff für Renditekennzahlen sowohl die Eigenkapitalrendite als auch die Gesamtkapitalrendite.

Quelle: Wikipedia.de

Der Nutzen sollte vor den Kosten stehen

Der erfolgreiche Einsatz von Cloud Computing lässt sich nicht immer in Zahlen ausdrücken. Daher lässt sich der ROI des Cloud Computing am besten aus dem Nutzen bestimmen. Administratoren und CIOs sollten dazu auf die offensichtlich Werte achten, die beim Einsatz entstehen. Sie sollten sich z.B. fragen, was sie von der Nutzung eines bestimmten Service erwarten können. Auf dieser Basis lassen sich weitere, auf den Nutzen bezogene, Fragen entwickeln, die sich nicht auf das Finanzielle konzentrieren. So können bspw. Metriken entwickelt werden, die sich auf den sichtbaren Nutzen eines Cloud Service beziehen, den dieser in der Lage ist zu liefern. Metriken könnten sein:

  • Wie schaut es mit dem Support und weiteren Services aus, die durch den Anbieter bereitgestellt werden?
  • Können Einsparungen erzielt werden?
  • Wie kompliziert ist der Abrechnungsvorgang?
  • Wie ist die Benutzerfreundlichkeit des Service?
  • Ist die dynamische Nutzung durch den neuen Service gewährleistet?
  • Wie flexibel ist der neue Service in Bezug auf Veränderungen und wechselnder Anforderungen?
  • Wie schnell kann der neue Cloud Service adaptiert und bereitgestellt werden?
  • Wie sehen die Wartungs- und Upgradekosten sowie die Ausfallzeiten im Vergleich zum Cloud Service aus?
  • Wie ist der Einfluss auf das Unternehmen, wenn Services in Zukunft aus der Cloud bezogen werden?
  • Wie sehen die Risiken in Bezug auf die Unternehmensprozesse und gespeicherten Daten in der Cloud aus?
  • Konnte die Zufriedenheit meiner Mitarbeiter erhöht werden?
  • Hat sich die Agilität und Flexibilität verbessert?

Agilität, Flexibilität und Zufriedenheit stehen vor den Kosten

Bewusst rate ich bei der Bewertung des Cloud Computing nicht immer nur auf die reinen Kosten zu schauen. Denn was nützt es, wenn ich mit einer on-Premise Lösungen nach fünf Jahren zwar günstiger fahre als mit Cloud Services, in dieser Gleichung aber vernachlässige, dass ich als Unternehmen auch innerhalb dieser fünf Jahre Wartungskosten für Updates, Serverhardware usw. habe. Klar, wenn ich einmal kräftig investiere und meine eingekauften Ressourcen über einen sehr langen Zeitraum nutze, ohne diese zu erneuern, fahre ich definitiv günstiger als mit einem Cloud-Modell, wo ich monatliche bzw. jährliche Beiträge zahle. Was allerdings beachtet werden sollte ist, dass ich damit ständig den aktuellen Trends hinterher hänge und vor allem niemals die neueste Softwareversion einsetze. Investiere ich also Anfangs eine hohe Summe in Softwarelizenzen und lasse meine Mitarbeiter sechs bis sieben Jahre mit veralteten Softwareversionen arbeiten, spare ich natürlich langfristig. Ähnlich verhält es sich mit Hardware. Aber mache ich meine Mitarbeiter damit auch glücklich und vor allem produktiv? Nein!

Cloud Computing optimiert sämtliche technologische Prozesse und führt zu mehr Effizienz. Zudem verkürzt es den Zugriff auf Ressourcen und erhöht damit die Innovationsfähigkeit des Unternehmens. Mitarbeiter können dadurch schneller auf Informationen und Applikationen zugreifen, wodurch sie Informationen kurzerhand analysieren und sofort Entscheidungen treffen können. Mit einem ortsunabhängigen Zugriff auf die Daten lässt sich darüber hinaus die Produktivität jedes einzelnen Mitarbeiters erhöhen.

Entwickler fragen nach der on-Demand Bereitstellung von Ressourcen

Diese Bestätigung habe ich von einem Manager eines deutschen DAX-Konzerns, der mit seinem Team eine Private Cloud aufgebaut hat, um den internen Bereitstellungsprozess von Ressourcen (Server) für die Entwickler zu optimieren und zu standardisieren. Jahrelang waren die Entwickler gezwungenermaßen darauf angewiesen, einen Bereitstellungsprozess für physikalische Server zu nutzen, der ewig dauerte. Das führte dazu, dass manche Projekte entweder mit Verzögerung fertiggestellt wurden oder überhaupt nicht durchgeführt werden konnten. Mit einem Workaround, der vom Standardprozess abwich, wurde ein externer Dienstleister ins Boot geholt, der virtuelle Server innerhalb von 5 Tagen bereitstellte. Allerdings waren die Entwickler hier auf die Software des Anbieters angewiesen, da dieser nicht den Softwarestack des DAX-Konzerns unterstütze. Folge: Ein qualitativ schlechter Entwicklungsprozess, da die Software auf den virtuellen Servern nicht zu der auf der späteren Live-Plattform kompatible war.

Mit dem Aufbau einer Private Cloud wurde diese Gesamtsituation nun gelöst. Server werde jetzt innerhalb von 5 Minuten bereitgestellt. Da ein Unternehmen bei einer Private Cloud allerdings vollständig in die eigenen Infrastrukturressourcen investieren muss, würde der ROI negativ ausfallen, wenn man sich nur an den harten Zahlen orientiert.

Entwickler fragen nach der on-demand Bereitstellung von Ressourcen. So ist es bei dem DAX-Konzern und so ist es auch bei anderen Unternehmen. Einfach mal die Entwickler direkt fragen. Leider fließt der Wert, der aussagt, dass ein Entwickler bzw. Mitarbeiter zufrieden arbeitet, niemals in den ROI ein. Das sollte er aber. Denn die Agilität, Flexibilität und Zufriedenheit sollten einen ebenso großen Stellenwert einnehmen wie die reinen Kosten.



Amazon kauft Eucalyptus Cloud – Es ist nur eine Frage der Zeit

In der Public Cloud sind die Amazon Web Services (AWS) derzeit die unangefochtene Nummer Eins. Bei Private bzw. Hybrid Cloud Lösungen sind Anbieter wie Microsoft oder HP allerdings besser aufgestellt. AWS selbst hat hier zur Zeit kein eigenes Angebot zu bieten. Stattdessen wurde im März 2012 eine exklusive Kooperation mit Eucalyptus Systems eingegangen, die ein Abbild der grundlegenden AWS Funktionen bieten. Diese strategische Entscheidung ist nachvollziehbar und wird Folgen für die Zukunft haben.

Die Kooperation zwischen AWS und Eucalyptus

Im März 2012 haben AWS und Eucalyptus Systems, Anbieter einer Private Cloud Infrastruktur-Software, mit der sich die grundlegenden Funktionen der Amazon Cloud auch im eigenen Rechenzentrum aufbauen lassen, sich zu einer engeren zusammenarbeiten entschlossen. Diese Kooperation ging verstärkt von Eucalyptus CEO Marten Mickos aus und hat den Hintergrund, die Migration von Daten zwischen der Amazon Cloud und Eucalyptus Private Clouds besser zu unterstützen.

Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst konzentrieren sich Entwickler aus beiden Unternehmen darauf, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Der Mitbewerb holt auf

Auch wenn es in der Public Cloud derzeit sehr rosig aussieht, die Zukunft liegt in der Hybrid Cloud. Hinzu kommt, dass viele Unternehmen eher mit einer eigenen Private Cloud liebäugeln, als in die Public Cloud zu wechseln. Das bedeutet, dass die Private bzw. die Hybrid zunehmend an Bedeutung gewinnen. Hier haben die Amazon Web Services, bis auf die Virtual Private Cloud, jedoch selbst nichts zu bieten. Microsoft und HP verfügen bereits über ein sehr ausgeglichenes Portfolio, das sowohl Lösungen und Angebote für die Public als auch für die Private Cloud bietet. Weiterhin verfügen beide über eine große Kundenbasis.

Außerdem ist ein weiterer Punkt klar. Wo sich Microsoft und HP auf Unternehmen konzentrieren, sind die Amazon Web Services derzeit noch verstärkt das Mekka für Startups. Der Erfolg spricht für sich. Dennoch, schaut man sich Amazons Bemühungen in den letzten Monaten an, ist die Zielrichtung klar. AWS muss und will in die Unternehmen. Das ist jedoch nur mit einer echten Private/ Hybrid Cloud Strategie möglich. Amazon wird daher irgendwann an einem Punkt ankommen, wo es aktiv darum geht, auch diese Märkte aggressiv zu erobern.

Amazon ist ein Serviceanbieter

Bisher hat AWS im Cloud-Umfeld keine Akquisitionen getätigt, da sie es einfach nicht mussten. Als Innovation-Leader setzen sie die Maßstäbe in der Public Cloud. In der Private/ Hybrid Cloud sieht es jedoch anders aus. Hier besteht, meiner Einschätzung nach, so gut wie keine Expertise. Auch wenn Amazon eigene Rechenzentren betreibt, ist der Betrieb einer quasi Standardlösung für Unternehmen anders. Hier haben Microsoft oder HP jahrelange Erfahrungen und somit einen klaren Vorteil. Die Amazon Web Services sind ein typischer Service-Anbieter. Das bedeutet, sie liefern ihre Services aus der Cloud aus, die einfach nur konsumiert werden sollen. Cloud-Software für den Massenmarkt wird nicht entwickelt. Für das Bereitstellen, Ausliefern, Warten und Ausrollen von Updates und neuer Versionen sowie die Kunden zu besänftigen fehlt die Erfahrung. Daher ist die Kooperation mit Eucalyptus der erste richtige Schritt gewesen. Was nicht zum Kerngeschäft gehört wird ausgelagert. So wie Amazon Cloud Computing vermarktet, scheinen sie es auch selbst zu leben.

Dennoch wird Amazon mehr Einfluss auf auf die Private und Hybrid Cloud nehmen und ebenfalls ein Stück von diesem Kuchen genießen wollen. Daher wird der nächste logische Schritt darin bestehen, Eucalyptus Systems zu kaufen. Zum Einen geht es um mehr Einfluss auf Eucalyptus. Denn auch auch wenn Marten Mickos die Kooperation mit AWS vorangetrieben hat, wird er sich nicht allem beugen, was Amazon verlangt. Auf der anderen Seite muss die Hybrid Cloud Integration gestärkt werden. Hinzu kommt, dass für die Private Cloud Beratung qualifiziertes Personal benötigt wird, das Eucalyptus inkl. seiner Partnerunternehmen ebenfalls mitbringt.

Es ist nur eine Frage der Zeit

Wann Eucalyptus Systems von Amazon übernommen wird ist eine Frage der Zeit. Vielleicht schon in 2013 oder doch erst in 2014/ 2015. Auf jedenfall wird es dazu kommen. Wie Eucalyptus dann integriert wird ist schwer zu sagen. Ich gehe davon aus, dass Eucalyptus zunächst eigenständig agieren wird und als "Ein Amazon Unternehmen" unter die Dachmarke von Amazon gesetzt wird. Ganz nach dem Motto, konzentriere dich auf dein Kerngeschäft, wird AWS sich weiterhin auf die Public Cloud konzentrieren und in Ruhe schauen, wie sich die Hybrid und Private Cloud, unter dem eigenen Einfluss, entwickeln wird. Auf jedenfall hätten sie mit Eucalyptus dann schon einmal die richtige Lösung für ihre Zwecke im eigenen Portfolio.



Microsoft Lösungen für die Private Cloud

Angesichts aktueller politischer Entwicklungen in Deutschland, die es deutschen Behörden ermöglichen sollen, Daten in der Cloud abzugreifen, wird sich der Trend in Unternehmen verstärken, eine eigene Private Cloud aufzubauen. Ein Grund, aktuelle Lösungen zu evaluieren. Nachdem ich vor kurzem mit openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula einige Open-Source Kandidaten vorgestellt habe, sind heute die Lösungen von Microsoft an der Reihe. Insbesondere der neue Microsoft Windows Server 2012 und Hyper-V bringen interessante Microsoft Cloud Ansätze in das eigene Rechenzentrum.

Microsoft in der Private Cloud

Eine Private Cloud bedeutet, die Konzepte einer Public Cloud - u.a. Flexibilität, Skalierbarkeit und Self-Service - in das eigene Rechenzentrum zu übertragen. Hier sei noch einmal angemerkt, dass eine einfache Virtualisierung NICHT einer Private Cloud entspricht. Zu einer Cloud gehören u.a. die drei oben genannten Eigenschaften, die von der gewöhnlichen Virtualisierung so nicht erfüllt werden.

Microsoft ermöglicht mit seinen Lösungen das Abbilden von Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS) sowohl in der Private als auch in der Public Cloud. Dieses hat den Vorteil Daten und Anwendungen bspw. primär lokal im eigenen Rechenzentrum zu speichern und im Bedarfsfall in die Public Cloud zu skalieren.

IaaS stellt dabei Infrastrukturressourcen wie Rechenleistung, Speicherplatz und Netzwerkkapazitäten als Service bereit, PaaS hingegen Anwendungsplattformen als Service.

Was wird für eine Private Cloud à la Microsoft benötigt?

Für den Aufbau einer Microsoft Private IaaS-Umgebung wird der Windows Server Hyper-V, das Microsoft System Center sowie das Microsoft System Center Virtual Machine Manager Self-Service Portal benötigt, wodurch sich eine dedizierte Cloud-Umgebung inkl. Self-Service Möglichkeiten bereitstellen lässt.

Darüber hinaus ermöglichen die Private Cloud Services die nahtlose Anbindung an Microsoft Public Cloud Infrastruktur Windows Azure. Somit lassen sich neben einer Ressourcenskalierung ebenfalls Applikationsframeworks und Identitymanagement-Tools nutzen, um die Private mit der Public auf Basis einer Hybrid Cloud zu integrieren.

Hyper-V

Hyper-V ist Microsofts Technologie für die Servervirtualisierung. Er setzt auf dem Windows Server 2012 auf und bildet die Grundlage einer Microsoft Private Cloud. Damit lassen sich mehrere Server als virtuelle Maschinen (VMS) auf einer physikalischen Hardware betreiben. Hierzu unterstützt Hyper-V parallel unterschiedliche Betriebssysteme, darunter u.a. Windows und Linux auf x64-Hardware.

System Center

Das System Center ist der Dreh- und Angelpunkt der Private Cloud und unterstützt bei der Verwaltung der physikalischen, virtuellen als auch Cloud-Infrastruktur. Dazu gehören neben dem Management der skalierbaren Rechenzentrumsinfrastruktur und geschäftskritischer Workloads ebenfalls die Steuerung standardisierter Prozesse für die Verwaltung des Rechenzentrums und der Verwaltungs-Workflows. Weiterhin bietet das System Center Self-Service-Funktionen, mit denen Nutzer die benötigten IT-Ressourcen konsumieren können.

Virtual Machine Manager SSP 2.0

Das Virtual Machine Manager Self-Service Portal setzt auf den Windows Server Hyper-V und das System Center auf. Es handelt sich dabei um eine kostenlose und fertige Lösung, mit der sich Ressourcen in einem Rechenzentrum dynamisch zu Gruppen zusammenfassen lassen, um damit die Private Cloud mit den notwendigen Ressourcen zu versorgen. Weiterhin lassen sich einzelne oder Gruppen von Ressourcen unterschiedlichen Abteilungen zuordnen und z.B. virtuelle Maschinen über ein Self-Service-Portal bereitstellen.

Kombination mit der Microsoft Public Cloud

Auch wenn der Artikel zu Beginn die politischen Einflüsse auf die Public Cloud sensibilisiert hat, gibt es dennoch Szenarien, bei denen eine Public Cloud weiterhin in Frage kommen kann. Es kommt auf die Sensibilität der Daten an und wie ein Unternehmen damit selbst umgehen möchte.

Die Microsoft Private Cloud Services lassen sich ebenfalls mit Microsofts Public Cloud verbinden, um evtl. Lastspitzen auszugleichen oder die Zusammenarbeit in unterschiedlichen Regionen zu verbessern. Hier ein paar Einsatzmöglichkeiten.

SharePoint Online & Office 365

Wollen sich Unternehmen weltweit vergrößern, muss auch die IT mitwachsen. Das stellt bei on-Premise Lösungen finanzielle und zeitliche Herausforderungen dar. Einfacher ist es, neue Standorte über Cloud Lösungen anzubinden und den Mitarbeitern damit denselben Zugriff auf Dokumente und Applikationen zu ermöglichen wie den Mitarbeitern in der zentralen Niederlassung.

Hier können SharePoint Online und Office 365 helfen. Beide ermöglichen die standortübergreifende Zusammenarbeit und den Datenaustausch zwischen Mitarbeitern an geographisch unterschiedlichen Orten.

Exchange Online

Wie beim Austausch von Daten und der globalen Zusammenarbeit verhält es sich beim Thema E-Mail. Vergrößert sich ein Unternehmen überregional oder gar global stehen IT-Entscheider vor denselben Herausforderungen. Eine Private Cloud auf Basis von Microsoft lässt sich zum einen mit Exchange Online erweitern, um den wachsenden Speicherbedarf gerecht zu werden. Darüber hinaus können Mitarbeiter über eine simple URL auf die Exchange-Dienste in der Private oder Public Cloud zugreifen.

SQL

Wer an Microsoft und Datenbanken denkt, dem fällt zunächst Microsoft Access ein. Für Leute, die mehr Performance benötigen der Microsoft SQL-Server. Wohlgemerkt verschlingt, insbesondere ein Datenbankserver, massiv an Hardware und benötigt eine Menge Performance um die heutigen Anforderungen zu erfüllen.

Eine Microsoft Alternative aus der Cloud heißt SQL Azure. Dabei handelt es sich um einen vollständig verwalteten SQL-Server in Microsofts Public Cloud, der weltweit zur Verfügung steht.

Applikationsskalierung

In Zeiten globaler Vernetzung und des Internets lassen sich die benötigten Ressourcen für eine Applikation nur noch schwer einschätzen. Eine einzige Marketingaktion kann entscheidend für den Erfolg oder Misserfolg (Applikationen bricht unter der Last zusammen.) eines neuen Service sein. Gegensteuern lässt sich nur mit hohen Investitionen in die eigene Infrastruktur, ohne genau zu wissen, ob die Ressourcen tatsächlich benötigt oder ob sie gar überhaupt ausreichen werden.

Public Cloud Infrastrukturen sind dynamischer, da hier grundsätzlich mehr Ressourcen zur Verfügung stehen als es ein Unternehmen in der Regel im eigenen Rechenzentrum kann. So lassen sich Applikationen in der Cloud ebenfalls während Spitzenlasten ausfallsicher und skalierbar betreiben. Nehmen die Zugriffe zu, werden weitere Ressourcen automatisch hinzugefügt und wieder entfernt, wenn der Ansturm vorbei ist. Dabei kann die Applikation entweder direkt in der Public Cloud betrieben werden oder zunächst in der Private Cloud laufen und bei Bedarf weitere Ressourcen aus der Public Cloud anfordern (Hybrid Cloud).

Zu beachten ist hier jedoch, dass Applikationen, seien sie lokal oder bereits direkt für die Cloud gedacht, auch für die Cloud entwickelt werden müssen.



Hitachi und Infosys starten Initiative für Private Clouds

Hitachi Data Systems (HDS) und Infosys unterstützen Unternehmen künftig gemeinsam bei der Einführung von Private Clouds für geschäftskritische Anwendungen. Als technologische Basis wird hierbei insbesondere die vorvalidierte Hitachi Unified Computer Plattform (UCP) Select für Microsoft Exchange Server 2012 dienen, die Server, Storage und Netzwerkkomponenten enthält. Anwender können die konvergente Infrastruktur auch für den Einsatz mit Microsoft-SharePoint-Anwendungen nutzen. HDS und Infosys werden hierzu gemeinsam Architekturen entwickeln und technische Trainings sowie Zertifizierungsprogramme anbieten.

Konvergente Infrastruktur mit 99,999 Prozent Verfügbarkeit

Die jüngst vorgestellten konvergenten Infrastrukturen von HDS bieten Anwendern die notwendige Leistungsfähigkeit und Skalierbarkeit für den Einsatz in privaten Cloud-Umgebungen. Die Verfügbarkeit von Anwendungen und Services liegt bei 99,999 Prozent. Durch die gemeinsame Nutzung der UCP können Infosys und HDS Vor-Ort-Cloud-Lösungen und Rechenzentrums-Hosting für Dritte bei extremer Skalierbarkeit anbieten: Bis zu 96.000 Mailboxen lassen sich – unterstützt durch Mailbox Availability Group (DAG) – hochverfügbar erstellen und betreiben. Außerdem sind ein N+1 Server Failover sowie RAID-Schutz auf Enterprise-Level möglich.

Im Zuge der weltweiten Partnerschaft unterstützt HDS auch das Infosys Cloud Ecosystem Hub, das im August 2012 vorgestellt wurde. Der Hub bietet umfangreiche Lösungen, mit deren Hilfe Unternehmen Cloud-Services über verschiedene Umgebungen hinweg erstellen, einführen und betreiben können.

Kernpunkte der Partnerschaft von HDS und Infosys

Beide Unternehmen arbeiten seit über zehn Jahren zusammen. Die jetzt erweiterte Kooperation enthält:

  • Solution Development: Gemeinsames Entwerfen von konvergenten Infrastrukturen für den Einsatz in Cloud-Umgebungen, unter anderem für Microsoft Lync, Exchange und SharePoint sowie Cisco UCS-Migrationen. Hitachi Data Systems und Infosys planen den Ausbau des Angebots an konvergenten Infrastrukturen, um künftig auch Big Data und Content Management abbilden zu können.
  • Schulungen und Zertifizierungsprogramme: Neue Schulungen und technologische Zertifizierungsprogramme für HDS-Speichertechnologie.
  • Gemeinsame Sales-Ansätze: Enterprise-Anwender auf breiter Front mit führenden Storage- und IT-Lösungen versorgen durch gemeinsame Sales- und Marketing-Programme.


HP Discover: HP erweitert das HP CloudSystem um KVM

HP hat sein Converged-Cloud-Portfolio erweitert. Das HP CloudSystem wurde überarbeitet und unterstützt jetzt Kernel-based Virtual Machines (KVMs). Die neue Version 3.1 von HP Cloud Service Automation (CSA) bietet zudem neue Funktionen für die Verwaltung, die Nutzung und das Brokerage von Cloud-Diensten. Diese richten sich an Service Designer, Cloud-Konsumenten sowie -Administratoren. Die neue Version 1.1 von HP Continuous Delivery Automation (CDA) stellt Anwendungen in Cloud-Umgebungen automatisch bereit. Das aktualisierte Converged-Cloud-Portfolio soll Unternehmen dabei helfen, Cloud-Services und -Anwendungen schnell und fehlerfrei zu implementieren.

Die neuen Funktionen des HP CloudSystem

  • Eine offene, erweiterbare Plattform für heterogene IT-Umgebungen. Diese unterstützt neben Virtualisierungstechnologien von HP, Microsoft und VMware jetzt auch Kernel-based Virtual Machines (KVMs), also die Linux-Kernel-Virtualisierung. Um KVMs zu verwalten und bereitzustellen hat HP OpenStack-Technologien direkt in HP CloudSystem integriert. Dadurch erhalten Anwender die Flexibilität einer offenen Lösung, ohne die komplexe Integration in ihre IT-Infrastruktur selbst durchführen zu müssen. Anwender können unterbrechungsfrei und schnell die KVM-Unterstützung/Support zu HP CloudSystemen hinzufügen. Aufgrund der erweiterten Flexibilität können Anwender Cloud-Anforderungen noch besser mit Kosten-, Sicherheits- und Verfügbarkeitsanforderungen abstimmen.
  • Größere Flexibilität in Bezug auf Bursting-Kapazitäten: Die neue Version von HP CloudSystem unterstützt jetzt auch das Bursting von HP CloudSystem zu HP CloudSystem. Damit können Anwender beispielsweise auch innerhalb eines Unternehmens auf weitere Bursting-Kapazitäten zugreifen. Für HPs Cloud-Angebot gibt es bereits Bursting-Verbindungen zu Amazon EC2, Savvis und dem Public-Cloud-Angebot HP Cloud Service.
  • Zugriff auf weitere Cloud-Templates: HP hat das bestehende Angebot an HP Cloud Maps um 50 neue Templates erweitert, unter anderem für HP DataProtector. Das Template für HP DataProtector verbessert die Zuverlässigkeit und Skalierbarkeit von Backups in HP-CloudSystem-Umgebungen. Kunden können jetzt insgesamt auf mehr als 200 Templates zurückgreifen und Anwendungen auf Knopfdruck bereitstellen.

Grundlage von HP CloudSystem sind die HP Converged Infrastructure und die Software HP Cloud Service Automation (CSA). HP CSA bietet Anwendern eine umfassende, einheitliche Cloud-Management-Plattform zur Verwaltung sowie das Brokerage von Anwendungen und Infrastrukturen für Cloud-Services.

HP CSA 3.1 mit integrierten Sicherheitsfunktionen von HP TippingPoint

Neu in Version 3.1 sind Funktionen speziell für drei Nutzergruppen: Service Designer, Cloud-Konsumenten sowie -Administratoren. Die Benutzeroberfläche für Cloud-Konsumenten (Cloud Consumer) bietet ein einheitliches Dashboard und eine grafische Oberfläche, die eine Sicht auf den gesamten Lebenszyklus der Cloud-Services – von Bestellung bis Konsum – ermöglicht. Außerdem können ab sofort Sicherheitslösungen von HP TippingPoint integriert werden. Das gewährleistet die Sicherheit und Hochverfügbarkeit der Cloud-Services. Für Cloud-Administratoren bietet Version 3.1 verbesserte Mehr-Mandanten-Fähigkeit. Administratoren können damit Mandanten schneller aufsetzen und genauer definieren. Service Designer wiederum können durch neue Funktionen im Portal Services genauer definieren, erstellen und flexibler verwalten. Zu den neuen Funktionen zählt beispielsweise die Möglichkeit, Angebote direkt über das Portal in den Service-Katalog aufzunehmen. CSA 3.1 ist in Kombination mit HP CloudSystem und als eigenständige Lösung erhältlich.

HP CDA 1.1 automatisiert den Bereitstellungsprozess von Cloud-Anwendungen

Durch den Wettbewerbsdruck müssen Unternehmen hochwertige Anwendungen in immer kürzeren Zeitabständen auf den Markt bringen. Mit den Automatisierungsfunktionen von HP CDA 1.1 werden der Bereitstellungsprozess von Anwendungen und die Übergaben zwischen verschiedenen Teams innerhalb des Anwendungs-Lebenszyklus vereinfacht. Diese führen typischerweise zu Fehlern und Verzögerungen. Beim Release-Management ermöglicht HP CDA 1.1 Entwicklerteams beispielsweise, den Veröffentlichungs-Prozess exakt zu definieren und Kriterien für jeden Prozess-Schritt sowie die Freigabe zu definieren. HP CDA stellt außerdem automatisch die notwendige Infrastruktur über Provisionierungs-Werkzeuge zur Verfügung und überwacht die Anwendungen über verschiedene Monitoring-Werkzeuge. Für Infrastruktur- und Plattform-Designer stellt CDA 1.1 eine Infrastruktur-Service-Schicht sowie eine grafische Benutzeroberfläche für Rechen-, Speicher- und Netzwerk-Charakteristiken von Infrastruktur-Services zur Verfügung. Diese Services stellen grafisch physische und virtuelle (HP Matrix respektive Public, Private und Hybrid Cloud) Rechenkapazitäten dar. Im Application Designer können App-Designer Standard-Funktionen festlegen und damit beispielsweise Anwendungen starten oder beenden sowie ausrollen. Für Policy Designer bietet CDA 1.1 eine Übersicht über die Abhängigkeit zwischen Cloud-Anwendungen und physischen Ressourcen.

HPs Public Cloud mit neuen Services

Des Weiteren hat HP neue Funktionen für die Public-Cloud-Lösung HP Cloud Service entwickelt. Diese ermöglichen es Unternehmen, Arbeitslasten in die Cloud zu verlagern. Zu den Neuigkeiten zählen:

  • Die allgemeine Verfügbarkeit von HP Cloud Compute. Mit diesem Public-Cloud-Service können Kunden Rechenkapazitäten nach Bedarf beziehen und nach Nutzung bezahlen. Der Service wird mit einem Service Level Agreement angeboten, das eine Verfügbarkeit von 99,95 Prozent garantiert. Das entspricht einer maximalen Ausfallzeit von 30 Minuten pro Monat. Der Preis pro Stunde beginnt bei 0,04 US-Dollar.
  • Die Public-Beta-Phase von HP Cloud Block Storage. Dieser Service ermöglicht Kunden, Daten einfach von einer Recheninstanz zu einer anderen zu verschieben. Er eignet sich besonders für Web-Anwendungen mit hohem Daten-Zugriff. Die Preise beginnen bei 0,10 US-Dollar pro Gigabyte und Monat. In der Public-Beta-Phase erhalten Nutzer von HP Cloud Block Storage einen Rabatt von 50 Prozent.

Außerdem hat HP weitere Services angekündigt:

  • Die Public-Beta-Phase von HP Cloud Application Platform as a Service (PaaS). Dieser Service ermöglicht Unternehmen und Software-Entwicklern, sich auf die App-Entwicklung und deren Implementierung zu fokussieren. Grundlage für diesen Service ist das Projekt Cloud Foundry Open PaaS. Es werden eine Vielzahl von Sprachen, der Aufbau von komplexen App-Infrastrukturen und ad-hoc-Provisionierung und -Bereitstellung unterstützt.
  • Der Service HP Cloud Workload Migration Services hilft Anwendern, Arbeitslasten zu erfassen, zu planen und in HPs Public Cloud zu migrieren. Der Service wird in Zusammenarbeit mit HP-Partnern erbracht und unterstützt Kunden durch geringe oder gar keine Änderungen am Anwendungs-Code. Dadurch können sie von den Vorteilen von Cloud Computing wie Skalierbarkeit, Kostenersparnissen und Flexibilität profitieren.

HP hat darüber hinaus eine Lösung speziell für Telekommunikationsdienstleister veröffentlicht. HP Cloud Solutions for Communication Service Providers (CSPs) ermöglicht CSPs, Cloud-Umgebungen für kleine und mittelgroße Unternehmen sowie große Firmen bereitzustellen. So können sich CSPs als Cloud-Service-Broker etablieren und vom Cloud-Geschäft profitieren. Außerdem können sie ihren Geschäfts- und Endkunden neue und bessere Services bieten.



40 Prozent der Unternehmen setzen auf hybride Cloud-Plattformen

Laut einer Studie von IDC und Infosys setzen über 40 Prozent der Befragten mittlerweile auf hybride Cloud-Plattformen. Viele der interviewten Unternehmen wiesen zudem auf die wichtige Zusammenarbeit mit einem verlässlichen externen Dienstleister hin. Nur erfahrene Service Provider könnten Unternehmen beim komplexen Umzug in die Cloud umfassend unterstützen. Die Ergebnisse der IDC-Studie erscheinen in Zusammenarbeit mit Infosys in dem White Paper „Adoption of Cloud: Private Cloud is Current Flavor but Hybrid Cloud is Fast Becoming a Reality“. Im Rahmen der Erhebung, die von IDC durchgeführt wurde und seit September 2012 erhältlich ist, wurden IT-Entscheider in Führungspositionen befragt. Die Umfrageteilnehmer sind bei 326 großen Unternehmen in den USA, Großbritannien, Frankreich und Deutschland beschäftigt.

Die Komplexität des Cloud Ecosystem steigt

Das Cloud Ecosystem wird aufgrund einer Vielzahl verschiedener öffentlicher, privater und Vor-Ort-Informationstechnologien immer komplexer. Die für die Studie Befragten erklärten, dass es außerdem immer schwieriger werde, diese komplexen Umgebungen umfassend zu verstehen, zu überschauen und ganzheitlich zu verwalten.

56 Prozent der Umfrageteilnehmer arbeiten bereits mit einem externen Dienstleister zusammen oder spielen mit dem Gedanken, einen Service Provider zu engagieren. Hierdurch möchten sie erfahren, wie sie ihre Cloud-Strategie verbessern, eine Roadmap entwickeln und die neue Technologie effizient implementieren können. Die befragten Unternehmen hoben die Notwendigkeit hervor, durch die Zusammenarbeit mit den externen Dienstleistern die komplexen Herausforderungen anzusprechen, die sich durch die Entwicklung und Verwaltung zusammengeführter hybrider Cloud-Umgebungen ergeben.

Die IDC-Studie zeigt darüber hinaus, dass Cloud-Ansätze sowie die Einführung hybrider Clouds je nach Industrie variieren. So verfügen beispielsweise 53 Prozent der Unternehmen in der Telekommunikationsindustrie über formalisierte Cloud-Strategien und Roadmaps. Im Bereich der Finanzdienstleistungen sind es lediglich 38 Prozent. Geht es jedoch um hybride Cloud-Einführungen, liegen die Finanzdienstleister mit 64 Prozent vorne. Es folgen die Bereiche Gesundheitswesen mit 47 Prozent, Industrie mit 40 Prozent und Handel mit 37 Prozent.

Die Suche nach dem "besten Cloud-Anbieter"

52 Prozent der Befragten erklärten außerdem, dass es sehr wichtig sei, „die besten Cloud-Anbieter auszuwählen und eine reibungslose Integration zwischen den einzelnen Providern sicherzustellen“, 14 Prozent finden es sogar extrem wichtig. 48 Prozent der Unternehmen messen zudem „Datensicherheit und Integration, Automatisierung sowie dem Zusammenspiel von Anwendungen in privaten, öffentlichen und Vor-Ort-IT-Umgebungen“ eine große Bedeutung bei.

Private Cloud hat höchsten Stellenwert

Die private Cloud ist nach wie vor am beliebtesten: 69 Prozent der Umfrageteilnehmer bevorzugen diese Cloud-Option. Produktivitätsgewinne und Kosteneinsparungen – 37 Prozent sowie 25 Prozent – sind die Hauptgründe, warum sich Unternehmen für die Cloud entscheiden.


Bildquelle: ©Gerd Altmann / PIXELIO



Professionelle Open-Source Lösungen für die eigene Cloud

Ich hatte vor längerer Zeit in dem Artikel "Die eigene Cloud bauen mit… – CloudWashing par excellence!" die leichtfertige Aussage eines Journalisten kritisiert, dass man auf einfache Weise eine eigene Cloud Umgebung aufbauen kann. Das dem so nicht ist und worauf zu achten ist, habe ich in dem Artikel ebenfalls erläutert. Dennoch existieren natürlich Lösungen, die dabei helfen, eine eigene Cloud aufzubauen. Tatsächlich gibt es derzeit aber nur fünf Open-Source Lösungen, die für den professionellen Aufbau von Cloud Computing Umgebungen eingesetzt werden sollten. Dazu gehören openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula.

Grundlegendes! Bitte lesen!

Viele Unternehmen entscheiden sich vermehrt für den Aufbau einer eigenen (Private) Cloud, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine eigene Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer eigenen Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Hardware, Hardware, Hardware

Eine eigene Cloud bedarf also Unmengen an physikalischen Ressourcen um den Wunsch nach Flexibilität und quasi unendlichen virtuellen Ressourcen zu befriedigen. Heißt im Umkehrschluß daher für Unternehmen mit einer eigenen Cloud: Investieren, das eigene Rechenzentrum umbauen und Cloud-fähig zu machen.

Es ist ein Irrglaube, wenn man denkt, dass der Aufbau einer eigenen Cloud impliziert, sich anschließend nicht mehr um die Hochverfügbarkeit der eigenen Infrastruktur (physikalische Maschinen, virtuelle Maschinen, Master-Slave-Replikation, Hot-Standby, etc.) kümmern zu müssen. Das macht dann ja schließlich die Cloud alleine.

Konfigurieren, Skripte, Intelligenz

Eine Cloud funktioniert nicht von alleine. Sie muss entwickelt und mit Intelligenz ausgestattet werden. Das gilt für den Aufbau einer Private Cloud genau so wie für die Nutzung eines Public Cloud Angebots (im Falle von IaaS). Dazu müssen Skripte geschrieben, womöglich Software neu entwickelt werden, die auf der Cloud verteilt läuft. Weiterhin ist es wichtig, die Whitepaper des Anbieter zu lesen, KnowHow(!) aufzubauen und zu verstehen, wie die Cloud arbeitet, um sie für die eigenen Bedürfnisse nutzen zu können. Eine weitere Möglichkeit besteht natürlich darin, sich (zusätzlich) von Profis beraten zu lassen. Das ist bei der Nutzung einer eigenen Cloud nicht anders. Wenn eine virtuelle Maschine A ein Problem hat, dann kann sie plötzlich nicht mehr erreichbar sein, wie jeder normale physikalische Server nun einmal auch. Nun könnte man denken: “Dann nehme ich als Backup für virtuelle Maschine A halt noch eine virtuelle Maschine B dazu!” Und dann? Man könnte nun denken, dass die virtuelle Maschine B automatisch die Aufgaben der virtuelle Maschine A übernimmt. So einfach ist das aber nicht! Skripte müssen vorab dafür sorgen, dass die virtuelle Maschine B die Aufgaben von virtuelle Maschine A übernehmen soll, wenn diese plötzlich nicht mehr erreichbar ist. Auch die virtuelle Maschine B muss dafür zunächst vorbereitet werden. Dazu kann z.B. der eigentliche (wichtige) Inhalt der virtuelle Maschine A inkl. aller Konfigurationen etc. in einem zentralen Speicher und nicht auf dem lokalen Speicher abgelegt werden. Anschließend muss ein Skript dafür sorgen, dass die virtuelle Maschine B automatisch mit den Konfigurationen und allen Daten aus dem lokalen Speicher hochgefahren wird, wenn die virtuelle Maschine A nicht mehr verfügbar ist.

Virtuelles Rechenzentrum

Die Cloud gibt uns im Bereich Infrastructure as a Service letztendlich nur die Möglichkeit, aus einem quasi unendlich großen Pool von Ressourcen die (unendliche) Anzahl an Ressourcen zu dem Zeitpunkt zu bekommen, wenn wir sie benötigen. Wir erhalten von der Cloud somit ein eigenes hochskalierbares virtuelles Rechenzentrum. Das bedeutet aber im Umkehrschluss für den Betreiber einer Cloud (Private, Public), dass er ebenfalls die Menge an physikalischen Ressourcen vorhalten muss, damit die angefragten virtuellen Ressourcen jederzeit bereitgestellt werden können und damit immer ausreichend Ressourcen für die Nutzer zur Verfügung stehen.


Open-Source Lösungen für den Aufbau einer eigenen Cloud


openQRM

openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen und ist aktuell in der Version 5.0 verfügbar. Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können. Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von "P-to-V", "V-to-P" und "V-to-V".

openQRM verfügt des Weiteren über ein integriertes Storage-Management, mit dem anhand des Snapshot-Verfahrens Serversysteme dupliziert werden können. Die Snapshots ermöglichen eine dynamische Anpassung des Speicherplatzes, bieten einen persistenten Cloud-Speicher und erlauben ein Backup/Restore der Server sowie deren Versionierung.

Mit der "N-zu-1" Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Dabei spielt es keine Rolle, ob physikalische oder virtuelle Maschinen eingesetzt werden!

Benefits auf einem Blick

Virtualisierung

openQRM unterstützt alle gängigen Virtualisierungstechnologien darunter VMWare, Citrix XenServer und KVM und bietet die Möglichkeit der Migration von P-to-V-, V-to-P- und V-to-V für physikalische Server als auch virtuelle Maschinen.

Storage

openQRM verfügt über ein zentralisiertes Speichersystem mit integriertem Storage Management, welches alle bekannten Storage-Technologien unterstützt. Dazu gehören u.a. Netapp, Equallogic, NFS, iSCSI ZFS und proprietäre auf LVM basierende Storage-Typen, für eine flexible und schnelle Duplizierung von Serversystemen.

Zentrales Management

openQRM verschmilzt die Welt von Open Source mit der von kommerziellen Produkten. Mit einer zentralen Managementkonsole sind alle Funktionen zur Administration von Rechenzentren, System- und Service-Überwachung, Hochverfügbarkeit und automatisierter Bereitstellung vorhanden.

Funktionen

Hardware/Software Isolation

openQRM isoliert die Hardware (physikalische Server, virtuelle Maschinen) vollständig von der Software (Server Images). Dabei ist die eigentliche Hardware eine "Computing Resource" und kann dadurch jederzeit durch eine andere Hardware ersetzt werden, ohne dass die Software (Server Image) neu konfiguriert werden muss.

Unterstützung für verschiedene Virtualisierungs-Technologien

Mit VMWare, Xen, KVM und dem Citrix XenServer unterstützt openQRM eine viehlzahl an virtuellen Maschinen und kann dieses transparent verwalten und migrieren. Neben der System-Migration von physikalischen Servern zu virtuellen Maschinen (P-to-V) können Systeme ebenfalls von virtuellen Maschinen zu physikalischen Servern (V-to-P) migriert werden. Darüber hinaus besteht die Möglichkeit ein System von einer Virtualisierungstechnologie zu einer anderen Virtualisierungstechnologie (V-to-V) zu verschieben.

Vollautomatische Nagios-Konfiguration

openQRM unterstützt die vollautomatische Konfiguration von Nagios mittels "nmap2nagios-ng". Damit wird das gesamte openQRM Netzwerk analysiert und auf Basis der Informationen eine Nagios-Konfiguration erstellt. Anschließend werden alle Services auf allen Systemen überwacht.

Integriertes Storage-Management

openQRM organisiert die Serversysteme wie Dateien und nutzt zur Verwaltung moderne Storagesysteme anstatt lokaler Festplatten. Mittels Logical Volume Managern (LVM) und deren Snapshot-Verfahren können Server-Templates auf schnellen Wege dupliziert werden.

"Sollen z.B. 10 neue Server ausgerollt werden, kann so einfach ein bestehendes Server-Image 10 mal dupliziert und die "Clone" direkt zum Deployment bereitgestellt werden."

Mit diesem Konzept steht ein zentrales Backup/Restore sowie die Möglichkeit von Hot-Backups ohne Downtime zur Verfügung.

openQRM unterstützt folgende Storage-Typen:

  • NFS (NAS)
  • iSCSI (iSCSI SAN)
  • Aoe/Coraid (AOE SAN)
  • NetApp (iSCSI SAN)
  • Local-disk (Übertragung von Server-Images auf lokale Festplatten)
  • LVM-Nfs (NFS auf LVM2, erlaubt schnelles Cloning)
  • LVM-iSCSI (iSCSI auf LVM2, erlaubt schnelles Cloning)
  • LVM-Aoe (Aoe auf LVM2, erlaubt schnelles Cloning)
  • Equallogic (iSCSI SAN)
  • ZFS (iSCSI SAN)

Hochverfügbarkeit und "N-to-1"-Fail-Over!

Mit der "N-zu-1" Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Unabhängig davon, ob physikalische oder virtuelle Maschinen eingesetzt werden.

"Um zum Beispiel 10 hochverfügbare Spezialsysteme zu betreiben benötigt man normalerweise weitere 10 "Stand-By"-Systeme. Mit openQRM jedoch benötigt man nur einen einzigen "Stand-By"-Server, der im Fehlerfall eines der 10 Spezialsysteme benutzt wird. Das heißt, man kann 9 "stromfressende", nicht ausgelastete Server einsparen. Perfekt für "Green IT".

Des Weiteren können physikalische Server virtuelle Maschinen als "Hot Stand-By" nutzen und lassen sich im Notfall in eine virtuelle Maschine migrieren.

Fertige Server-Templates

Mittels dem "Image-Shelf"-Plugin stellt openQRM bereits fertige Server Templates zur Verfügung. Dazu gehören Linux Distributionen wie Debian, Ubuntu, CentOS und openSuse. Des Weiteren können mit dem Plugin eigene Server Templates auf unterschiedliche Weise (lokal, http, https, ftp) bereitgestellt werden.

Unterstützung verschiedenster Deployment-Methoden

Mit openQRM können Server von jeder Art von Storage gestartet werden. Zusätzlich können die Server Templates von einem Storage-Typ zu einem anderen übertragen werden, dabei kann noch entschieden werden, ob die Server Templates auf einem physikalischen Server oder in einer virtuellen Maschine gestartet werden sollen.

Unterstützung verschiedener OS-Distributionen

Es stehen bereits vor-konfigurierte openQRM-Server Pakete für Debian, Ubuntu und CentOS zur Verfügung. Ein openQRM-Server kann aber alle gängigen Linux Distributionen verwalten.

Cloud-Selector

Mit dem Cloud-Selector kann der Cloud Administrator seine Cloud Produkte wie z.B. Prozessoren, Speicher, Festplattengröße oder den Typ der virtuellen Maschine auswählen und deren Preise festlegen.

Kostenrechner im Cloud-Portal

Die Cloud-Computing-Unit (CCU) kann einer regulären Währung (z.b. USD oder Euro) zugewiesen werden. Mit dem Kostenrechner werden die stündlichen, täglichen und monatlichen verbrauchten Kosten für eine Cloud Appliance berechnet.

Private Cloud Images

Mit der "Private Cloud Image"-Funktion können Cloud Benutzer eigene Server Templates anlegen und verwalten.

Volle SSL-Unterstützung

Der openQRM-Server arbeitet in einem vollständig SSL-verschlüsselten Bereich und unterstützt verschiedene Serverarchitekturen wie i386 und x86_64.

Ich möchte hier noch anmerken, dass es sich bei der openQRM Enterprise um einen deutschen Anbieter aus dem Bereich des Cloud Computing handelt!


Eucalyptus

Beim Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems (Eucalyptus) handelt es sich um eine Open Source Software Infrastruktur zum Aufbau von skalierbaren Utility Computing bzw. Cloud Computing Umgebungen für spezielle Clustersysteme oder einfachen miteinander verbundenen Arbeitsplatzrechnern.

Eucalyptus wurde als ein Forschungsprojekt am Computer Science department an der University of California Santa Barbara entwickelt und wird mittlerweile von der Eucalyptus Systems Inc. vermarktet. Die Software wird aber weiterhin als Open Source Projekt gepflegt und weiterentwickelt. Die Eucalyptus Systems Inc. bietet darüber hinaus lediglich weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an.

Folgende Funktionen stellt Eucalyptus bereit:

  • Kompatibilität mit den Schnittstellen zu Amazon EC2 und S3 (SOAP und REST).
  • Unterstützung aller Virtual Machines die auf einem Xen Hypervisor oder einer KVM ausgeführt werden.
  • Administrationstools für die System- und Benutzerverwaltung.
  • Die Möglichkeit mehrere Cluster für eine Cloud zu konfigurieren, wobei jeder einzelne Cluster über eine private interne IP-Adresse verfügt.

Architektur

Eucalyptus besteht aus fünf zusammenarbeitenden Hauptkomponenten um den angeforderten Cloud Service bereit zu stellen. Die Kommunikation zwischen den Komponenten erfolgt über gesicherte SOAP Nachrichten mittels WS-Security.

Cloud Controller (CLC)

Der Cloud Controller dient innerhalb einer Eucalyptus Cloud als Hauptkomponente für die Verwaltung des gesamten Systems und stellt den Administratoren und Benutzern einen zentralen Zugriffspunkt bereit. Die Kommunikation aller Clients mit dem Eucalyptus System erfolgt ausschließlich nur über den Cloud Controller anhand der auf SOAP oder REST basierenden API. Der Cloud Controller ist dafür zuständig, alle Anfragen zu der richtigen Komponente weiterzuleiten, diese zu sammeln und die Antwort der Komponente anschließend wieder zu dem Client zurück zu senden. Der Cloud Controller ist somit die öffentliche Schnittstelle einer Eucalyptus Cloud.

Cluster Controller (CC)

Der Cluster Controller ist innerhalb des Eucalyptus Systems für die Verwaltung des virtuellen Netzwerks zuständig. Der Cloud Controller erhält alle Anfragen auf Basis seiner SOAP oder REST Schnittstellen. Der Cloud Controller erhält alle Informationen über die vorhandenen Node Controllers des Eucalyptus Systems und ist für die Kontrolle des Lebenszyklus jedes einzelnen verantwortlich. Er leitet alle Anfragen an die Node Controller mit verfügbaren Ressourcen weiter um damit virtuelle Instanzen zu starten.

Node Controller (NC)

Ein Node Controller steuert das Betriebssystem und den zugehörigen Hypervisor eines Rechners (Node) im Eucalyptus System. Auf jeder physikalischen Maschine die eine durch den Cluster Controller instantiierte virtuelle Instanz auf Grund einer Anfrage beherbergt, muss eine Instanz eines Node Controller vorhanden sein.

Walrus (W)

Walrus ist für die Zugriffsverwaltung auf den Speicherdienst innerhalb eines Eucalyptus Systems zuständig. Walrus erhält die Anfragen über seine SOAP oder REST Schnittstelle.

Storage Controller (SC)

Der Storage Controller verwaltet den Speicherdienst innerhalb eines Eucalyptus Systems und verfügt über eine Schnittstelle zu Amazon's S3 Dienst. Der Storage Controller arbeit in Verbindung mit Walrus und wird für die Speicherung und den Zugriff auf die Images der Virtual Machines, die Kernel Images, die RAM Disk Images und die Daten der Benutzer verwendet. Die Images der Virtual Machines können rein privat oder öffentlich zugänglich gemacht werden und können dabei komprimiert und verschlüsselt gespeichert werden. Die Images werden lediglich entschlüsselt, wenn ein Node eine neue virtuelle Instanz starten muss und dazu einen Zugriff auf das Image benötigt.

Das Clustersystem

Ein Eucalyptus System vereint und verwaltet Ressourcen von Single-Cluster als auch Multi-Cluster Systemen. Dabei besteht ein Cluster aus einer Gruppe von Rechnern, die alle mit dem selben LAN verbunden sind. Zu jedem Cluster kann wiederum einer aber auch mehrere Node Controller gehören, die für die Verwaltung der Instantiierung und Beendigung der virtuellen Instanzen verantwortlich sind.

Ein Single-Cluster besteht aus mindestens zwei Maschinen. Auf dem einen werden der Cluster Controller, der Storage Controller und der Cloud Controller ausgeführt, auf dem anderen der Node Controller. Diese Art der Konfiguration ist vor allem für Experimente und schnelle Konfigurationen geeignet. Die dargestellte Konfiguration könnte ebenfalls auf einer einzigen Maschine implementiert werden. Allerdings ist dafür eine äußerst leistungsstarke Hardware notwendig!

Bei einem Multi-Cluster wird jede Komponente (CC, SC, NC, und CLC) auf einer separaten Maschine ausgeführt. Dies sollte die bevorzugte Art und Weise sein das Eucalyptus System zu konfigurieren, wenn damit ernsthaft gearbeitet werden soll. Mit einem Multi-Cluster kann zudem die Performance erhöht werden, indem einem Controller die passende Maschine zugewiesen wird. Zum Beispiel sollte der Cloud Controller auf einer Maschine mit einer schnellen CPU ausgeführt werden. Im Allgemeinen bringt die Entscheidung für einen Multi-Cluster eine höhere Verfügbarkeit, sowie eine bessere Lastverteilung und eine optimierte Verteilung der Ressourcen über alle Cluster. Das Clusterkonzept ist vergleichbar mit dem Konzept der Verfügbarkeitszonen der Amazon EC2. Dabei werden die Ressourcen über mehrere Verfügbarkeitszonen hinweg verteilt, damit ein Fehler in einer Zone nicht die Anwendung beeinträchtigt.

Eucalyptus und die Ubuntu Enterprise Cloud

Bei der Ubuntu Enterprise Cloud (UEC) handelt es sich um eine Open Source Initiative von Ubuntu, um auf eine einfachere Art und Weise skalierbare Cloud Infrastrukturen auf Basis von Eucalyptus bereitzustellen und diese zu konfigurieren.

Mit der Ubuntu Enterprise Cloud können Public Clouds erstellt werden, welche Amazon's EC2 infrastructure nutzen. Es können damit aber genau so gut Private Clouds entwickelt werden, die auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall gehostet werden.

Vorteile von Eucalyptus

Bei Eucalyptus handelt es sich um eine Umgebung für Cloud Services, mit der Public Clouds auf Amazon's EC2 Infrastruktur bzw. Private Clouds im hauseigenen Rechenzentrum erstellt werden können. Die grundlegenden Vorteile sollen hier noch einmal kurz aufgeführt werden:

  • Open Source und Entwicklung
    Eucalyptus wurde geschaffen, um die Kommunikation und Forschung von Cloud Computing Plattformen zu fördern. Der Quellcode ist frei verfügbar, was es ermöglicht die Plattform so zu erweitern, damit sie den eigenen Anforderungen entspricht. Eucalyptus wird zunehmend weiterentwickelt. Darüber hinaus ist die Aufnahme und Integration von Funktionswünschen und Verbesserungsvorschlägen sehr schnell.
  • Community
    Eucalyptus verfügt über eine große Community die gerne bereit ist einander zu helfen. Über die Foren kann schnell Kontakt zu anderen Benutzern aufgenommen und Hilfe bezogen werden.
  • Public Cloud
    Eucalyptus funktioniert einwandfrei auf Amazon's EC2 Framework und kann damit als Public Cloud eingesetzt werden.
  • Private Cloud
    Eucalyptus kann auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall als Private Cloud eingesetzt werden. Dadurch ist die Kontrolle bzgl. der Sicherheit und der gesamten Umgebung in der eigenen Hand.
  • Portabilität
    Auf Grund der Kompatibilität von Eucalyptus mit Amazon's EC2 API sowie der Flexibilität von Eucalyptus, können Anwendungen ohne großen Aufwand von einer Cloud in die andere migriert werden. Darüber hinaus besteht die Möglichkeit des Aufbaus von Hybrid Clouds, indem eine Private Cloud mit einer Public Cloud erweitert bzw. kombiniert wird.
  • Qualitativ durch Tests
    Durch den Einsatz von Eucalyptus in Ubuntu's Enterprise Cloud findet tagtäglich ein weltweiter realer Test auf Basis von mehr als tausend Server-Instanzen statt.
  • Kommerzieller Support
    Neben den Foren der Eucalyptus Community kann natürlich auch auf einen kommerziellen Support zurückgegriffen werden.

Open Nebula

OpenNebula ist ein Open Source Virtual Infrastructure Manager mit dem aus vorhandenen Rechenzentren jede Art von Cloud Computing Umgebung aufgebaut und bereitgestellt werden kann. In erster Linie dient OpenNebula als Tool zur Verwaltung der virtualisierten Infrastruktur des eigenen Rechenzentrums bzw. der eigenen Cluster, also der eigenen Private Cloud.

Darüber hinaus ist OpenNebula in der Lage Hybrid Clouds aufzubauen, also die eigene lokale Infrastruktur mit einer Public Cloud Infrastruktur zu verbinden/kombinieren, um die Skalierbarkeit der eigenen Umgebung noch weiter zu erhöhen. OpenNebula verfügt zusätzlich über spezielle Schnittstellen für die Verwaltung von virtuellen Maschinen, Speicherplatz und des Netzwerks von Public Clouds.

Funktionen

Private Cloud Computing

  • Internal Interfaces for Administrators and Users
    Mit einer Unix ähnlichen Kommandozeile und einer XML-RPC API kann der Lebenszyklus der virtuellen Maschinen und physikalischen Server verwaltet werden. Weitere Administrationsmöglichkeiten bietet die libvirt API.
  • Steuerung
    Die Verwaltung der Arbeitslast und Zuweisung der Ressourcen kann nach bestimmten Regeln wie z.B. der aktuellen Auslastung automatisch vorgenommen werden. Des Weiteren wird der Haizea VM-based lease manager unterstützt
  • Virtualisierungsmanagement
    Es existieren Konnektoren für Xen, KVM und VMware, sowie einem generischen libvirt Konnektor für weitere Virtual Machine Manager. Die Unterstützung von Virtual Box ist in Planung.
  • Image Management
    Es sind Funktionen für den Transfer und das Clonen von Virtual Machine Images vorhanden.
  • Netzwerk Management
    Es lassen sich isolierte virtuelle Netze festlegen um virtuelle Maschinen miteinander zu verbinden.
  • Service Management
    Unterstützung von Multi Tier Services bestehend aus Gruppen von miteinander verbundenen virtuellen Maschinen und deren Auto Konfiguration während des Boot Vorgangs.
  • Sicherheit
    Die Verwaltung der Benutzer wird durch den Administrator der Infrastruktur vorgenommen.
  • Fehlertoleranz
    Eine persistente Datenbank dient zum Speichern aller Informationen der Hosts und virtuellen Maschinen.
  • Skalierbarkeit
    Tests zeigten bisher, das OpenNebula mehrere hundert Server und virtuelle Maschinen verwalten kann.
  • Installation
    Die Installation erfolgt auf einem UNIX Cluster Front-End ohne das weitere Services benötigt werden. OpenNebula wird mit Ubuntu 9.04 (Jaunty Jackalope) ausgeliefert.
  • Flexibilität und Erweiterbarkeit
    Die Architektur, Schnittstellen und Komponenten sind offen, flexibel und erweiterbar. Dadurch kann OpenNebula mit jedem aktuellen Produkt aus dem Bereich Virtualisierung, Cloud Computing oder Management Tool für Rechenzentren integriert werden.

Hybrid Cloud Computing

  • Cloud Plugins
    Konnektoren für Amazon EC2 und ElasticHosts.
  • Zusammenschluss
    Unterstützung für den gleichzeitigen Zugriff auf mehrere Remote-Clouds.
  • Erweiterbarkeit
    Modulare Konzepte für die Entwicklung neuer Konnektoren.

Public Cloud Computing

  • Cloud Schnittstellen für Benutzer
    Implementierung einer Teilmenge der Amazon EC2 Query API und der OGF OCCI API
  • Erweiterbarkeit
    Die OpenNebula Cloud API ermöglicht die Implementierung neuer/weiterer Cloud Schnittstellen.

OpenStack

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht derzeit aus insgesamt sechs Kernkompenten und wird stetig weiterentwickelt. OpenStack Compute, OpenStack Object Storage und OpenStack Image Service, OpenStack Identity, OpenStack Dashboard und OpenStack Networking.

Man muss sich allerdings darüber im Klaren sein, dass es sich bei OpenStack um kein fertiges Produkt handelt, das sofort einsatzfähig ist, sondern um einzelne Teilprojekte die selbst ineinander integriert und für die eigenen Bedürfnisse angepasst werden müssen. Es gibt aber mittlerweile fertige OpenStack Installationsroutinen von Mitgliedern des OpenStack Projekts.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.

OpenStack Networking

OpenStack Networking ist ein skalierbares und API basierendes System für die Verwaltung von Netzwerken und IP-Adressen.


CloudStack

CloudStack wurde ursprünglich von Cloud.com entwickelt. Nach der Übernahme durch Citrix Systems im Jahr 2011 wurde Citrix zum Hauptsponsor von CloudStack. Die Open-Source Cloud Plattform basiert auf Java und hilft beim Aufbau und der Verwaltung von skalierbaren Infrastrukturen. Zu den aktuell unterstützten Hypervisorn gehören VMware, Oracle VM, KVM, XenServer und die Xen Cloud Platform. Neben einer eigenen RESTful API implementiert CloudStack ebenfalls die Amazon EC2 und S3 APIs sowie VMwares vCloud API. Die Cloud-Infrastruktur kann entweder über die Web-Oberfläche, einer Kommandozeile oder die API konfiguriert und verwaltet werden.

CloudStack besteht aus fünf Kernkomponenten. Der Compute Controller verwaltet die Rechenleistung, der Network Controller steuert das virtuelle Netzwerk und der Storage Controller ist für die Speicherverwaltung des BlockStorage zuständig. Alle drei Komponenten haben direkten Kontakt mit der physikalische Hardware. Auf diesen Komponenten setzt die CloudStack Orchestration Engine auf, die für den Aufbau, die Steuerung und Verwaltung der CloudStack Infrastruktur verantwortlich ist. Über der Orchestration Engine befindet sich als letzte Komponente die CloudStack API, die mit der Web-Oberfläche, Kommandozeile oder über REST interagiert und die Befehle an die Orchestration Engine weitergibt.

Citrix Systems ist nicht das einzige bekannte Unternehmen, was CloudStack unterstützt. Weitere Supporter des CloudStack Projekts sind RightScale, PuppetLabs, Juniper Networks, Enstratus, TrendMicro, Intel und Equinix.


Bildquelle: ©Gerd Altmann / PIXELIO



Windows Server 2012 – Microsoft vervollständigt sein Cloud Computing Portfolio

Microsoft hat mit dem Windows Server 2012 die neue Ära seines Serverbetriebssystems eingeläutet, mit dem sich das Unternehmen auf den Aufbau und den Betrieb von Cloud Infrastrukturen konzentrieren und sein Engagement im Bereich Cloud Computing unterstreichen will. Dabei fokussien sich die Redmonder insbesondere auf die Private Cloud, wollen im Bereich Public bzw. Hosted Cloud aber ebenfalls ein Wort mitreden.

Windows Server 2012 - Microsoft vervollständigt sein Cloud Computing Portfolio

Hintergrund: Windows Server 2012

Der Windows Server 2012 kommt mit vielen Neuigkeiten. Aus der Cloud Brille betrachtet, befinden sich die größten Innovationen im Bereich der Virtualisierung. Und hier im Speziellen mit dem neuen Hyper-V 3.0, der mit seiner neuen Funktion Hyper-V-Replica virtuelle Festplatte und vollständige Server asynchron zwischen mehreren Hyper-V-Hosts im Netzwerk manuell oder automatisiert repliziert und synchronisiert. Dabei wird die Replikation über das Dateisystem vorgenommen. Virtuelle Server lassen sich zudem im laufenden Betrieb zwischen unterschiedlichen Hyper-V-Hosts replizieren. Damit verspricht Microsoft den Betrieb von hochverfügbaren virtuellen Servern (Hochverfügbarkeitslösung) ohne den Einsatz eines Cluster.

Microsoft spricht Hybrid Cloud

Mit dem Windows Server 2012 rundet Microsoft sein Cloud Portfolio auf der on-Premise Seite (Private Cloud) ab. Nach Windows Azure (PaaS, IaaS), Office 365/ Office 2013, Dynamics CRM Online und weitere Angebote (SaaS), bildet der neue Windows Server die Basis der IT-Infrastruktur im unternehmenseigenen Rechenzentrum bzw. in dem des Service Provider.

Neben dem Private Cloud Szenario zielt Microsoft ebenfalls auf die Hybrid Cloud. Dazu beinhaltet der Windows Server 2012 neben neuen Storage- und Netzwerktechnologien, Virtualisierungs- und Automatisierungskomponenten ebenfalls Funktionen für die Integration mit Microsoft Windows Azure und dem System Center. Damit lässt sich die on-Premise Umgebung um Ressourcen aus der Microsoft Public Cloud erweitern und u.a. .NET Anwendungen sowohl innerhalb der Private als auch der Public Cloud skalierbar einsetzen.

Vorteil: Microsoft ist bereits an der Basis

Auch wenn Microsoft im Bereich Cloud im Vergleich zu den Playern Amazon Web Services oder Google ziemlich spät aus den Startlöchern gekommen ist, holen sie mit ihrem Cloud Portfolio kräftig auf. Speziell der neue Windows Server 2012 ermöglicht Microsoft direkt die Kunden zu erreichen, die Amazon und Google aus eigener Kraft nicht bekommen können und werden. Nämlich diejenigen die der Public Cloud eher kritisch gegenüber eingestellt sind bzw. die Kunden, die bereits auf Microsoft Produkte setzen.

Wo Amazon und Google sehr leicht die (Web)-Startups dieser Welt einfangen und Microsoft sich mit Azure schwer tut, hat Microsoft bereits den Fuß bei etablierten Unternehmen in der Tür, wo bekanntlich die höheren Umsätze generiert werden.

Daher kam auch Amazons strategische Kooperation mit Eucalyptus nicht überraschend, um auch auf der Private Cloud Seite zumindest eine AWS ähnliche Plattform für das Hybrid Cloud Szenario zu unterstützen. Wo Microsoft sich als Serviceanbieter als auch Softwareanbieter positioniert, sind Amazon als auch Google reine Serviceanbieter, die im Umfeld von on-Premise Software und die dafür notwendigen nachgelagerten Prozesse wenig Erfahrung haben.