Tag: Hybrid Cloud


Cloud im Mittelstand: Die Geschäftsführung nimmt Einfluss auf das Cloud-Sourcing

Der Einsatz von Cloud-Services und –Technologien verspricht viele Vorzüge hinsichtlich einer flexibleren Nutzung von IT-Ressourcen und einem schnelleren Zugang zu innovativen Lösungen. Hierbei treiben vor allem Kundenanforderungen und der Bedarf nach höherer Innovationsgeschwindigkeit deutsche Mittelständler in die Cloud. Das hat eine Studie von Crisp Research unter deutschen mittelständischen Unternehmen ergeben.

Continue reading “Cloud im Mittelstand: Die Geschäftsführung nimmt Einfluss auf das Cloud-Sourcing” »



Die Anbieter für Managed Public Cloud Services im Härtetest

Geht es um die Planung, den Aufbau und den Betrieb von Public Cloud-Infrastrukturen sind deutsche Unternehmen aktuell im großen Stil auf der Suche nach Unterstützung. Nur die wenigsten werden auf die eigenen Kompetenzen vertrauen, sondern vielmehr auf Expertenwissen und praktische Erfahrungen externer Dienstleister setzen. An dieser Stelle kommen die Managed Public Cloud Provider (MPCP) ins Spiel, die sich auf den Betrieb und das Management von Public Cloud-Infrastrukturen ihrer Kunden spezialisiert haben. Crisp Research hat alle Anbieter für Managed Public Cloud Services in Deutschland im Rahmen einer umfangreichen Analyse und Bewertung des Marktes untersucht. Das Crisp Vendor Universe liefert mit einer transparenten Methodik eine Entscheidungshilfe für CxOs bei der Dienstleister-Auswahl im Rahmen ihrer Public Cloud-Strategie.

Continue reading “Die Anbieter für Managed Public Cloud Services im Härtetest” »




OpenStack Best-Practices: Anforderungen an eine Umgebung auf Enterprise-Niveau

Für einen stabilen und nachhaltigen Einsatz im Unternehmensumfeld haben sich fertige OpenStack-Produkte als die richtige Wahl herauskristallisiert. Denn für einen „grüne Wiese“-Ansatz ist OpenStack zu komplex. Zahlreiche kleine und große Technologieanbieter unterstützen hierbei mit Distributionen professionellen Support, Beratungs- und Integrationsleistungen als auch erweiterten Lösungen für das tägliche Management von OpenStack-Infrastrukturen. Worauf gilt es zu achten, um eine OpenStack-Infrastruktur auf Enterprise-Niveau zu betreiben? Crisp Research hat fünf Anforderungen identifiziert, die dafür ausschlaggebend sind. Continue reading “OpenStack Best-Practices: Anforderungen an eine Umgebung auf Enterprise-Niveau” »



Die Public Cloud im deutschen Mittelstand: Nicht ohne meinen Managed Service Provider

Cloud Computing. Was für viele Unternehmen im US-amerikanischen Markt bereits seit mehreren Jahren zur Realität gehört, hat sich auf dem europäischen Kontinent und speziell im deutschen Markt nur schleppend entwickelt. Insbesondere der deutsche Mittelstand, die Hochburg vieler „Hidden Champions“, verhält sich bei neuen IT-Trends vorwiegend zurückhaltend. Und auch das Cloud Computing hat jahrelang keine Ausnahme dargestellt. Continue reading “Die Public Cloud im deutschen Mittelstand: Nicht ohne meinen Managed Service Provider” »



Cloud Trends 2016

1) Managed Public Clouds

Mit der Eröffnung der deutschen Amazon Web Services (AWS) Region im vergangenen Oktober in Frankfurt ist die Public Cloud auch in Deutschland angekommen. Unterstrichen wird deren Bedeutung von zahlreichen Kundenreferenzen und zum Teil innovativen Use Cases. Aber nicht nur AWS wird im kommenden Jahr weiter für Furore sorgen. Auch von IBM Softlayer, Salesforce, ProfitBricks und insbesondere Microsoft, die nun auch mit eigenen Rechenzentren in den deutschen Markt einsteigen, dürfen wir im Jahr 2016 einige Überraschungen erwarten. Der Kampf um die Public Cloud ist auch in Deutschland entbrannt und das kürzlich gefallene Safe Harbor Urteil wird seinen Teil dazu beitragen!
Zu einer spannenden Geschichte gehören allerdings mehrere Protagonisten. Die Hauptrolle in der Public Cloud nehmen einmal mehr die IT-Anwender ein. Eine hohe Komplexität in der Nutzbarkeit - Stichwort: Cloud-Wissen - und eine bislang unklare Kommunikation der Verantwortlichkeiten – Stichwort: Self-Service / Shared-Responsibility - sorgen für Verwirrung und beeinträchtigen die Public Cloud Adaption. Die weißen Ritter, die sowohl die Situation für die Anbieter als auch die Anwender entschärfen werden, sind die Managed Public Cloud Provider (MPCP). MPCPs entwickeln und betreiben die Systeme, Applikationen und virtuellen Umgebungen ihrer Kunden auf den Public Cloud-Infrastrukturen. Sie gleichen damit das fehlende Cloud-Wissen der Unternehmen aus und lösen das Problem der Shared-Responsibility. Continue reading “Cloud Trends 2016” »



Facing Data Gravity: Datenkontrolle und globale Skalierbarkeit in der Public Cloud

Mit der fortschreitenden Digitalisierung von Geschäftsmodellen und –Prozessen müssen sich CIOs mit neuen Sourcing- und Infrastrukturkonzepten beschäftigen. Die Public Cloud spielt hierbei eine zentrale Rolle. Gleichzeitig nimmt die Bedeutung von Daten signifikant zu. Auf Grund von Compliance-Richtlinien, rechtlichen Anforderungen, technischen Limitationen und individuellen Sicherheitsklassen besitzen diese jedoch eine bestimmte Trägheit. Diese sogenannte „Data Gravity“ macht die Daten unterschiedlich beweglich. Damit sich diese Daten dennoch außerhalb der eigenen IT-Infrastruktur verarbeiten lassen, ohne die Kontrolle darüber zu verlieren, sind neue Storage-Konzepte notwendig. Continue reading “Facing Data Gravity: Datenkontrolle und globale Skalierbarkeit in der Public Cloud” »



Hybrid und Multi-Cloud: Der echte Nutzen von Public Cloud Infrastrukturen

Seit Anbeginn des Cloud Computing ist die Hybrid Cloud in aller Munde. Von Anbietern, Beratern und auch Analysten ständig als das Allheilmittel für Cloud Deployments angepriesen, steht die Kombination verschiedener Cloud-Modelle permanent im Fokus von Diskussionen, auf Panels oder während Gesprächen mit CIOs und IT-Infrastrukturleitern. Die Kernfragen, die es währenddessen zu klären gilt: Was sind die Vorteile und existieren bereits tatsächlich belastbare, hybride Anwendungsfälle, die sich als Best Practice Orientierungshilfen nutzen lassen. Antworten darauf wird dieser Analyst View geben und in diesem Zuge ebenfalls die Idee hinter den Multi-Cloud-Szenarien erläutern. Continue reading “Hybrid und Multi-Cloud: Der echte Nutzen von Public Cloud Infrastrukturen” »



Der Cloud Markt 2015: Die Zeiten der Hungerspiele sind vorüber

Mit spannenden Neuigkeiten hat uns der Cloud Markt im vergangenen Jahr viel Freude bereitet. Jede Menge neue Rechenzentren und innovative Services zeigen, dass das Thema fest im Markt gesetzt ist. Die Zeiten der Hungerspiele sind endgültig vorüber. Zwar hat sich der deutsche Cloud Markt im internationalen Vergleich in der Vergangenheit langsamer entwickelt. Allerdings zeigt eine Adoptionsrate von mittlerweile fast 75 Prozent deutlich nach oben. Und das hat zwei belastbare Gründe: Die Anbieter adressieren endgültig die Bedürfnisse und Anforderungen ihrer potentiellen Zielkunden. Gleichzeitig springen immer mehr Anwender auf den Cloud-Zug auf. Continue reading “Der Cloud Markt 2015: Die Zeiten der Hungerspiele sind vorüber” »



Cloud-Integration – Macht Accenture schon 3,6 Milliarden Dollar Cloud-Umsatz?

Da müssen sich die Wettbewerber warm anziehen! Nach Aussagen von Accenture CTO Paul Daugherty in einem Interview mit der Computerwoche sind in der Cloud-Geschäftseinheit weltweit schon 9.000 Mitarbeiter beschäftigt. Unterstellt man eine durchschnittliche Auslastung (200 Tage) und Tagessätze (2.000 US Dollar) würde diese Teamstärke für rund 3,6 Milliarden Dollar Cloud-Umsatz stehen. Und dies hauptsächlich mit Beratung und Integration. Wow! Continue reading “Cloud-Integration – Macht Accenture schon 3,6 Milliarden Dollar Cloud-Umsatz?” »



Egal ob Public oder Private, auf eine Cloud kann niemand mehr verzichten!

Im Jahr 2014 befinden wir uns endlich im Jahr der Cloud. Versprochen! Wie schon 2012 und 2013 wird sie auch in diesem Jahr den Durchbruch schaffen. Versprochen! Steht doch überall geschrieben. Legen wir den Sarkasmus mal ein wenig beiseite und schauen der Realität ins Auge, sieht die Wahrheit gar nicht so düster aus. Es kommt nur auf die Form der Cloud an. IDC und Gartner sprechen von Milliarden von Dollar, die in den kommenden Jahren in den weltweiten Public IaaS Markt investiert werden sollen. Crisp Research hat sich für 2013 den deutschen IaaS Markt angeschaut und kommt zu völlig gegensätzlichen Zahlen. In Public IaaS wurden in etwa 210 Millionen Euro, in Private Cloud Infrastrukturen hingegen mehrere Milliarden Euro investiert. Gegensätzlicher können sich zwei Märkte fast nicht verhalten. Aber das ist ok, das ist unsere deutsche Mentalität. Vorsichtig. Langsam. Erfolgreich. Eines sollten sich Unternehmen für 2014 und die kommenden Jahre jedoch auf die Agenda schreiben. Egal ob es nun um eine Public oder Private Cloud geht. Eines ist sicher, auf eine Cloud kann kein Unternehmen mehr verzichten! Garantiert! Warum? Weiterlesen.

Das Bereitstellungsmodell der IT hat sich verändert

Im Kern geht es bei einer Cloud um die Art und Weise wie IT-Ressourcen bereitgestellt werden. Das erfolgt on-Demand über einen Self-Service und nach einem Verrechnungsmodell, dass die Kosten nach dem tatsächlichen Verbrauch bestimmt.

Die oben genannten IT-Ressourcen, in Form von Applikationen (SaaS), Plattformen (Entwicklungsumgebungen; PaaS) und Infrastrukturen (virtuelle Server, Speicherplatz; IaaS), werden als Services bereitgestellt, die sich ein Nutzer bestellen kann. Das bedeutet im Umkehrschluss allerdings auch, dass bei einer gewöhnlichen Virtualisierung nicht aufgehört werden darf. Virtualisierung ist nur ein Mittel zum Zweck. Schließlich muss der Nutzer auch irgendwie an die Ressourcen gelangen. Zum Telefonhörer greifen, die IT-Abteilung anrufen und warten ist kein Zeichen davon, dass eine Cloud-Infrastruktur vorhanden ist. Ganz im Gegenteil.

Über welche Art von Cloud die Ressourcen nun bereitgestellt werden, das ist abhängig vom Use Case. Es gibt nicht die "Über Cloud", die alle Probleme auf einmal löst. Für eine Public Cloud existieren genügend Anwendungsfälle. Sogar für Themen oder Industrien, die im ersten Moment weit weg erscheinen. Unterm Strich handelt es sich in vielen Fällen um eine Frage der Daten. Und genau diese gilt es zu klassifizieren. Dann kann es zur Entscheidung kommen, dass nur eine Private Cloud in Frage kommt. In diesem Fall wird man als Unternehmen dann selbst zum Cloud-Anbieter (mit allen Höhen und Tiefen die ein Public Cloud Anbieter zu bewältigen hat), baut eine eigene Cloud-Infrastruktur auf und versorgt direkt seine internen Kunden. Oder man geht zu einem der Managed Cloud Anbieter, die innerhalb einer dedizierten Umgebung eine Private Cloud exklusiv nur für einen Kunden betreiben und zudem Professional Services im Portfolio haben, die Public Cloud Anbieter in der Regel nur über ein Partnernetzwerk bieten.

Es ist einzig und alleine entscheidend, dass Unternehmen sich einem Cloud-Modell zuwenden, denn ...

Mitarbeiter fordern Services on Demand

Mitarbeiter wollen Service(s) und sie wollen diese(n) jetzt und nicht in zwei Wochen oder drei Monaten. Und wenn sie nicht das bekommen was sie benötigen, dann finden sie einen Weg es zu bekommen. Ehrlich! Es existieren seit geraumer Zeit viele attraktive Alternativen auf dem IT-Markt, die nur ein paar Mausklicks und eine Kreditkartennummer entfernt sind die Bedürfnisse zu befriedigen. Das speziell im IaaS Bereich dann noch sehr viel Arbeit wartet, diese Falle ist den meisten nicht IT-lern erst einmal nicht bewusst. Aber Sie haben augenscheinlich das bekommen, was sie brauchten und wenn es nur der Wunsch nach Aufmerksamkeit war. Der Cloud-Anbieter hat schließlich sofort reagiert. Das Wunder des Self-Service!

IT-as-a-Service ist nicht nur irgendein Buzz-Word. Es ist die Realität. IT-Abteilungen sind dem Druck ausgesetzt, wie eine eigene Business Einheit geführt zu werden und selbst Produkte und Services für das eigene Unternehmen zu entwickeln oder zumindest nach den Bedürfnissen bereitzustellen. Sie müssen daher proaktiv reagieren. Und damit ist nicht das Anlegen von Handschellen gemeint, indem die Ports der Firewall geschlossen werden. Nein, hier geht es darum sich selbst zu hinterfragen.

Das dies funktioniert hat die Deutsche Bahn Tochter DB-Systel eindrucksvoll bewiesen, indem sie den Bereitstellungsprozess mit einer eigenen Private Cloud von 5 Tagen auf 5 Minuten(!) pro virtuellen Server reduziert hat.

Hybrid Cloud im Auge behalten

Bei den ständigen Diskussionen, ob nun eine Public oder Private Cloud in Frage kommt, sollte immer die Option einer Hybrid Cloud im Hinterkopf behalten werden.

Eine Hybrid Cloud ermöglicht einen eindeutigen Use Case für den Einsatz einer Public Cloud. Dabei können bestimmte Bereiche der IT-Infrastruktur (Rechenleistung und Speicherplatz) in einer Public Cloud Umgebung abgebildet werden. Der Rest und unternehmenskritische Bereiche bleiben innerhalb der selbstverwalteten on-Premise IT-Infrastruktur oder Private Cloud.

Darüber hinaus liefert das Hybrid Cloud Modell einen wertvollen Ansatz für das Architektur-Design, indem Teile der lokalen Infrastruktur, die hohe Kosten verursachen, aber gleichermaßen schwierig zu skalieren sind, mit Infrastrukturen kombiniert werden, die massiv skalierbar und bei Bedarf provisioniert werden können. Die Anwendungen und Daten werden auf der für den Einzelfall besten Plattform ausgerollt und die Verarbeitung zwischen beiden integriert.

Der Einsatz hybrider Szenarien bestätigt die Tatsache, dass nicht alle IT-Ressourcen in Public Cloud Umgebungen abgebildet werden sollten und für einige sogar niemals in Frage kommen. Werden Themen wie die Compliance, Geschwindigkeitsanforderungen und Sicherheitsbeschränkungen betrachtet, ist eine lokale Infrastruktur weiterhin notwendig. Die Erfahrungen aus dem hybriden Modell helfen dabei aber zu verstehen, welche Daten lokal bleiben sollten und welche innerhalb einer Public Cloud Umgebung verarbeitet werden können.



Das Business im Internet of Everything, Hybrid Cloud, Ein Koffer auf Reisen #tsy13

Während der Breakout Sessions auf dem T-Systems Symposium habe ich mir drei Themen angehört. Jeweils eines aus dem Bereich Cloud, Mobile und Collaboration bzw. The Internet of Things. Ich werde zu jedem dieser Themen zwar in den kommenden Tagen noch eine ausführliche Analyse bzw. ein Kommentar schreiben. Dennoch möchte ich schon einmal einen kurzen Vorgeschmack geben, da es sich dabei wirklich um interessante Use Cases handelt.

Geschäftstransformation im Zeitalter von Collaboration und „Internet of Everything“ (IoE)

Cisco sieht seine Zukunft als Enabler des Internet of Everything (IoE). Der Unterschied zu dem viel diskutierten Internet of Things (IoT) besteht in der Anzahl der miteinander vernetzten Objekte. Wo es sich beim IoT um die Kommunikation von Menschen mit Maschinen und Maschinen untereinander handelt, geht es beim IoE um Menschen, Prozesse, Daten und Dinge. Es geht also um deutlich mehr Konnektivität. Cisco sieht aus diesem Grund im Jahr 2020 in etwa 50 Billionen Smart Objects weltweit, die miteinander verbunden sind. Dabei soll in Zukunft Fog Computing unterstützen, welches ich erst vor kurzem vorgestellt und analysiert habe.

Ready for Hybrid Cloud mit T-Systems DSI vCloud = VMware vCloud™ Datacenter Services

Eine VMware Studie hat ergeben, dass 37 Prozent der führenden europäischen IT-Entscheider nicht erfasste Ausgaben für Cloud Services in ihrem Unternehmen vermuten. Dabei würden 58 Prozent der europäischen Wissensarbeiter ungenehmigte Cloud Services nutzen. VMware sieht eine Lösung im IT-as-a-Service. Dabei stellen sich die IT-Abteilungen als Mitbewerber zu externen Service Anbietern auf. VMware merkt aber auch an, dass historisch entstandene IT-Silos wie Storage, Netzwerk, Server, Windows, Unix oder Linux die größten Herausforderungen für IT-as-a-Service sind. Dabei soll das Software-defined Data Center, was aus den Komponenten virtualisierte Server, Software-defined Network und Software-defined Storage besteht, helfen. Das stellt für Unternehmen dann die Grundlage dar, um über eine Hybrid Cloud Workloads bei Bedarf in ein zertifiziertes vCloud Datacenter zu migrieren.

Bag2Go: Der moderne Koffer geht allein auf Reisen

Airbus will mit seinem Bag2Go, einem intelligenten Koffer, den Menschen von seinem Gepäck trennen. Das bedeutet, dass ein Koffer auch eine andere Route zum Reiseziel nehmen kann als der Reisende. Hierzu bietet der Koffer verschiedene Eigenschaften: Selbständige Gewichtsanzeige, automatisierter Check-In und selbstständige Beförderung. Auch die ständige Verfolgung des Koffers und sein Status sind möglich. Airbus verspricht, dass für den Einsatz des Koffers keine Änderungen an der bestehenden Infrastruktur an den Flughäfen notwendig ist. Airbus Ziel besteht darin, in Zukunft vollständig vernetzte Transportkapseln als Standard zu etablieren. Ein Internet of Things Use Case. Bag2Go nutzt als Infrastruktur die Business Cloud von T-Systems.



AWS OpsWorks + AWS VPC: Amazon AWS erhöht das Tempo in der Hybrid Cloud

Nachdem die Amazon Web Services (AWS) im vergangenen Jahr das deutsche Unternehmen Peritor und dessen Lösung Scalarium akquiriert und in AWS OpsWorks umbenannt haben, folgt die weitere Einbindung in die AWS Cloud Infrastruktur. Der nächste Schritt ist die Integration mit der Virtual Private Cloud, was angesichts der aktuellen Marktentwicklung ein weiterer Seitenhieb in Richtung der Verfolger ist.

AWS OpsWorks + AWS Virtual Private Cloud

Bei AWS OpsWorks handelt es sich um eine DevOps Lösung mit der Anwendungen bereitgestellt, angepasst und verwaltet werden können. Kurzum lässt sich damit der gesamte Lebenszyklus einer Applikation steuern. Dazu gehören Funktionen wie ein Nutzer-basiertes SSH-Management, CloudWatch Metriken für die aktuelle Last und den Speicherverbrauch sowie automatische RAID Volume konfigurationen und weitere Möglichkeiten zum Applikations-Deployment. Weiterhin lässt sich OpsWorks mit Chef erweitern, indem individuelle Chef Rezepte genutzt werden.

Die neue Virtual Private Cloud (VPC) Unterstützung ermöglicht nun diese OpsWorks Funktionen innerhalb eines isolierten privaten Netzwerks. Dadurch lassen sich z.B. auch Anwendungen aus einer eigenen IT-Infrastruktur in eine VPC in der Amazon Cloud übertragen, indem eine sichere Verbindung zwischen dem eigenen Rechenzentrum und der Amazon Cloud hergestellt wird. Damit verhalten sich Amazon EC2-Instanzen innerhalb einer VPC so, als ob Sie sich in dem vorhandenen Unternehmensnetzwerk befinden würden.

OpsWorks und VPC sind erst der Anfang

Glaubt man dem Ergebnis der Rackspace 2013 Hybrid Cloud Umfrage, dann haben 60 Prozent der IT-Entscheider die Hybrid Cloud als Hauptziel vor Augen. Dabei wollen bzw. haben ebenfalls 60 Prozent ihre Applikationen und Workloads aus der Public Cloud abgezogen. 41 Prozent haben angegeben die Public Cloud teilweise verlassen zu wollen. 19 Prozent wollen die Public Cloud sogar vollständig verlassen. Die Gründe für den Einsatz einer Hybrid Cloud anstatt einer Public Cloud sind eine höhere Sicherheit (52 Prozent), mehr Kontrolle (42 Prozent) sowie eine bessere Performance und höhere Zuverlässigkeit (37 Prozent). Zu den Top Vorteilen, von denen Hybrid Cloud Nutzer berichten, gehören mehr Kontrolle (59 Prozent), eine höhere Sicherheit (54 Prozent), eine höhere Zuverlässigkeit (48 Prozent), Kostenvorteile (46 Prozent) und eine bessere Performance (44 Prozent).

Diesen Trend hat AWS bereits im März 2012 erkannt und erste strategische Schritte eingeleitet. Denn die Integration von OpsWorks mit VPC ist im Grunde genommen nur ein Nebenschauplatz. Den eigentlichen Trumpf hat AWS mit der Kooperation von Eucalyptus in der Hand, die im vergangenen Jahr unterzeichnet wurde. Hierbei geht es darum, die Kompatibilität mit den AWS APIs zu verbessern, indem AWS Eucalyptus mit weiteren Informationen versorgt. Weiterhin sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Die Kunden sollen zudem die Möglichkeit bekommen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Erste Erfolge der Kooperation konnte Eucalyptus mit Version 3.3 bereits präsentieren.

Spannend bleibt wie die Zukunft von Eucalyptus aussieht. Irgendwann wird das Open-Source Unternehmen gekauft oder verkauft. Die Frage ist wer den ersten Schritt macht. Mein Tipp ist weiterhin, dass AWS eine Akquisition von Eucalyptus anstreben muss. Aus strategisch und technologischer Sicht führt daran eigentlich kein Weg vorbei.

Angesichts dieser Tatsache dürfen sich Rackspace und alle anderen, die mittlerweile auf den Hybrid Cloud Zug aufgesprungen sind, keine all zu großen Hoffnungen machen. Auch hier hat Amazon frühzeitig die Weichen gestellt und ist ebenfalls für dieses Szenario vorbereitet.



Exklusiv: openQRM 5.1 wird um Hybrid Cloud Funktionalität erweitert und bindet Amazon AWS und Eucalyptus als Plugin ein

Bald ist es soweit. Noch in diesem Sommer wird openQRM 5.1 erscheinen. Projektmanager und openQRM-Enterprise CEO Matt Rechenburg hat mir vorab bereits ein paar sehr interessante neue Features verraten. Neben einem vollständig überarbeiteten Backend-Design wird die Open-Source Cloud Infrastruktursoftware aus Köln um Hybrid-Cloud Funktionalität erweitert, indem Amazon EC2, Amazon S3 und deren Klon Eucalyptus als Plugin eingebunden werden.

Neue Hybrid-Cloud Funktionen in openQRM 5.1

Ein kleiner Überblick über die neuen Hybrid-Cloud Funktionen in der kommenden openQRM 5.1 Version:

  • openQRM Cloud spricht transparent mit Amazon EC2 und Eucalyptus.
  • End-User innerhalb einer privaten openQRM Cloud können sich per Self-Service vom Administrator ausgewählte Instanz-Typen bzw. AMI's bestellen, die dann von openQRM Cloud in Amazon EC2 (oder Amazon kompatiblen Clouds) automatisch provisioniert werden.
  • Benutzerfreundliches Password-Login für den End-User der Cloud per WebSSHTerm direkt im openQRM Cloud Portal.
  • Automatisches Applications Deployment mittels Puppet.
  • Automatische Kostenabrechnung über das openQRM Cloud-Billingsystem.
  • Automatisches Service Monitoring via Nagios für die Amazon EC2 Instanzen.
  • openQRM High-Availability auf Infrastrukturebene für Amazon EC2 (oder kompatible Private Clouds). Das bedeutet: Fällt die EC2 Instanz aus oder tritt in einer Amazon Availability Zone (AZ) ein Fehler auf, wird eine exakte Kopie dieser Instanz neu gestartet. Im Falle eines Ausfalls einer AZ wird die Instanz sogar automatisch in einer anderen AZ derselben Amazon Region wieder hochgefahren.
  • Integration von Amazon S3. Daten lassen sich direkt über openQRM auf Amazon S3 speichern. Beim Erstellen einer EC2 Instanz kann ein Skript, welches auf S3 abgelegt ist mit angegeben werden, was z.B. weitere Befehle beim Start der Instanz ausführt.

Kommentar: openQRM erkennt den Trend genau zur richtigen Zeit

Auch openQRM-Enterprise zeigt mit dieser Erweiterung, dass die Hybrid Cloud ein immer ernst zunehmender Faktor beim Aufbau von Cloud-Infrastrukturen wird und kommt mit den neuen Features genau zur richtigen Zeit. Das Unternehmen aus Köln orientiert sich dabei nicht überraschend am aktuellen Public Cloud Marktführer Amazon Web Services. Damit lässt sich openQRM ebenfalls in Kombination mit Eucalyptus und anderen Amazon kompatiblen Cloud-Infrastrukturen nutzen, um eine massiv skalierbare Hybrid-Cloud Infrastruktur aufzubauen. Dabei setzt openQRM auf sein bewährtes Plugin-Konzept und bildet Amazon EC2, S3 und Eucalyptus genau so ab. Amazon und Eucalyptus werden, neben eigenen Ressourcen aus einer privaten openQRM Cloud, damit zu einem weiteren Ressourcen Provider, um schnell und unkompliziert mehr Rechenleistung zu erhalten.

Zu den absoluten Killerfeatures gehören meiner Ansicht nach das automatische Applications Deployment mittels Puppet, mit dem End-Nutzer sich bequem und automatisiert EC2 Instanzen mit einem vollständigen Softwarestack selbst bereitstellen können, sowie die Berücksichtigung der Amazon AZ-übergreifenden High-Availability Funktionalität, die von vielen Cloud-Nutzern aus Unwissenheit immer wieder vernachlässigt wird.

Viel Beachtung hat das Team ebenfalls der Optik und dem Interface des openQRM-Backends geschenkt. Die vollständig überarbeitete Oberfläche wirkt aufgeräumter und dadurch übersichtlicher in der Handhabung und wird die Bestandskunden positiv überraschen.



Amazon kauft Eucalyptus Cloud – Es ist nur eine Frage der Zeit

In der Public Cloud sind die Amazon Web Services (AWS) derzeit die unangefochtene Nummer Eins. Bei Private bzw. Hybrid Cloud Lösungen sind Anbieter wie Microsoft oder HP allerdings besser aufgestellt. AWS selbst hat hier zur Zeit kein eigenes Angebot zu bieten. Stattdessen wurde im März 2012 eine exklusive Kooperation mit Eucalyptus Systems eingegangen, die ein Abbild der grundlegenden AWS Funktionen bieten. Diese strategische Entscheidung ist nachvollziehbar und wird Folgen für die Zukunft haben.

Die Kooperation zwischen AWS und Eucalyptus

Im März 2012 haben AWS und Eucalyptus Systems, Anbieter einer Private Cloud Infrastruktur-Software, mit der sich die grundlegenden Funktionen der Amazon Cloud auch im eigenen Rechenzentrum aufbauen lassen, sich zu einer engeren zusammenarbeiten entschlossen. Diese Kooperation ging verstärkt von Eucalyptus CEO Marten Mickos aus und hat den Hintergrund, die Migration von Daten zwischen der Amazon Cloud und Eucalyptus Private Clouds besser zu unterstützen.

Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst konzentrieren sich Entwickler aus beiden Unternehmen darauf, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Der Mitbewerb holt auf

Auch wenn es in der Public Cloud derzeit sehr rosig aussieht, die Zukunft liegt in der Hybrid Cloud. Hinzu kommt, dass viele Unternehmen eher mit einer eigenen Private Cloud liebäugeln, als in die Public Cloud zu wechseln. Das bedeutet, dass die Private bzw. die Hybrid zunehmend an Bedeutung gewinnen. Hier haben die Amazon Web Services, bis auf die Virtual Private Cloud, jedoch selbst nichts zu bieten. Microsoft und HP verfügen bereits über ein sehr ausgeglichenes Portfolio, das sowohl Lösungen und Angebote für die Public als auch für die Private Cloud bietet. Weiterhin verfügen beide über eine große Kundenbasis.

Außerdem ist ein weiterer Punkt klar. Wo sich Microsoft und HP auf Unternehmen konzentrieren, sind die Amazon Web Services derzeit noch verstärkt das Mekka für Startups. Der Erfolg spricht für sich. Dennoch, schaut man sich Amazons Bemühungen in den letzten Monaten an, ist die Zielrichtung klar. AWS muss und will in die Unternehmen. Das ist jedoch nur mit einer echten Private/ Hybrid Cloud Strategie möglich. Amazon wird daher irgendwann an einem Punkt ankommen, wo es aktiv darum geht, auch diese Märkte aggressiv zu erobern.

Amazon ist ein Serviceanbieter

Bisher hat AWS im Cloud-Umfeld keine Akquisitionen getätigt, da sie es einfach nicht mussten. Als Innovation-Leader setzen sie die Maßstäbe in der Public Cloud. In der Private/ Hybrid Cloud sieht es jedoch anders aus. Hier besteht, meiner Einschätzung nach, so gut wie keine Expertise. Auch wenn Amazon eigene Rechenzentren betreibt, ist der Betrieb einer quasi Standardlösung für Unternehmen anders. Hier haben Microsoft oder HP jahrelange Erfahrungen und somit einen klaren Vorteil. Die Amazon Web Services sind ein typischer Service-Anbieter. Das bedeutet, sie liefern ihre Services aus der Cloud aus, die einfach nur konsumiert werden sollen. Cloud-Software für den Massenmarkt wird nicht entwickelt. Für das Bereitstellen, Ausliefern, Warten und Ausrollen von Updates und neuer Versionen sowie die Kunden zu besänftigen fehlt die Erfahrung. Daher ist die Kooperation mit Eucalyptus der erste richtige Schritt gewesen. Was nicht zum Kerngeschäft gehört wird ausgelagert. So wie Amazon Cloud Computing vermarktet, scheinen sie es auch selbst zu leben.

Dennoch wird Amazon mehr Einfluss auf auf die Private und Hybrid Cloud nehmen und ebenfalls ein Stück von diesem Kuchen genießen wollen. Daher wird der nächste logische Schritt darin bestehen, Eucalyptus Systems zu kaufen. Zum Einen geht es um mehr Einfluss auf Eucalyptus. Denn auch auch wenn Marten Mickos die Kooperation mit AWS vorangetrieben hat, wird er sich nicht allem beugen, was Amazon verlangt. Auf der anderen Seite muss die Hybrid Cloud Integration gestärkt werden. Hinzu kommt, dass für die Private Cloud Beratung qualifiziertes Personal benötigt wird, das Eucalyptus inkl. seiner Partnerunternehmen ebenfalls mitbringt.

Es ist nur eine Frage der Zeit

Wann Eucalyptus Systems von Amazon übernommen wird ist eine Frage der Zeit. Vielleicht schon in 2013 oder doch erst in 2014/ 2015. Auf jedenfall wird es dazu kommen. Wie Eucalyptus dann integriert wird ist schwer zu sagen. Ich gehe davon aus, dass Eucalyptus zunächst eigenständig agieren wird und als "Ein Amazon Unternehmen" unter die Dachmarke von Amazon gesetzt wird. Ganz nach dem Motto, konzentriere dich auf dein Kerngeschäft, wird AWS sich weiterhin auf die Public Cloud konzentrieren und in Ruhe schauen, wie sich die Hybrid und Private Cloud, unter dem eigenen Einfluss, entwickeln wird. Auf jedenfall hätten sie mit Eucalyptus dann schon einmal die richtige Lösung für ihre Zwecke im eigenen Portfolio.



40 Prozent der Unternehmen setzen auf hybride Cloud-Plattformen

Laut einer Studie von IDC und Infosys setzen über 40 Prozent der Befragten mittlerweile auf hybride Cloud-Plattformen. Viele der interviewten Unternehmen wiesen zudem auf die wichtige Zusammenarbeit mit einem verlässlichen externen Dienstleister hin. Nur erfahrene Service Provider könnten Unternehmen beim komplexen Umzug in die Cloud umfassend unterstützen. Die Ergebnisse der IDC-Studie erscheinen in Zusammenarbeit mit Infosys in dem White Paper „Adoption of Cloud: Private Cloud is Current Flavor but Hybrid Cloud is Fast Becoming a Reality“. Im Rahmen der Erhebung, die von IDC durchgeführt wurde und seit September 2012 erhältlich ist, wurden IT-Entscheider in Führungspositionen befragt. Die Umfrageteilnehmer sind bei 326 großen Unternehmen in den USA, Großbritannien, Frankreich und Deutschland beschäftigt.

Die Komplexität des Cloud Ecosystem steigt

Das Cloud Ecosystem wird aufgrund einer Vielzahl verschiedener öffentlicher, privater und Vor-Ort-Informationstechnologien immer komplexer. Die für die Studie Befragten erklärten, dass es außerdem immer schwieriger werde, diese komplexen Umgebungen umfassend zu verstehen, zu überschauen und ganzheitlich zu verwalten.

56 Prozent der Umfrageteilnehmer arbeiten bereits mit einem externen Dienstleister zusammen oder spielen mit dem Gedanken, einen Service Provider zu engagieren. Hierdurch möchten sie erfahren, wie sie ihre Cloud-Strategie verbessern, eine Roadmap entwickeln und die neue Technologie effizient implementieren können. Die befragten Unternehmen hoben die Notwendigkeit hervor, durch die Zusammenarbeit mit den externen Dienstleistern die komplexen Herausforderungen anzusprechen, die sich durch die Entwicklung und Verwaltung zusammengeführter hybrider Cloud-Umgebungen ergeben.

Die IDC-Studie zeigt darüber hinaus, dass Cloud-Ansätze sowie die Einführung hybrider Clouds je nach Industrie variieren. So verfügen beispielsweise 53 Prozent der Unternehmen in der Telekommunikationsindustrie über formalisierte Cloud-Strategien und Roadmaps. Im Bereich der Finanzdienstleistungen sind es lediglich 38 Prozent. Geht es jedoch um hybride Cloud-Einführungen, liegen die Finanzdienstleister mit 64 Prozent vorne. Es folgen die Bereiche Gesundheitswesen mit 47 Prozent, Industrie mit 40 Prozent und Handel mit 37 Prozent.

Die Suche nach dem "besten Cloud-Anbieter"

52 Prozent der Befragten erklärten außerdem, dass es sehr wichtig sei, „die besten Cloud-Anbieter auszuwählen und eine reibungslose Integration zwischen den einzelnen Providern sicherzustellen“, 14 Prozent finden es sogar extrem wichtig. 48 Prozent der Unternehmen messen zudem „Datensicherheit und Integration, Automatisierung sowie dem Zusammenspiel von Anwendungen in privaten, öffentlichen und Vor-Ort-IT-Umgebungen“ eine große Bedeutung bei.

Private Cloud hat höchsten Stellenwert

Die private Cloud ist nach wie vor am beliebtesten: 69 Prozent der Umfrageteilnehmer bevorzugen diese Cloud-Option. Produktivitätsgewinne und Kosteneinsparungen – 37 Prozent sowie 25 Prozent – sind die Hauptgründe, warum sich Unternehmen für die Cloud entscheiden.


Bildquelle: ©Gerd Altmann / PIXELIO



Professionelle Open-Source Lösungen für die eigene Cloud

Ich hatte vor längerer Zeit in dem Artikel "Die eigene Cloud bauen mit… – CloudWashing par excellence!" die leichtfertige Aussage eines Journalisten kritisiert, dass man auf einfache Weise eine eigene Cloud Umgebung aufbauen kann. Das dem so nicht ist und worauf zu achten ist, habe ich in dem Artikel ebenfalls erläutert. Dennoch existieren natürlich Lösungen, die dabei helfen, eine eigene Cloud aufzubauen. Tatsächlich gibt es derzeit aber nur fünf Open-Source Lösungen, die für den professionellen Aufbau von Cloud Computing Umgebungen eingesetzt werden sollten. Dazu gehören openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula.

Grundlegendes! Bitte lesen!

Viele Unternehmen entscheiden sich vermehrt für den Aufbau einer eigenen (Private) Cloud, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine eigene Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer eigenen Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Hardware, Hardware, Hardware

Eine eigene Cloud bedarf also Unmengen an physikalischen Ressourcen um den Wunsch nach Flexibilität und quasi unendlichen virtuellen Ressourcen zu befriedigen. Heißt im Umkehrschluß daher für Unternehmen mit einer eigenen Cloud: Investieren, das eigene Rechenzentrum umbauen und Cloud-fähig zu machen.

Es ist ein Irrglaube, wenn man denkt, dass der Aufbau einer eigenen Cloud impliziert, sich anschließend nicht mehr um die Hochverfügbarkeit der eigenen Infrastruktur (physikalische Maschinen, virtuelle Maschinen, Master-Slave-Replikation, Hot-Standby, etc.) kümmern zu müssen. Das macht dann ja schließlich die Cloud alleine.

Konfigurieren, Skripte, Intelligenz

Eine Cloud funktioniert nicht von alleine. Sie muss entwickelt und mit Intelligenz ausgestattet werden. Das gilt für den Aufbau einer Private Cloud genau so wie für die Nutzung eines Public Cloud Angebots (im Falle von IaaS). Dazu müssen Skripte geschrieben, womöglich Software neu entwickelt werden, die auf der Cloud verteilt läuft. Weiterhin ist es wichtig, die Whitepaper des Anbieter zu lesen, KnowHow(!) aufzubauen und zu verstehen, wie die Cloud arbeitet, um sie für die eigenen Bedürfnisse nutzen zu können. Eine weitere Möglichkeit besteht natürlich darin, sich (zusätzlich) von Profis beraten zu lassen. Das ist bei der Nutzung einer eigenen Cloud nicht anders. Wenn eine virtuelle Maschine A ein Problem hat, dann kann sie plötzlich nicht mehr erreichbar sein, wie jeder normale physikalische Server nun einmal auch. Nun könnte man denken: “Dann nehme ich als Backup für virtuelle Maschine A halt noch eine virtuelle Maschine B dazu!” Und dann? Man könnte nun denken, dass die virtuelle Maschine B automatisch die Aufgaben der virtuelle Maschine A übernimmt. So einfach ist das aber nicht! Skripte müssen vorab dafür sorgen, dass die virtuelle Maschine B die Aufgaben von virtuelle Maschine A übernehmen soll, wenn diese plötzlich nicht mehr erreichbar ist. Auch die virtuelle Maschine B muss dafür zunächst vorbereitet werden. Dazu kann z.B. der eigentliche (wichtige) Inhalt der virtuelle Maschine A inkl. aller Konfigurationen etc. in einem zentralen Speicher und nicht auf dem lokalen Speicher abgelegt werden. Anschließend muss ein Skript dafür sorgen, dass die virtuelle Maschine B automatisch mit den Konfigurationen und allen Daten aus dem lokalen Speicher hochgefahren wird, wenn die virtuelle Maschine A nicht mehr verfügbar ist.

Virtuelles Rechenzentrum

Die Cloud gibt uns im Bereich Infrastructure as a Service letztendlich nur die Möglichkeit, aus einem quasi unendlich großen Pool von Ressourcen die (unendliche) Anzahl an Ressourcen zu dem Zeitpunkt zu bekommen, wenn wir sie benötigen. Wir erhalten von der Cloud somit ein eigenes hochskalierbares virtuelles Rechenzentrum. Das bedeutet aber im Umkehrschluss für den Betreiber einer Cloud (Private, Public), dass er ebenfalls die Menge an physikalischen Ressourcen vorhalten muss, damit die angefragten virtuellen Ressourcen jederzeit bereitgestellt werden können und damit immer ausreichend Ressourcen für die Nutzer zur Verfügung stehen.


Open-Source Lösungen für den Aufbau einer eigenen Cloud


openQRM

openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen und ist aktuell in der Version 5.0 verfügbar. Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können. Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von "P-to-V", "V-to-P" und "V-to-V".

openQRM verfügt des Weiteren über ein integriertes Storage-Management, mit dem anhand des Snapshot-Verfahrens Serversysteme dupliziert werden können. Die Snapshots ermöglichen eine dynamische Anpassung des Speicherplatzes, bieten einen persistenten Cloud-Speicher und erlauben ein Backup/Restore der Server sowie deren Versionierung.

Mit der "N-zu-1" Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Dabei spielt es keine Rolle, ob physikalische oder virtuelle Maschinen eingesetzt werden!

Benefits auf einem Blick

Virtualisierung

openQRM unterstützt alle gängigen Virtualisierungstechnologien darunter VMWare, Citrix XenServer und KVM und bietet die Möglichkeit der Migration von P-to-V-, V-to-P- und V-to-V für physikalische Server als auch virtuelle Maschinen.

Storage

openQRM verfügt über ein zentralisiertes Speichersystem mit integriertem Storage Management, welches alle bekannten Storage-Technologien unterstützt. Dazu gehören u.a. Netapp, Equallogic, NFS, iSCSI ZFS und proprietäre auf LVM basierende Storage-Typen, für eine flexible und schnelle Duplizierung von Serversystemen.

Zentrales Management

openQRM verschmilzt die Welt von Open Source mit der von kommerziellen Produkten. Mit einer zentralen Managementkonsole sind alle Funktionen zur Administration von Rechenzentren, System- und Service-Überwachung, Hochverfügbarkeit und automatisierter Bereitstellung vorhanden.

Funktionen

Hardware/Software Isolation

openQRM isoliert die Hardware (physikalische Server, virtuelle Maschinen) vollständig von der Software (Server Images). Dabei ist die eigentliche Hardware eine "Computing Resource" und kann dadurch jederzeit durch eine andere Hardware ersetzt werden, ohne dass die Software (Server Image) neu konfiguriert werden muss.

Unterstützung für verschiedene Virtualisierungs-Technologien

Mit VMWare, Xen, KVM und dem Citrix XenServer unterstützt openQRM eine viehlzahl an virtuellen Maschinen und kann dieses transparent verwalten und migrieren. Neben der System-Migration von physikalischen Servern zu virtuellen Maschinen (P-to-V) können Systeme ebenfalls von virtuellen Maschinen zu physikalischen Servern (V-to-P) migriert werden. Darüber hinaus besteht die Möglichkeit ein System von einer Virtualisierungstechnologie zu einer anderen Virtualisierungstechnologie (V-to-V) zu verschieben.

Vollautomatische Nagios-Konfiguration

openQRM unterstützt die vollautomatische Konfiguration von Nagios mittels "nmap2nagios-ng". Damit wird das gesamte openQRM Netzwerk analysiert und auf Basis der Informationen eine Nagios-Konfiguration erstellt. Anschließend werden alle Services auf allen Systemen überwacht.

Integriertes Storage-Management

openQRM organisiert die Serversysteme wie Dateien und nutzt zur Verwaltung moderne Storagesysteme anstatt lokaler Festplatten. Mittels Logical Volume Managern (LVM) und deren Snapshot-Verfahren können Server-Templates auf schnellen Wege dupliziert werden.

"Sollen z.B. 10 neue Server ausgerollt werden, kann so einfach ein bestehendes Server-Image 10 mal dupliziert und die "Clone" direkt zum Deployment bereitgestellt werden."

Mit diesem Konzept steht ein zentrales Backup/Restore sowie die Möglichkeit von Hot-Backups ohne Downtime zur Verfügung.

openQRM unterstützt folgende Storage-Typen:

  • NFS (NAS)
  • iSCSI (iSCSI SAN)
  • Aoe/Coraid (AOE SAN)
  • NetApp (iSCSI SAN)
  • Local-disk (Übertragung von Server-Images auf lokale Festplatten)
  • LVM-Nfs (NFS auf LVM2, erlaubt schnelles Cloning)
  • LVM-iSCSI (iSCSI auf LVM2, erlaubt schnelles Cloning)
  • LVM-Aoe (Aoe auf LVM2, erlaubt schnelles Cloning)
  • Equallogic (iSCSI SAN)
  • ZFS (iSCSI SAN)

Hochverfügbarkeit und "N-to-1"-Fail-Over!

Mit der "N-zu-1" Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Unabhängig davon, ob physikalische oder virtuelle Maschinen eingesetzt werden.

"Um zum Beispiel 10 hochverfügbare Spezialsysteme zu betreiben benötigt man normalerweise weitere 10 "Stand-By"-Systeme. Mit openQRM jedoch benötigt man nur einen einzigen "Stand-By"-Server, der im Fehlerfall eines der 10 Spezialsysteme benutzt wird. Das heißt, man kann 9 "stromfressende", nicht ausgelastete Server einsparen. Perfekt für "Green IT".

Des Weiteren können physikalische Server virtuelle Maschinen als "Hot Stand-By" nutzen und lassen sich im Notfall in eine virtuelle Maschine migrieren.

Fertige Server-Templates

Mittels dem "Image-Shelf"-Plugin stellt openQRM bereits fertige Server Templates zur Verfügung. Dazu gehören Linux Distributionen wie Debian, Ubuntu, CentOS und openSuse. Des Weiteren können mit dem Plugin eigene Server Templates auf unterschiedliche Weise (lokal, http, https, ftp) bereitgestellt werden.

Unterstützung verschiedenster Deployment-Methoden

Mit openQRM können Server von jeder Art von Storage gestartet werden. Zusätzlich können die Server Templates von einem Storage-Typ zu einem anderen übertragen werden, dabei kann noch entschieden werden, ob die Server Templates auf einem physikalischen Server oder in einer virtuellen Maschine gestartet werden sollen.

Unterstützung verschiedener OS-Distributionen

Es stehen bereits vor-konfigurierte openQRM-Server Pakete für Debian, Ubuntu und CentOS zur Verfügung. Ein openQRM-Server kann aber alle gängigen Linux Distributionen verwalten.

Cloud-Selector

Mit dem Cloud-Selector kann der Cloud Administrator seine Cloud Produkte wie z.B. Prozessoren, Speicher, Festplattengröße oder den Typ der virtuellen Maschine auswählen und deren Preise festlegen.

Kostenrechner im Cloud-Portal

Die Cloud-Computing-Unit (CCU) kann einer regulären Währung (z.b. USD oder Euro) zugewiesen werden. Mit dem Kostenrechner werden die stündlichen, täglichen und monatlichen verbrauchten Kosten für eine Cloud Appliance berechnet.

Private Cloud Images

Mit der "Private Cloud Image"-Funktion können Cloud Benutzer eigene Server Templates anlegen und verwalten.

Volle SSL-Unterstützung

Der openQRM-Server arbeitet in einem vollständig SSL-verschlüsselten Bereich und unterstützt verschiedene Serverarchitekturen wie i386 und x86_64.

Ich möchte hier noch anmerken, dass es sich bei der openQRM Enterprise um einen deutschen Anbieter aus dem Bereich des Cloud Computing handelt!


Eucalyptus

Beim Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems (Eucalyptus) handelt es sich um eine Open Source Software Infrastruktur zum Aufbau von skalierbaren Utility Computing bzw. Cloud Computing Umgebungen für spezielle Clustersysteme oder einfachen miteinander verbundenen Arbeitsplatzrechnern.

Eucalyptus wurde als ein Forschungsprojekt am Computer Science department an der University of California Santa Barbara entwickelt und wird mittlerweile von der Eucalyptus Systems Inc. vermarktet. Die Software wird aber weiterhin als Open Source Projekt gepflegt und weiterentwickelt. Die Eucalyptus Systems Inc. bietet darüber hinaus lediglich weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an.

Folgende Funktionen stellt Eucalyptus bereit:

  • Kompatibilität mit den Schnittstellen zu Amazon EC2 und S3 (SOAP und REST).
  • Unterstützung aller Virtual Machines die auf einem Xen Hypervisor oder einer KVM ausgeführt werden.
  • Administrationstools für die System- und Benutzerverwaltung.
  • Die Möglichkeit mehrere Cluster für eine Cloud zu konfigurieren, wobei jeder einzelne Cluster über eine private interne IP-Adresse verfügt.

Architektur

Eucalyptus besteht aus fünf zusammenarbeitenden Hauptkomponenten um den angeforderten Cloud Service bereit zu stellen. Die Kommunikation zwischen den Komponenten erfolgt über gesicherte SOAP Nachrichten mittels WS-Security.

Cloud Controller (CLC)

Der Cloud Controller dient innerhalb einer Eucalyptus Cloud als Hauptkomponente für die Verwaltung des gesamten Systems und stellt den Administratoren und Benutzern einen zentralen Zugriffspunkt bereit. Die Kommunikation aller Clients mit dem Eucalyptus System erfolgt ausschließlich nur über den Cloud Controller anhand der auf SOAP oder REST basierenden API. Der Cloud Controller ist dafür zuständig, alle Anfragen zu der richtigen Komponente weiterzuleiten, diese zu sammeln und die Antwort der Komponente anschließend wieder zu dem Client zurück zu senden. Der Cloud Controller ist somit die öffentliche Schnittstelle einer Eucalyptus Cloud.

Cluster Controller (CC)

Der Cluster Controller ist innerhalb des Eucalyptus Systems für die Verwaltung des virtuellen Netzwerks zuständig. Der Cloud Controller erhält alle Anfragen auf Basis seiner SOAP oder REST Schnittstellen. Der Cloud Controller erhält alle Informationen über die vorhandenen Node Controllers des Eucalyptus Systems und ist für die Kontrolle des Lebenszyklus jedes einzelnen verantwortlich. Er leitet alle Anfragen an die Node Controller mit verfügbaren Ressourcen weiter um damit virtuelle Instanzen zu starten.

Node Controller (NC)

Ein Node Controller steuert das Betriebssystem und den zugehörigen Hypervisor eines Rechners (Node) im Eucalyptus System. Auf jeder physikalischen Maschine die eine durch den Cluster Controller instantiierte virtuelle Instanz auf Grund einer Anfrage beherbergt, muss eine Instanz eines Node Controller vorhanden sein.

Walrus (W)

Walrus ist für die Zugriffsverwaltung auf den Speicherdienst innerhalb eines Eucalyptus Systems zuständig. Walrus erhält die Anfragen über seine SOAP oder REST Schnittstelle.

Storage Controller (SC)

Der Storage Controller verwaltet den Speicherdienst innerhalb eines Eucalyptus Systems und verfügt über eine Schnittstelle zu Amazon's S3 Dienst. Der Storage Controller arbeit in Verbindung mit Walrus und wird für die Speicherung und den Zugriff auf die Images der Virtual Machines, die Kernel Images, die RAM Disk Images und die Daten der Benutzer verwendet. Die Images der Virtual Machines können rein privat oder öffentlich zugänglich gemacht werden und können dabei komprimiert und verschlüsselt gespeichert werden. Die Images werden lediglich entschlüsselt, wenn ein Node eine neue virtuelle Instanz starten muss und dazu einen Zugriff auf das Image benötigt.

Das Clustersystem

Ein Eucalyptus System vereint und verwaltet Ressourcen von Single-Cluster als auch Multi-Cluster Systemen. Dabei besteht ein Cluster aus einer Gruppe von Rechnern, die alle mit dem selben LAN verbunden sind. Zu jedem Cluster kann wiederum einer aber auch mehrere Node Controller gehören, die für die Verwaltung der Instantiierung und Beendigung der virtuellen Instanzen verantwortlich sind.

Ein Single-Cluster besteht aus mindestens zwei Maschinen. Auf dem einen werden der Cluster Controller, der Storage Controller und der Cloud Controller ausgeführt, auf dem anderen der Node Controller. Diese Art der Konfiguration ist vor allem für Experimente und schnelle Konfigurationen geeignet. Die dargestellte Konfiguration könnte ebenfalls auf einer einzigen Maschine implementiert werden. Allerdings ist dafür eine äußerst leistungsstarke Hardware notwendig!

Bei einem Multi-Cluster wird jede Komponente (CC, SC, NC, und CLC) auf einer separaten Maschine ausgeführt. Dies sollte die bevorzugte Art und Weise sein das Eucalyptus System zu konfigurieren, wenn damit ernsthaft gearbeitet werden soll. Mit einem Multi-Cluster kann zudem die Performance erhöht werden, indem einem Controller die passende Maschine zugewiesen wird. Zum Beispiel sollte der Cloud Controller auf einer Maschine mit einer schnellen CPU ausgeführt werden. Im Allgemeinen bringt die Entscheidung für einen Multi-Cluster eine höhere Verfügbarkeit, sowie eine bessere Lastverteilung und eine optimierte Verteilung der Ressourcen über alle Cluster. Das Clusterkonzept ist vergleichbar mit dem Konzept der Verfügbarkeitszonen der Amazon EC2. Dabei werden die Ressourcen über mehrere Verfügbarkeitszonen hinweg verteilt, damit ein Fehler in einer Zone nicht die Anwendung beeinträchtigt.

Eucalyptus und die Ubuntu Enterprise Cloud

Bei der Ubuntu Enterprise Cloud (UEC) handelt es sich um eine Open Source Initiative von Ubuntu, um auf eine einfachere Art und Weise skalierbare Cloud Infrastrukturen auf Basis von Eucalyptus bereitzustellen und diese zu konfigurieren.

Mit der Ubuntu Enterprise Cloud können Public Clouds erstellt werden, welche Amazon's EC2 infrastructure nutzen. Es können damit aber genau so gut Private Clouds entwickelt werden, die auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall gehostet werden.

Vorteile von Eucalyptus

Bei Eucalyptus handelt es sich um eine Umgebung für Cloud Services, mit der Public Clouds auf Amazon's EC2 Infrastruktur bzw. Private Clouds im hauseigenen Rechenzentrum erstellt werden können. Die grundlegenden Vorteile sollen hier noch einmal kurz aufgeführt werden:

  • Open Source und Entwicklung
    Eucalyptus wurde geschaffen, um die Kommunikation und Forschung von Cloud Computing Plattformen zu fördern. Der Quellcode ist frei verfügbar, was es ermöglicht die Plattform so zu erweitern, damit sie den eigenen Anforderungen entspricht. Eucalyptus wird zunehmend weiterentwickelt. Darüber hinaus ist die Aufnahme und Integration von Funktionswünschen und Verbesserungsvorschlägen sehr schnell.
  • Community
    Eucalyptus verfügt über eine große Community die gerne bereit ist einander zu helfen. Über die Foren kann schnell Kontakt zu anderen Benutzern aufgenommen und Hilfe bezogen werden.
  • Public Cloud
    Eucalyptus funktioniert einwandfrei auf Amazon's EC2 Framework und kann damit als Public Cloud eingesetzt werden.
  • Private Cloud
    Eucalyptus kann auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall als Private Cloud eingesetzt werden. Dadurch ist die Kontrolle bzgl. der Sicherheit und der gesamten Umgebung in der eigenen Hand.
  • Portabilität
    Auf Grund der Kompatibilität von Eucalyptus mit Amazon's EC2 API sowie der Flexibilität von Eucalyptus, können Anwendungen ohne großen Aufwand von einer Cloud in die andere migriert werden. Darüber hinaus besteht die Möglichkeit des Aufbaus von Hybrid Clouds, indem eine Private Cloud mit einer Public Cloud erweitert bzw. kombiniert wird.
  • Qualitativ durch Tests
    Durch den Einsatz von Eucalyptus in Ubuntu's Enterprise Cloud findet tagtäglich ein weltweiter realer Test auf Basis von mehr als tausend Server-Instanzen statt.
  • Kommerzieller Support
    Neben den Foren der Eucalyptus Community kann natürlich auch auf einen kommerziellen Support zurückgegriffen werden.

Open Nebula

OpenNebula ist ein Open Source Virtual Infrastructure Manager mit dem aus vorhandenen Rechenzentren jede Art von Cloud Computing Umgebung aufgebaut und bereitgestellt werden kann. In erster Linie dient OpenNebula als Tool zur Verwaltung der virtualisierten Infrastruktur des eigenen Rechenzentrums bzw. der eigenen Cluster, also der eigenen Private Cloud.

Darüber hinaus ist OpenNebula in der Lage Hybrid Clouds aufzubauen, also die eigene lokale Infrastruktur mit einer Public Cloud Infrastruktur zu verbinden/kombinieren, um die Skalierbarkeit der eigenen Umgebung noch weiter zu erhöhen. OpenNebula verfügt zusätzlich über spezielle Schnittstellen für die Verwaltung von virtuellen Maschinen, Speicherplatz und des Netzwerks von Public Clouds.

Funktionen

Private Cloud Computing

  • Internal Interfaces for Administrators and Users
    Mit einer Unix ähnlichen Kommandozeile und einer XML-RPC API kann der Lebenszyklus der virtuellen Maschinen und physikalischen Server verwaltet werden. Weitere Administrationsmöglichkeiten bietet die libvirt API.
  • Steuerung
    Die Verwaltung der Arbeitslast und Zuweisung der Ressourcen kann nach bestimmten Regeln wie z.B. der aktuellen Auslastung automatisch vorgenommen werden. Des Weiteren wird der Haizea VM-based lease manager unterstützt
  • Virtualisierungsmanagement
    Es existieren Konnektoren für Xen, KVM und VMware, sowie einem generischen libvirt Konnektor für weitere Virtual Machine Manager. Die Unterstützung von Virtual Box ist in Planung.
  • Image Management
    Es sind Funktionen für den Transfer und das Clonen von Virtual Machine Images vorhanden.
  • Netzwerk Management
    Es lassen sich isolierte virtuelle Netze festlegen um virtuelle Maschinen miteinander zu verbinden.
  • Service Management
    Unterstützung von Multi Tier Services bestehend aus Gruppen von miteinander verbundenen virtuellen Maschinen und deren Auto Konfiguration während des Boot Vorgangs.
  • Sicherheit
    Die Verwaltung der Benutzer wird durch den Administrator der Infrastruktur vorgenommen.
  • Fehlertoleranz
    Eine persistente Datenbank dient zum Speichern aller Informationen der Hosts und virtuellen Maschinen.
  • Skalierbarkeit
    Tests zeigten bisher, das OpenNebula mehrere hundert Server und virtuelle Maschinen verwalten kann.
  • Installation
    Die Installation erfolgt auf einem UNIX Cluster Front-End ohne das weitere Services benötigt werden. OpenNebula wird mit Ubuntu 9.04 (Jaunty Jackalope) ausgeliefert.
  • Flexibilität und Erweiterbarkeit
    Die Architektur, Schnittstellen und Komponenten sind offen, flexibel und erweiterbar. Dadurch kann OpenNebula mit jedem aktuellen Produkt aus dem Bereich Virtualisierung, Cloud Computing oder Management Tool für Rechenzentren integriert werden.

Hybrid Cloud Computing

  • Cloud Plugins
    Konnektoren für Amazon EC2 und ElasticHosts.
  • Zusammenschluss
    Unterstützung für den gleichzeitigen Zugriff auf mehrere Remote-Clouds.
  • Erweiterbarkeit
    Modulare Konzepte für die Entwicklung neuer Konnektoren.

Public Cloud Computing

  • Cloud Schnittstellen für Benutzer
    Implementierung einer Teilmenge der Amazon EC2 Query API und der OGF OCCI API
  • Erweiterbarkeit
    Die OpenNebula Cloud API ermöglicht die Implementierung neuer/weiterer Cloud Schnittstellen.

OpenStack

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht derzeit aus insgesamt sechs Kernkompenten und wird stetig weiterentwickelt. OpenStack Compute, OpenStack Object Storage und OpenStack Image Service, OpenStack Identity, OpenStack Dashboard und OpenStack Networking.

Man muss sich allerdings darüber im Klaren sein, dass es sich bei OpenStack um kein fertiges Produkt handelt, das sofort einsatzfähig ist, sondern um einzelne Teilprojekte die selbst ineinander integriert und für die eigenen Bedürfnisse angepasst werden müssen. Es gibt aber mittlerweile fertige OpenStack Installationsroutinen von Mitgliedern des OpenStack Projekts.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.

OpenStack Networking

OpenStack Networking ist ein skalierbares und API basierendes System für die Verwaltung von Netzwerken und IP-Adressen.


CloudStack

CloudStack wurde ursprünglich von Cloud.com entwickelt. Nach der Übernahme durch Citrix Systems im Jahr 2011 wurde Citrix zum Hauptsponsor von CloudStack. Die Open-Source Cloud Plattform basiert auf Java und hilft beim Aufbau und der Verwaltung von skalierbaren Infrastrukturen. Zu den aktuell unterstützten Hypervisorn gehören VMware, Oracle VM, KVM, XenServer und die Xen Cloud Platform. Neben einer eigenen RESTful API implementiert CloudStack ebenfalls die Amazon EC2 und S3 APIs sowie VMwares vCloud API. Die Cloud-Infrastruktur kann entweder über die Web-Oberfläche, einer Kommandozeile oder die API konfiguriert und verwaltet werden.

CloudStack besteht aus fünf Kernkomponenten. Der Compute Controller verwaltet die Rechenleistung, der Network Controller steuert das virtuelle Netzwerk und der Storage Controller ist für die Speicherverwaltung des BlockStorage zuständig. Alle drei Komponenten haben direkten Kontakt mit der physikalische Hardware. Auf diesen Komponenten setzt die CloudStack Orchestration Engine auf, die für den Aufbau, die Steuerung und Verwaltung der CloudStack Infrastruktur verantwortlich ist. Über der Orchestration Engine befindet sich als letzte Komponente die CloudStack API, die mit der Web-Oberfläche, Kommandozeile oder über REST interagiert und die Befehle an die Orchestration Engine weitergibt.

Citrix Systems ist nicht das einzige bekannte Unternehmen, was CloudStack unterstützt. Weitere Supporter des CloudStack Projekts sind RightScale, PuppetLabs, Juniper Networks, Enstratus, TrendMicro, Intel und Equinix.


Bildquelle: ©Gerd Altmann / PIXELIO



Windows Server 2012 – Microsoft vervollständigt sein Cloud Computing Portfolio

Microsoft hat mit dem Windows Server 2012 die neue Ära seines Serverbetriebssystems eingeläutet, mit dem sich das Unternehmen auf den Aufbau und den Betrieb von Cloud Infrastrukturen konzentrieren und sein Engagement im Bereich Cloud Computing unterstreichen will. Dabei fokussien sich die Redmonder insbesondere auf die Private Cloud, wollen im Bereich Public bzw. Hosted Cloud aber ebenfalls ein Wort mitreden.

Windows Server 2012 - Microsoft vervollständigt sein Cloud Computing Portfolio

Hintergrund: Windows Server 2012

Der Windows Server 2012 kommt mit vielen Neuigkeiten. Aus der Cloud Brille betrachtet, befinden sich die größten Innovationen im Bereich der Virtualisierung. Und hier im Speziellen mit dem neuen Hyper-V 3.0, der mit seiner neuen Funktion Hyper-V-Replica virtuelle Festplatte und vollständige Server asynchron zwischen mehreren Hyper-V-Hosts im Netzwerk manuell oder automatisiert repliziert und synchronisiert. Dabei wird die Replikation über das Dateisystem vorgenommen. Virtuelle Server lassen sich zudem im laufenden Betrieb zwischen unterschiedlichen Hyper-V-Hosts replizieren. Damit verspricht Microsoft den Betrieb von hochverfügbaren virtuellen Servern (Hochverfügbarkeitslösung) ohne den Einsatz eines Cluster.

Microsoft spricht Hybrid Cloud

Mit dem Windows Server 2012 rundet Microsoft sein Cloud Portfolio auf der on-Premise Seite (Private Cloud) ab. Nach Windows Azure (PaaS, IaaS), Office 365/ Office 2013, Dynamics CRM Online und weitere Angebote (SaaS), bildet der neue Windows Server die Basis der IT-Infrastruktur im unternehmenseigenen Rechenzentrum bzw. in dem des Service Provider.

Neben dem Private Cloud Szenario zielt Microsoft ebenfalls auf die Hybrid Cloud. Dazu beinhaltet der Windows Server 2012 neben neuen Storage- und Netzwerktechnologien, Virtualisierungs- und Automatisierungskomponenten ebenfalls Funktionen für die Integration mit Microsoft Windows Azure und dem System Center. Damit lässt sich die on-Premise Umgebung um Ressourcen aus der Microsoft Public Cloud erweitern und u.a. .NET Anwendungen sowohl innerhalb der Private als auch der Public Cloud skalierbar einsetzen.

Vorteil: Microsoft ist bereits an der Basis

Auch wenn Microsoft im Bereich Cloud im Vergleich zu den Playern Amazon Web Services oder Google ziemlich spät aus den Startlöchern gekommen ist, holen sie mit ihrem Cloud Portfolio kräftig auf. Speziell der neue Windows Server 2012 ermöglicht Microsoft direkt die Kunden zu erreichen, die Amazon und Google aus eigener Kraft nicht bekommen können und werden. Nämlich diejenigen die der Public Cloud eher kritisch gegenüber eingestellt sind bzw. die Kunden, die bereits auf Microsoft Produkte setzen.

Wo Amazon und Google sehr leicht die (Web)-Startups dieser Welt einfangen und Microsoft sich mit Azure schwer tut, hat Microsoft bereits den Fuß bei etablierten Unternehmen in der Tür, wo bekanntlich die höheren Umsätze generiert werden.

Daher kam auch Amazons strategische Kooperation mit Eucalyptus nicht überraschend, um auch auf der Private Cloud Seite zumindest eine AWS ähnliche Plattform für das Hybrid Cloud Szenario zu unterstützen. Wo Microsoft sich als Serviceanbieter als auch Softwareanbieter positioniert, sind Amazon als auch Google reine Serviceanbieter, die im Umfeld von on-Premise Software und die dafür notwendigen nachgelagerten Prozesse wenig Erfahrung haben.



Der Weg in die Cloud ist schwerer als man denkt!

Sollen Anwendungen in die Cloud verlagert werden, heißt es, diese auch für die Cloud zu entwickeln und sich nicht starr an die bekannten Pattern zu halten. Denn die Cloud verzeiht keine Ineffizienz. Möchte man den Vorteil der Cloud wie Infrastructure-as-a-Service (IaaS) oder Platform-as-a-Service (PaaS) für sich nutzen, bedeutet dies mehr Arbeit, als die meisten IT-Abteilungen vermutlich glauben.

Unternehmens-IT ist sehr komplex

Trotz der großen Euphorie um die Cloud, sollte man nicht vergessen wie komplex die Unternehmens-IT im Laufe der Zeit geworden ist. Dabei ist die Komplexität jedoch nicht das Ergebnis der IT oder der Technologien selbst. Es ist die Summe aller Einflüsse aus dem Unternehmen und was von der IT erwartet wird. Alle Technologien müssen aufeinander optimal abgestimmt werden, die internen Prozesse unterstützen und zugleich noch schnellstmöglich und mit minimalem Budget realisiert werden.

In der Regel bedeutet dies, kommerzielle Softwarelösungen einzukaufen. Diese an die Bedürfnisse des Unternehmens anzupassen und anschließend so zu integrieren, dass manuell so wenig wie möglich angepasst werden muss und gleichzeitig das Maximum an Informationen aus dem Unternehmen gezogen werden kann. Mehrere proprietäre Softwarelösungen plus deren Integration führen zu einer komplexen IT-Umgebung. So kann eine IT-Infrastruktur schnell aus z.T. mehreren hunderten von Anwendungen bestehen. Diese wurden unabhängig voneinander und mit unterschiedlichen Design-Standards entwickelt und tragen die Handschrift verschiedener Architekten.

Die Migration in die Cloud ist eine Herausforderung

Die bestehenden Anwendungen in die Cloud zu migrieren ist eine nicht zu unterschätzende Aufgabe. Im Gegenteil, es ist sehr wahrscheinlich, dass die meisten on-Premise Applikationen aus dem Portfolio trotz eines neuen Entwurfs nicht ihren Weg in die Cloud finden. Die IT-Abteilungen werden es nicht schaffen, die bestehenden proprietären Lösungen "einfach so" in die Cloud zu verschieben, das funktioniert nicht. Jede einzelne Lösung für sich ist ein Individuum und hat spezielle Konfigurationen und Eigenschaften, die eine Cloud so nicht unterstützen kann.

Fassen wir mal ein paar Punkte zusammen:

  • Anpassung vornehmen, damit die Anforderungen erfüllt werden. - Nicht einfach!
  • Integration mit weiterhin bestehenden lokalen Anwendungen (hybrid). - Nicht einfach!
  • Dokumentation der Konfigurationen für eine erneute Migration. - Nicht einfach!
  • Sicherstellen der korrekten Lizenzierung. - Nicht einfach!
  • . . . - Nicht einfach!

Soll ein selbst entwickeltes System in die Cloud verlagert werden, wird es nicht einfacher. Es ist vergleichbar mit dem re-Design einer COBOL Batch-Anwendung für Mainframes in eine objektorientierte Variante. Denn so wie man von der COBOL Applikation in die objektorientierte Applikation die Objekte im Hinterkopf behalten musste, so muss man heute die Eigenschaften und Möglichkeiten der Cloud berücksichtigen.

Ist eine Anwendung erfolgreich in die Cloud migriert worden, bedeutet das jedoch nicht, dass es mit der Zweiten einfacher wird. Im Gegenteil, es kann sogar schwieriger werden. Denn jede Anwendung hat ihre individuellen Eigenschaften und basiert i.d.R. auf anderen technischen Standards und einem eigenen Design.

Zeit und Geduld

Verfolgt man das Ziel, das gesamte Portfolio in die Cloud zu verlagern, muss man sich auf einen langen und hügeligen Weg vorbereiten. Das saubere re-Design einer Anwendung oder gar der gesamten IT-Umgebung für die Cloud benötigt Zeit und vor allem Geduld. Denn wenn es so einfach wäre, gebe es schon mehrere Referenzprojekte.


Bildquelle: http://ccis.ucsd.edu



ownCloud veröffentlicht Apps für Android und iOS

ownCloud hat native Apps für Android und iOS veröffentlicht, mit denen auf die File-Sharing- und File-Synchronisierungssoftware nun auch mobil zugegriffen werden kann. Die jeweiligen Apps sind auf Google Play bzw. im Apple App Store für jeweils 79 Cents erhältlich.

Der private Cloud Storage

Bei ownCloud handelt es sich um die Private Cloud Variante zu Cloud Storage Services wie Dropbox oder Box.net. Mit der OpenSource Software können Privatanwender und Unternehmen Adressen, Termine, Bilder, Office-, Video- und Audio-Dateien teilen und synchronisieren, die sie auf der "eigenen Festplatte" oder bei einem Hosting-Anbieter speichern (Anmerkung). Damit können sie diese jederzeit, überall und mit jedem Endgerät nutzen – und behalten dennoch die volle Verantwortung über ihre Systeme.

Mobile Cloud Lösung

Bisher konnten die Nutzer auf ihre Daten entweder mit dem plattformunabhängigen Webclient oder dem ownCloud-Client, den es für Windows, Mac OS und Linux gibt, zugreifen. Die neuen Apps für Android und iOS ermöglichen nun auch die mobile Nutzung auf gängigen Smartphones und Tablet-PCs. Eine Übersicht der Funktionen der beiden ownCloud Apps sind unter https://owncloud.com/de/overview/mobileapps zu finden.