Tag: featured


DevOps: Führt Cloud Computing zu NoOps?

Neben den Themen Cloud Computing und Big Data zählt das Thema DevOps zu den wichtigsten Themen der nahen Zukunft. Der Begriff DevOps leitet sich von dem Präfix "Dev" von Softwareentwickler (Developer) sowie dem Suffix "Ops" von IT-Betrieb (Operations) ab. Zusammengesetzt entsteht damit das Wort DevOps und symbolisiert die enge Zusammenarbeit beider Unternehmensbereiche, also der Softwareentwicklung und dem IT-Betrieb.

Dev vs. Ops

Jede Unternehmens-IT lebt von den eingesetzten Applikationen. Aufgabe der Entwickler (Dev) ist es diese bestehenden Applikationen zu verbessern oder neue zu entwerfen. Der IT-Betrieb (Ops) hat die Aufgabe die für die Entwicklung notwendinge IT-Infrastruktur und Umgebungen bereitzustellen. Beide ziehen also generell am selben Strang, laufen aber dennoch in zwei unterschiedliche Richtungen. Die Entwickler wollen schneller neue Applikationen entwerfen und ausrollen. Der IT-Betrieb lässt gerne alles beim Alten und ist froh, wenn die aktuellen Systeme so stabil laufen (Änderungen könnten zu Problemen führen und das bedeutet Arbeit.)

Neben dem zeitlichen Druck, den beide Bereiche unterlegen sind, verstärkt zudem die Komplexität der modernen IT-Infrastrukturen die beidige Zusammenarbeit. Werden neue Versionen ausgerollt, muss anschließend sichergestellt werden, dass alles weiterhin so funktioniert wie vorher, nur besser. Außerdem hat der Umfang an Applikationen in Unternehmen im Laufe der letzten Jahre stetig zugenommen, die es gilt bestmöglich zu unterstützen sowie die Interoperabilität sicherzustellen.

Automatisierung

Eigentlich brauchen Unternehmen mittlerweile einen Hybriden, der in beiden Welten zu Hause ist, sich also mit der Arbeit der Entwickler auskennt und zugleich den IT-Betrieb versteht. Dieser Hybride sorgt dafür Probleme zu vermeiden und zugleich für Automatisierung und damit eine optimale Planung und Kontrolle. Dieser Hybrid ist der bereits genannte DevOps und muss nicht zwangsläufig eine Person oder ein Team sein. Nein, dabei kann es sich auch um ein Stück Software handeln, die für die Abstimmung des Entwicklungsbereiches und des IT-Betriebs zuständig ist und eine DevOps Strategie völlig autonom implementiert.

Heißt die Cloud Lösung "NoOps"?

Möglicherweise! Erleichtert die Cloud vielleicht das Thema DevOps oder macht es gar obsolet? Klar ist, Entwickler sind in der Cloud nicht mehr maßgeblich auf den IT-Betrieb angewiesen, denn dieser wird durch den Anbieter dargestellt. Im Falle von IaaS (Infrastructure-as-a-Service) behalten wir die aktuelle Situation bei, nur in der Cloud, eben genauso nur anders. Hier muss das entsprechende System, dass auf der Cloud Infrastruktur läuft von einem Team (Operations) betrieben und gewartet werden, wohingegen das andere Team (Developer) das System entwickelt bzw. darauf entwickelt? Oder ist IaaS für die Entwickler mittlerweile sogar so einfach, dass das Operations-Team wegfallen kann? Ganz anders sieht es beim PaaS (Platform-as-a-Service) aus. Hier ist der Bereich Operations zu 100% unwichtig. Die vollständige Plattform und der Stack den die Anwendung benötigt, wird durch den Anbieter bereitgestellt und gewartet, wodurch dieser für den Bereich Operations verantwortlich ist.

So oder so hilft eine (IaaS, PaaS) Cloud Infrastruktur Entwicklern dabei ihre Software automatisiert auszurollen, diese zu überwachen und ebenfalls zu verwalten. Entwickler (Dev) können mit der Cloud also völlig autonom vom IT-Betrieb (Ops) die für die Entwicklung notwendigen IT-Ressourcen selbst bereitstellen und warten. Wo wir beim Thema NoOps sind!


Bildquelle: http://blog.zenoss.com



Dropbox, Microsoft SkyDrive oder Google Drive: Die weiteren Services eines Cloud Storage sind entscheidend

Dropbox ist der Platzhirsch unter den Cloud Storage Services, mit - nach eigenen Angaben - 100 Millionen Nutzern ist der Speicherdienst unangefochten weltweit die Nummer eins. Was man aber nicht vergessen sollte, Dropbox ist "nur" ein Speicher und hat bisher keine weiteren nennenswerten Vorteile zu bieten. Cloud Storage bedeutet mittlerweile nämlich viel mehr als nur Cloud Storage sowie es auch sehr wichtig ist, mehr als nur reine Infrastruktur anzubieten, wenn man langfristig konkurrenzfähig bleiben möchte. Warum andere Anbieter wie Microsoft SkyDrive deutlich attraktiver sind als Dropbox und warum man Google Drive lieber nicht nutzen sollte, erläutere ich in diesem Artikel.

Dropbox ist nur ein simpler Cloud Storage

Wie ich es bereits vor Kurzem zum Thema Infrastructure-as-a-Services (IaaS) geschrieben habe, muss man als Anbieter mittlerweile mehr bieten als nur "reine" Infrastruktur wie Rechenleistung oder Speicherplatz. Nur macht genau Dropbox dies nicht. Dropbox ist einfach nur ein Speicher. Um den Cloud Storage herum hat das Unternehmen es bisher nicht geschafft ein eigenes Ökosystem von Services zu schaffen, die dem Nutzer mehr bieten als nur Daten darin abzulegen und per Link zu teilen. Möchte ich zum Beispiel eine Word-Datei über die Webseite aufrufen, um sie "nur" zu betrachten, öffnet sich das Downloadfenster. Ich bin also auf ein lokales Betriebssystem angewiesen. Dropbox ist daher zu nativ gestrickt. Das hat natürlich den Vorteil, dass für jedes System ein Client zur Verfügung steht, der allerdings auch zwangsläufig benötigt wird.

Wie sieht es aber aus, wenn ich mit mehreren Parteien an einer Datei parallel arbeiten möchte? Online via Webbrowser ist das nicht möglich. Und lokal über einen der nativen Clients? Auch nicht! Dropbox ist einfach nur ein Stück Speicher im Internet ohne weitere Intelligenz, Möglichkeiten der Zusammenarbeit und anderen Mehrwertdiensten.

Microsoft SkyDrive und Google Drive

Wo Dropbox aufhört, fangen Cloud Storage Lösungen wie Microsoft SkyDrive oder Google Drive erst richtig an. Beide Services sind vollständig in das eigene Ökosystem des jeweiligen Anbieters nahtlos integriert und bieten neben dem Speichern weitere Dienste.

Google hat durch die Veröffentlichung von Google Drive ihre Online-Textverarbeitung Google Docs aufgebohrt. Das bedeutet, dass Dokumente die auf Google Drive gespeichert sind auch online im Browser bearbeitet werden können. Und das sogar mit mehreren Leuten gleichzeitig und ortsunabhängig. Microsoft SkyDrive ist ein standalone Cloud Storage Service. Allerdings hat Microsoft mit den Office Web Apps eine abgespeckte Version von bekannten Office Produkten wie Word oder Excel integriert, mit denen Dokumente online und mit mehreren Leuten parallel bearbeitet werden können. Was vielen das bekannte lokale Microsoft Office-feeling auch im Browser ermöglicht.

Ein kleines Minus bekommt SkyDrive, da es derzeit noch keinen nativen Linux-Client von Microsoft gibt. (War ein Kritikpunkt von einem Bekannten, der als Linux-Nutzer ernsthaft über einen Wechsel nachgedacht hatte und auf Grund des fehlenden nativen Linux-Clients es dann gelassen hat.) Allerdings ist die SkyDrive API offen, was es jedem erlaubt, einen eigenen SkyDrive-Client für Linux zu schreiben.

Das alles meine ich mit "Infrastruktur bedeutet mehr als nur Infrastruktur". Die Services, die von dem Anbieter um die "dumme" Infrastruktur herum aufgebaut werden, machen den Unterschied.

Die Preise - Dropbox muss nachlegen

Preislich ist Microsoft SkyDrive derzeit unschlagbar günstig. Zunächst bekommt man 7GB kostenlosen Speicherplatz, der für 37 EUR pro Jahr um 100GB erweitert werden kann. Hinzu kommt, das Microsoft ein seriöser und renommierter Anbieter ist, dessen Infrastruktur erprobt ist. Zum Vergleich, bei Dropbox erhält man 100GB für 99 US-Dollar pro Jahr. 100GB kosten bei Google Drive 59,88 US-Dollar pro Jahr.

Google Drive sollte lieber nicht genutzt werden

Auch wenn Google Drive technologisch ein sehr interessanter Cloud Storage ist und viel mehr bietet als ein Dropbox, ist von der Nutzung des Service aus Datenschutzgründen abzuraten.

“Meine größten Bedenken Google Drive zu nutzen sind, dass Google bereits alle meine E-Mails, Web-Analytics Daten und Suchbegriffe besitzt. Möchte ich denen wirklich noch mehr Daten geben?”, Chen S. im Dropbox Forum.

“Wie viele andere Nutzer, bin auch ich nicht erfreut darüber, dass Google über immer mehr Informationen aus meinem Leben verfügt, die ich in ihrer Cloud speichere.”, Christopher H. im Dropbox Forum.

“Google kann diese Daten in irgendeiner Form für interne Zwecke nutzen. Das kann das Verkaufen personalisierter Werbeanzeigen auf Basis meiner hochgeladenen Daten sein.”, Mark Mc. im Dropbox Forum.

Google Pressesprecher Stefan Keuchel hatte nach der Veröffentlichung von Google Drive und den ersten Kritiken bereits Stellung bezogen:

“Drives Nutzungsbedingungen sind eindeutig, was dir gehört, wird auch deins bleiben.”

Natürlich sagt Google, dass alle Daten die in Google Drive gespeichert werden das Eigentum des Nutzers bleiben. Das ist ja wohl selbstverständlich und ist keiner weiteren Stellungnahme würdig. Darum geht es bei dieser Diskussion aber auch nicht! Es geht darum, was Google mit den auf Google Drive gespeicherten Daten macht. Denn es wird nicht endgültig ausgeschlossen, dass Google diese Daten verwendet, um damit weitere Analysen und Geschäfte vorzunehmen. Wenn Google die Daten auf Google Drive dazu verwenden würde, hätte die Nutzung des Google Cloud Storage einen sehr faden Beigeschmack. Eines muss man sich natürlich vor Augen halten. Wenn ich im Internet etwas kostenlos bekomme, bin ich das Produkt. In Googles Fall werde ich mit Werbung “versorgt” und Google kann die Daten für anonyme Analysen nutzen. Allerdings bietet Google ebenfalls kostenpflichtigen Speicherplatz an. Bedeutet, der Nutzer bezahlt für die Leistung die Google erbringt. In diesem Fall wäre es für Google nicht mehr gerechtfertigt, die Daten für Werbezwecke und weiteres zu verwenden. Für die kostenlosen 5GB wäre es grenzwertig aber falsch. Aber wie will Google auseinander halten, welche Daten sich jetzt in dem kostenlosen 5GB Speicher befinden und welche in dem restlichen bezahlten.

Google hat bis heute genau zu dieser Thematik keine Stellung bezogen. Und solange es hierfür keine offizielle schriftliche Aussage von Google gibt, unterstelle ich Google, dass die Daten - auch bei dem kostenpflichtigen Speicherplatz - für eigene Zwecke analysiert und weiterverarbeitet werden. Und solange sollte Google Drive lieber nicht genutzt werden.


Bildquelle: ©Gerd Altmann / PIXELIO



Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit

Vermehrt wird die Frage gestellt, woran sich ein echtes Cloud Computing Angebot erkennen lässt. Oft heißt es: “Wir lassen unsere Datenverarbeitung von einem Dienstleister in seinem Rechenzentrum machen. Dann nutzen wir doch die Cloud, oder?” Vorsicht! Cloud Computing wurde in letzter Zeit von den Marketingabteilungen einiger Anbieter missbraucht, wodurch eine Verwässerung des Begriffs stattgefunden hat. Was damals zum Beispiel ein “Managed Server” war, ist nun ein “Cloud Server”. Letztendlich wurde aber nur der Aufkleber getauscht. Dieses „Prinzip“ wird auch als CloudWashing bezeichnet.

Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit

Cloud Computing und seine Eigenschaften

Cloud Computing bezeichnet in erster Linie ein Servicemodell, bei dem auf (theoretisch unbegrenzte) IT-Ressourcen wie Rechenleistung, Speicherplatz, Applikationen und andere Arten von Services on-Demand zugegriffen werden kann. Dabei werden auf Basis des Pay as you go Konzeptes nur die Ressourcen berechnet, die zu diesem Zeitpunkt auch tatsächlich genutzt werden.

Neben den bekannten Eigenschaften des Cloud Computing existieren weitere typische Begebenheiten, die eine Cloud auszeichnen. Dazu gehören neben allgemeinen ebenfalls technische Eigenschaften und der Blickwinkel aus der Sicht eines Unternehmens.

Allgemeine Eigenschaften

Elastizität
Die Cloud erlaubt das hoch- und herunterskalieren von Ressourcen je nach Bedarf. Die dafür benötigte Zeit liegt im Bereich von Sekunden oder Minuten jedoch nicht Wochen oder Monaten.

Skaleneffekte
Der Cloud Computing Anbieter ist in der Lage Skaleneffekte auszunutzen und kann die für das Cloud Computing benötigte Infrastruktur wie Strom, Kühlung, Bandbreite und Hardware zum bestmöglichen Preis beschaffen.

Pay as you Go
Dabei handelt es sich mehr um eine allgemeine als um eine geschäftliche Eigenschaft. Techniker werden durch den Einsatz der Cloud Entscheidungen bei der Zuweisung von Ressourcen treffen, die unmittelbare Auswirkungen auf den Ressourcenverbrauch und die Höhe der Gesamtkosten haben. Damit hat in Zukunft jeder die Aufgabe, das Unternehmen effizienter zu führen.

Technische Eigenschaften

Schnelle Skalierbarkeit
Weitere Ressourcen können innerhalb von Minuten on-Demand gekauft werden, um bei Bedarf unerwarteten Situationen gerecht zu werden. Dazu gehören z.B. umfangreiche Berechnungen oder eine unerwartet hohe Besucherzahl auf der Webseite. Werden die Ressourcen nicht länger benötigt, können sie der Cloud zurückgegeben werden.

Die Ressourcen sind abstrakt und unkompliziert
Die Hardware, die für den Betrieb einer Cloud benötigt wird, ändert sich und wird ständig verbessert. Jedoch ist es die Aufgabe des Cloud Computing Anbieters dafür zu sorgen. Ein Cloud Computing Nutzer muss sich mit den Details hinter einer Cloud nicht mehr auseinandersetzen.

Eine Cloud besteht aus einzelnen Bausteinen
Die IT-Ressourcen eines Cloud Computing Anbieters bestehen aus kleinen Bausteinen. Das bedeutet, sie sind einzeln verfügbar und werden jeweils einzeln berechnet. Ein Nutzer hat die Möglichkeit entweder keine, alle oder nur ein paar Ressourcen zu nutzen, welche ihm als Service durch die Cloud bereitgestellt werden.

Experimentieren ist kostengünstig
Cloud Computing entfernt die wirtschaftliche Hürde zum Experimentieren. Dadurch können neue Ideen ausprobiert werden, ohne langfristig in die dafür benötigte Hardware zu investieren, indem auf temporäre Ressourcen zurückgegriffen wird.

Eigenschaften aus der Sicht eines Unternehmens

Keine Vorabinvestitionen
Cloud Computing wurde geschaffen, um Ressourcen bei Bedarf nutzen zu können. Aus diesem Grund sind keine einmaligen und großen Investitionen notwendig, bevor der eigentliche Bedarf auftritt.

Aus fixen kosten werden variable Kosten
Anstatt sich auf eine feste Anzahl von Ressourcen über einen langen Vertragszeitraum (in der Regel ein bis drei Jahre) festzulegen, ermöglicht es Cloud Computing den Ressourcenverbrauch in Echtzeit zu verändern.

Investitionen werden zu Betriebskosten
Investitionen werden in der Regel auf einen langen Zeitraum verteilt und führen damit zu einer mehrjährigen Verpflichtung, eine bestimmte Menge von Ressourcen zu nutzen. Die Betriebskosten hingegen beziehen sich auf die tatsächliche Nutzung des Cloud Service und können in Echtzeit verändert werden.

Die Ressourcenzuteilung wird granularer
Cloud Computing ermöglicht eine minimale Nutzung in Bezug auf die Zeit und Ressourcen, bspw. Servernutzung pro Stunde und einzelne Bytes des genutzen Speichers.

Das Unternehmen gewinnt an Flexibilität
Da ein Unternehmen sich nicht mehr langfristig an Ressourcen bindet, ist es in der Lage, schneller auf Änderungen bzgl. der benötigten Mengen und der Art der Geschäftstätigkeit zu reagieren.
Der Anbieter steht mehr unter Beobachtung
Das Kerngeschäft des Cloud Computing Anbieters besteht darin, seine Cloud für die öffentliche Nutzung bereitzustellen. Somit hat er einen starken Anreiz seine Services so bereitzustellen, dass sie zuverlässig, anwendbar und kostengünstig sind. Die Cloud spiegelt also die Kernkompetenzen eines Anbieters wieder.

Die Kosten sind inhaltsorientierter
Durch das flexible Ressourcenzuweisungsmodell des Cloud Computing ist es genauso leicht 100 Server für eine Stunde zu beziehen und zu betreiben wie einen Server für 100 Stunden. Das fördert das innovative Denken hinsichtlich der Lösungen von Problemen, die nur durch eine große Skalierung ermöglicht werden.

Die Checkliste

Wohlgemerkt, ins Innere müssen und können Sie in der Regel nicht hineinschauen. Bei einer Cloud handelt es sich um eine Blackbox, die entweder über eine API (Schnittstelle) oder eine Weboberfläche gesteuert wird. Es kommt also auf die äußeren Werte an, die Sie direkt sehen und bemerken können.

Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit


Die Checkliste kann ebenfalls unter "Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit" angesehen und als PDF heruntergeladen werden. Eine englischsprachige Version befindet sich unter "Checklist: Check a Cloud Computing provider for authenticity".


Bildquelle: ©Claaslietz / PIXELIO



Mitarbeiter ignorieren Unternehmensrichtlinien zur Cloud-Nutzung (weil sie diese nicht kennen)

Die Bring your own Device (BYOD) Bewegung sorgt bei IT-Verantwortlichen, IT-Administratoren und IT-Security-Verantwortlichen ebenso für Sorgenfalten auf der Stirn wie die Nutzung unautorisierter Cloud Services. Dropbox, Amazon Web Services und Google Drive beziehungsweise Google Docs, um nur ein paar zu nennen. Zu hoch sind die Sicherheitsbedenken und das Risiko, dass Daten aus dem Unternehmen verschwinden. Das dies jedoch auch ohne die Cloud ohne weiteres möglich ist steht hier.

81 Prozent der Unternehmen haben klare Regelungen für die Cloud-Nutzung

Eine Symantec-Umfrage mit dem Namen "The Myth of Keeping Critical Business Information Out of Clouds" zeigt nun die große Kluft zwischen den Anwender und IT-Administratoren, wenn es darum geht Cloud Anwendungen zu nutzen. Die Umfrage unter 165 IT-Managern und Mitarbeitern ergab, dass 76 Prozent der Unternehmen die Regelungen hinsichtlich der Cloud-Nutzung überwachen. Dabei verfügen sogar 81 Prozent über klare Regelungen und Konsequenzen, wenn diese Regeln missachtet werden.

Dahingegen sind sich 55 Prozent der End-Anwender gar nicht darüber im Klaren, das solche Arten von Regelungen existieren und 49 Prozent der Anwender sagen, dass sie nicht über Konsequenzen wegen Missachtung der Regelungen informiert sind.

Technischer Overkill vs. Mangelhaftes Verständnis

Ein Problem besteht darin, dass IT-Administratoren verstehen, wo sich die Schwachstellen befinden, wenn es Kollegen erlaubt wird, Cloud Services nach eigenem Bedarf zu nutzen. Dazu stehen ihnen mittlerweile eine Vielzahl von Lösungen für die Überwachung und dem Aussperren von Dropbox & Co. zur Verfügung. Hinzu kommt, dass Private Cloud Anbieter damit begonnen haben, ihre Lösungen um Management und Zugriffskontrollen für die Public Cloud zu erweitern.

Auf der anderen Seite stehen die Anwender, die nicht verstehen, welchen Sicherheitsrisiken sie ausgesetzt sind und der Rest ignoriert sie aus Bequemlichkeit. Die Folge sind schlecht gewählte Passwörter und/ oder der Besuch von bösen Webseiten, auf denen sich Malware usw. befinden. Hat der Mitarbeiter nun kundenrelevante Daten in seiner Dropbox gespeichert und wird diese, z.B. auf Grund eines schlechten Passworts, gehackt, hat sein Arbeitgeber definitiv ein Problem!

Nicht alle Anwender trifft dieselbe Schuld. Wo die einen die Sicherheitsregeln bewusst vernachlässigen, ist die Mehrzahl nicht über Sicherheitsrisiken informiert. Es ist also die Aufgabe der IT-Abteilung diese Sicherheitslöcher zu stopfen und vor allem für Aufklärungsarbeit bei den Mitarbeitern zu sorgen und das Verständnis dafür zu gewinnen. Nur Regeln aufstellen reicht nicht aus, wenn der Mitarbeiter nicht weiß, wofür diese nützlich sind beziehungsweise das es überhaupt welche gibt.

Weitere Ergebnisse der Umfrage

  • 69 Prozent der Mitarbeiter geben zu gegen Unternehmensrichtlinien zu verstoßen und nutzen Cloud-basierte E-Mail und Kommunikationslösungen. Hingegen sagen 88 Prozent IT-Administratoren, dass Mitarbeiter die Richtlinien verletzen.
  • 59 Prozent der Mitarbeiter nutzen Cloud-basierte Storage- und File-Sharing-Lösungen. IT-Administratoren beziffern diesen Anteil auf 87 Prozent.
  • 63 Prozent der Admins sagen, sie verfügen über Regeln in Bezug auf E-Mail und Kommunikationslösungen. Dagegen sagen nur 50 Prozent der Mitarbeiter, dass sie darüber Kenntnis haben.
  • 74 Prozent der Administratoren haben Regeln für den Umgang mit File-Sharing-Lösungen eingeführt. Von diesen Regelungen wissen gerade einmal 42 Prozent der Mitarbeiter.
  • 77 Prozent der Admins haben Regelungen für Cloud-basierte Storage-, Backup- und Produktivitätslösungen sowie Apps für das Kontaktmanagement implementiert. Gerade einmal 49 Prozent der Mitarbeiter kennen die Regeln für die Nutzung von Cloud Storage Lösungen, 59 Prozent sind über die Nutzung der Produktivitätslösungen informiert und 48 Prozent wissen, wie sie sich mit einer App für das Kontaktmanagement verhalten sollen.
  • 60 Prozent der IT-Mitarbeiter halten die Vorteile und Risiken von Cloud Storage- und Backuplösungen für gleichwertig. Dieselbe Prozentzahl ergibt sich für das Vorteil-/Risikoverhältnis für Cloud-basierte Storage-, Backup- und Produktivitätslösungen sowie Apps für das Kontaktmanagement.
  • Bei File-Sharing-Lösungen sieht es ein wenig anders aus. Hier bewerten 50 Prozent der IT-Mitarbeiter die Vorteile und Risiken als gleich. 53 Prozent ergeben sich für das Vorteil-/Risikoverhältnis von Cloud-basierte E-Mail und Kommunikationslösungen.
  • Hingegen sagen 49 Prozent der Mitarbeiter, dass die Vorteile von Cloud-basierte E-Mail und Kommunikationslösungen die Risiken überwiegen. 38 Prozent äußerten sich so ebenfalls bei File-Sharing-Lösungen.
  • Nur 30 Prozent der Mitarbeiter sehen in Cloud-basierten Storage-, Backup- und Produktivitätslösungen sowie Apps für das Kontaktmanagement mehr Vorteile als Risiken.

Ausgehend davon, dass IT-Administratoren sich tatsächlich um Regelungen bemühen, stellt sich die Frage, wozu es diese und Konsequenzen bei einem Vergehen gibt, wenn sie flächendeckend nicht bekannt sind.

Wie wäre es mit Kommunikation!


Bildquelle: ©Gerd Altmann / PIXELIO



Professionelle Open-Source Lösungen für die eigene Cloud

Ich hatte vor längerer Zeit in dem Artikel "Die eigene Cloud bauen mit… – CloudWashing par excellence!" die leichtfertige Aussage eines Journalisten kritisiert, dass man auf einfache Weise eine eigene Cloud Umgebung aufbauen kann. Das dem so nicht ist und worauf zu achten ist, habe ich in dem Artikel ebenfalls erläutert. Dennoch existieren natürlich Lösungen, die dabei helfen, eine eigene Cloud aufzubauen. Tatsächlich gibt es derzeit aber nur fünf Open-Source Lösungen, die für den professionellen Aufbau von Cloud Computing Umgebungen eingesetzt werden sollten. Dazu gehören openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula.

Grundlegendes! Bitte lesen!

Viele Unternehmen entscheiden sich vermehrt für den Aufbau einer eigenen (Private) Cloud, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine eigene Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer eigenen Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Hardware, Hardware, Hardware

Eine eigene Cloud bedarf also Unmengen an physikalischen Ressourcen um den Wunsch nach Flexibilität und quasi unendlichen virtuellen Ressourcen zu befriedigen. Heißt im Umkehrschluß daher für Unternehmen mit einer eigenen Cloud: Investieren, das eigene Rechenzentrum umbauen und Cloud-fähig zu machen.

Es ist ein Irrglaube, wenn man denkt, dass der Aufbau einer eigenen Cloud impliziert, sich anschließend nicht mehr um die Hochverfügbarkeit der eigenen Infrastruktur (physikalische Maschinen, virtuelle Maschinen, Master-Slave-Replikation, Hot-Standby, etc.) kümmern zu müssen. Das macht dann ja schließlich die Cloud alleine.

Konfigurieren, Skripte, Intelligenz

Eine Cloud funktioniert nicht von alleine. Sie muss entwickelt und mit Intelligenz ausgestattet werden. Das gilt für den Aufbau einer Private Cloud genau so wie für die Nutzung eines Public Cloud Angebots (im Falle von IaaS). Dazu müssen Skripte geschrieben, womöglich Software neu entwickelt werden, die auf der Cloud verteilt läuft. Weiterhin ist es wichtig, die Whitepaper des Anbieter zu lesen, KnowHow(!) aufzubauen und zu verstehen, wie die Cloud arbeitet, um sie für die eigenen Bedürfnisse nutzen zu können. Eine weitere Möglichkeit besteht natürlich darin, sich (zusätzlich) von Profis beraten zu lassen. Das ist bei der Nutzung einer eigenen Cloud nicht anders. Wenn eine virtuelle Maschine A ein Problem hat, dann kann sie plötzlich nicht mehr erreichbar sein, wie jeder normale physikalische Server nun einmal auch. Nun könnte man denken: “Dann nehme ich als Backup für virtuelle Maschine A halt noch eine virtuelle Maschine B dazu!” Und dann? Man könnte nun denken, dass die virtuelle Maschine B automatisch die Aufgaben der virtuelle Maschine A übernimmt. So einfach ist das aber nicht! Skripte müssen vorab dafür sorgen, dass die virtuelle Maschine B die Aufgaben von virtuelle Maschine A übernehmen soll, wenn diese plötzlich nicht mehr erreichbar ist. Auch die virtuelle Maschine B muss dafür zunächst vorbereitet werden. Dazu kann z.B. der eigentliche (wichtige) Inhalt der virtuelle Maschine A inkl. aller Konfigurationen etc. in einem zentralen Speicher und nicht auf dem lokalen Speicher abgelegt werden. Anschließend muss ein Skript dafür sorgen, dass die virtuelle Maschine B automatisch mit den Konfigurationen und allen Daten aus dem lokalen Speicher hochgefahren wird, wenn die virtuelle Maschine A nicht mehr verfügbar ist.

Virtuelles Rechenzentrum

Die Cloud gibt uns im Bereich Infrastructure as a Service letztendlich nur die Möglichkeit, aus einem quasi unendlich großen Pool von Ressourcen die (unendliche) Anzahl an Ressourcen zu dem Zeitpunkt zu bekommen, wenn wir sie benötigen. Wir erhalten von der Cloud somit ein eigenes hochskalierbares virtuelles Rechenzentrum. Das bedeutet aber im Umkehrschluss für den Betreiber einer Cloud (Private, Public), dass er ebenfalls die Menge an physikalischen Ressourcen vorhalten muss, damit die angefragten virtuellen Ressourcen jederzeit bereitgestellt werden können und damit immer ausreichend Ressourcen für die Nutzer zur Verfügung stehen.


Open-Source Lösungen für den Aufbau einer eigenen Cloud


openQRM

openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen und ist aktuell in der Version 5.0 verfügbar. Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können. Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von "P-to-V", "V-to-P" und "V-to-V".

openQRM verfügt des Weiteren über ein integriertes Storage-Management, mit dem anhand des Snapshot-Verfahrens Serversysteme dupliziert werden können. Die Snapshots ermöglichen eine dynamische Anpassung des Speicherplatzes, bieten einen persistenten Cloud-Speicher und erlauben ein Backup/Restore der Server sowie deren Versionierung.

Mit der "N-zu-1" Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Dabei spielt es keine Rolle, ob physikalische oder virtuelle Maschinen eingesetzt werden!

Benefits auf einem Blick

Virtualisierung

openQRM unterstützt alle gängigen Virtualisierungstechnologien darunter VMWare, Citrix XenServer und KVM und bietet die Möglichkeit der Migration von P-to-V-, V-to-P- und V-to-V für physikalische Server als auch virtuelle Maschinen.

Storage

openQRM verfügt über ein zentralisiertes Speichersystem mit integriertem Storage Management, welches alle bekannten Storage-Technologien unterstützt. Dazu gehören u.a. Netapp, Equallogic, NFS, iSCSI ZFS und proprietäre auf LVM basierende Storage-Typen, für eine flexible und schnelle Duplizierung von Serversystemen.

Zentrales Management

openQRM verschmilzt die Welt von Open Source mit der von kommerziellen Produkten. Mit einer zentralen Managementkonsole sind alle Funktionen zur Administration von Rechenzentren, System- und Service-Überwachung, Hochverfügbarkeit und automatisierter Bereitstellung vorhanden.

Funktionen

Hardware/Software Isolation

openQRM isoliert die Hardware (physikalische Server, virtuelle Maschinen) vollständig von der Software (Server Images). Dabei ist die eigentliche Hardware eine "Computing Resource" und kann dadurch jederzeit durch eine andere Hardware ersetzt werden, ohne dass die Software (Server Image) neu konfiguriert werden muss.

Unterstützung für verschiedene Virtualisierungs-Technologien

Mit VMWare, Xen, KVM und dem Citrix XenServer unterstützt openQRM eine viehlzahl an virtuellen Maschinen und kann dieses transparent verwalten und migrieren. Neben der System-Migration von physikalischen Servern zu virtuellen Maschinen (P-to-V) können Systeme ebenfalls von virtuellen Maschinen zu physikalischen Servern (V-to-P) migriert werden. Darüber hinaus besteht die Möglichkeit ein System von einer Virtualisierungstechnologie zu einer anderen Virtualisierungstechnologie (V-to-V) zu verschieben.

Vollautomatische Nagios-Konfiguration

openQRM unterstützt die vollautomatische Konfiguration von Nagios mittels "nmap2nagios-ng". Damit wird das gesamte openQRM Netzwerk analysiert und auf Basis der Informationen eine Nagios-Konfiguration erstellt. Anschließend werden alle Services auf allen Systemen überwacht.

Integriertes Storage-Management

openQRM organisiert die Serversysteme wie Dateien und nutzt zur Verwaltung moderne Storagesysteme anstatt lokaler Festplatten. Mittels Logical Volume Managern (LVM) und deren Snapshot-Verfahren können Server-Templates auf schnellen Wege dupliziert werden.

"Sollen z.B. 10 neue Server ausgerollt werden, kann so einfach ein bestehendes Server-Image 10 mal dupliziert und die "Clone" direkt zum Deployment bereitgestellt werden."

Mit diesem Konzept steht ein zentrales Backup/Restore sowie die Möglichkeit von Hot-Backups ohne Downtime zur Verfügung.

openQRM unterstützt folgende Storage-Typen:

  • NFS (NAS)
  • iSCSI (iSCSI SAN)
  • Aoe/Coraid (AOE SAN)
  • NetApp (iSCSI SAN)
  • Local-disk (Übertragung von Server-Images auf lokale Festplatten)
  • LVM-Nfs (NFS auf LVM2, erlaubt schnelles Cloning)
  • LVM-iSCSI (iSCSI auf LVM2, erlaubt schnelles Cloning)
  • LVM-Aoe (Aoe auf LVM2, erlaubt schnelles Cloning)
  • Equallogic (iSCSI SAN)
  • ZFS (iSCSI SAN)

Hochverfügbarkeit und "N-to-1"-Fail-Over!

Mit der "N-zu-1" Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Unabhängig davon, ob physikalische oder virtuelle Maschinen eingesetzt werden.

"Um zum Beispiel 10 hochverfügbare Spezialsysteme zu betreiben benötigt man normalerweise weitere 10 "Stand-By"-Systeme. Mit openQRM jedoch benötigt man nur einen einzigen "Stand-By"-Server, der im Fehlerfall eines der 10 Spezialsysteme benutzt wird. Das heißt, man kann 9 "stromfressende", nicht ausgelastete Server einsparen. Perfekt für "Green IT".

Des Weiteren können physikalische Server virtuelle Maschinen als "Hot Stand-By" nutzen und lassen sich im Notfall in eine virtuelle Maschine migrieren.

Fertige Server-Templates

Mittels dem "Image-Shelf"-Plugin stellt openQRM bereits fertige Server Templates zur Verfügung. Dazu gehören Linux Distributionen wie Debian, Ubuntu, CentOS und openSuse. Des Weiteren können mit dem Plugin eigene Server Templates auf unterschiedliche Weise (lokal, http, https, ftp) bereitgestellt werden.

Unterstützung verschiedenster Deployment-Methoden

Mit openQRM können Server von jeder Art von Storage gestartet werden. Zusätzlich können die Server Templates von einem Storage-Typ zu einem anderen übertragen werden, dabei kann noch entschieden werden, ob die Server Templates auf einem physikalischen Server oder in einer virtuellen Maschine gestartet werden sollen.

Unterstützung verschiedener OS-Distributionen

Es stehen bereits vor-konfigurierte openQRM-Server Pakete für Debian, Ubuntu und CentOS zur Verfügung. Ein openQRM-Server kann aber alle gängigen Linux Distributionen verwalten.

Cloud-Selector

Mit dem Cloud-Selector kann der Cloud Administrator seine Cloud Produkte wie z.B. Prozessoren, Speicher, Festplattengröße oder den Typ der virtuellen Maschine auswählen und deren Preise festlegen.

Kostenrechner im Cloud-Portal

Die Cloud-Computing-Unit (CCU) kann einer regulären Währung (z.b. USD oder Euro) zugewiesen werden. Mit dem Kostenrechner werden die stündlichen, täglichen und monatlichen verbrauchten Kosten für eine Cloud Appliance berechnet.

Private Cloud Images

Mit der "Private Cloud Image"-Funktion können Cloud Benutzer eigene Server Templates anlegen und verwalten.

Volle SSL-Unterstützung

Der openQRM-Server arbeitet in einem vollständig SSL-verschlüsselten Bereich und unterstützt verschiedene Serverarchitekturen wie i386 und x86_64.

Ich möchte hier noch anmerken, dass es sich bei der openQRM Enterprise um einen deutschen Anbieter aus dem Bereich des Cloud Computing handelt!


Eucalyptus

Beim Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems (Eucalyptus) handelt es sich um eine Open Source Software Infrastruktur zum Aufbau von skalierbaren Utility Computing bzw. Cloud Computing Umgebungen für spezielle Clustersysteme oder einfachen miteinander verbundenen Arbeitsplatzrechnern.

Eucalyptus wurde als ein Forschungsprojekt am Computer Science department an der University of California Santa Barbara entwickelt und wird mittlerweile von der Eucalyptus Systems Inc. vermarktet. Die Software wird aber weiterhin als Open Source Projekt gepflegt und weiterentwickelt. Die Eucalyptus Systems Inc. bietet darüber hinaus lediglich weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an.

Folgende Funktionen stellt Eucalyptus bereit:

  • Kompatibilität mit den Schnittstellen zu Amazon EC2 und S3 (SOAP und REST).
  • Unterstützung aller Virtual Machines die auf einem Xen Hypervisor oder einer KVM ausgeführt werden.
  • Administrationstools für die System- und Benutzerverwaltung.
  • Die Möglichkeit mehrere Cluster für eine Cloud zu konfigurieren, wobei jeder einzelne Cluster über eine private interne IP-Adresse verfügt.

Architektur

Eucalyptus besteht aus fünf zusammenarbeitenden Hauptkomponenten um den angeforderten Cloud Service bereit zu stellen. Die Kommunikation zwischen den Komponenten erfolgt über gesicherte SOAP Nachrichten mittels WS-Security.

Cloud Controller (CLC)

Der Cloud Controller dient innerhalb einer Eucalyptus Cloud als Hauptkomponente für die Verwaltung des gesamten Systems und stellt den Administratoren und Benutzern einen zentralen Zugriffspunkt bereit. Die Kommunikation aller Clients mit dem Eucalyptus System erfolgt ausschließlich nur über den Cloud Controller anhand der auf SOAP oder REST basierenden API. Der Cloud Controller ist dafür zuständig, alle Anfragen zu der richtigen Komponente weiterzuleiten, diese zu sammeln und die Antwort der Komponente anschließend wieder zu dem Client zurück zu senden. Der Cloud Controller ist somit die öffentliche Schnittstelle einer Eucalyptus Cloud.

Cluster Controller (CC)

Der Cluster Controller ist innerhalb des Eucalyptus Systems für die Verwaltung des virtuellen Netzwerks zuständig. Der Cloud Controller erhält alle Anfragen auf Basis seiner SOAP oder REST Schnittstellen. Der Cloud Controller erhält alle Informationen über die vorhandenen Node Controllers des Eucalyptus Systems und ist für die Kontrolle des Lebenszyklus jedes einzelnen verantwortlich. Er leitet alle Anfragen an die Node Controller mit verfügbaren Ressourcen weiter um damit virtuelle Instanzen zu starten.

Node Controller (NC)

Ein Node Controller steuert das Betriebssystem und den zugehörigen Hypervisor eines Rechners (Node) im Eucalyptus System. Auf jeder physikalischen Maschine die eine durch den Cluster Controller instantiierte virtuelle Instanz auf Grund einer Anfrage beherbergt, muss eine Instanz eines Node Controller vorhanden sein.

Walrus (W)

Walrus ist für die Zugriffsverwaltung auf den Speicherdienst innerhalb eines Eucalyptus Systems zuständig. Walrus erhält die Anfragen über seine SOAP oder REST Schnittstelle.

Storage Controller (SC)

Der Storage Controller verwaltet den Speicherdienst innerhalb eines Eucalyptus Systems und verfügt über eine Schnittstelle zu Amazon's S3 Dienst. Der Storage Controller arbeit in Verbindung mit Walrus und wird für die Speicherung und den Zugriff auf die Images der Virtual Machines, die Kernel Images, die RAM Disk Images und die Daten der Benutzer verwendet. Die Images der Virtual Machines können rein privat oder öffentlich zugänglich gemacht werden und können dabei komprimiert und verschlüsselt gespeichert werden. Die Images werden lediglich entschlüsselt, wenn ein Node eine neue virtuelle Instanz starten muss und dazu einen Zugriff auf das Image benötigt.

Das Clustersystem

Ein Eucalyptus System vereint und verwaltet Ressourcen von Single-Cluster als auch Multi-Cluster Systemen. Dabei besteht ein Cluster aus einer Gruppe von Rechnern, die alle mit dem selben LAN verbunden sind. Zu jedem Cluster kann wiederum einer aber auch mehrere Node Controller gehören, die für die Verwaltung der Instantiierung und Beendigung der virtuellen Instanzen verantwortlich sind.

Ein Single-Cluster besteht aus mindestens zwei Maschinen. Auf dem einen werden der Cluster Controller, der Storage Controller und der Cloud Controller ausgeführt, auf dem anderen der Node Controller. Diese Art der Konfiguration ist vor allem für Experimente und schnelle Konfigurationen geeignet. Die dargestellte Konfiguration könnte ebenfalls auf einer einzigen Maschine implementiert werden. Allerdings ist dafür eine äußerst leistungsstarke Hardware notwendig!

Bei einem Multi-Cluster wird jede Komponente (CC, SC, NC, und CLC) auf einer separaten Maschine ausgeführt. Dies sollte die bevorzugte Art und Weise sein das Eucalyptus System zu konfigurieren, wenn damit ernsthaft gearbeitet werden soll. Mit einem Multi-Cluster kann zudem die Performance erhöht werden, indem einem Controller die passende Maschine zugewiesen wird. Zum Beispiel sollte der Cloud Controller auf einer Maschine mit einer schnellen CPU ausgeführt werden. Im Allgemeinen bringt die Entscheidung für einen Multi-Cluster eine höhere Verfügbarkeit, sowie eine bessere Lastverteilung und eine optimierte Verteilung der Ressourcen über alle Cluster. Das Clusterkonzept ist vergleichbar mit dem Konzept der Verfügbarkeitszonen der Amazon EC2. Dabei werden die Ressourcen über mehrere Verfügbarkeitszonen hinweg verteilt, damit ein Fehler in einer Zone nicht die Anwendung beeinträchtigt.

Eucalyptus und die Ubuntu Enterprise Cloud

Bei der Ubuntu Enterprise Cloud (UEC) handelt es sich um eine Open Source Initiative von Ubuntu, um auf eine einfachere Art und Weise skalierbare Cloud Infrastrukturen auf Basis von Eucalyptus bereitzustellen und diese zu konfigurieren.

Mit der Ubuntu Enterprise Cloud können Public Clouds erstellt werden, welche Amazon's EC2 infrastructure nutzen. Es können damit aber genau so gut Private Clouds entwickelt werden, die auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall gehostet werden.

Vorteile von Eucalyptus

Bei Eucalyptus handelt es sich um eine Umgebung für Cloud Services, mit der Public Clouds auf Amazon's EC2 Infrastruktur bzw. Private Clouds im hauseigenen Rechenzentrum erstellt werden können. Die grundlegenden Vorteile sollen hier noch einmal kurz aufgeführt werden:

  • Open Source und Entwicklung
    Eucalyptus wurde geschaffen, um die Kommunikation und Forschung von Cloud Computing Plattformen zu fördern. Der Quellcode ist frei verfügbar, was es ermöglicht die Plattform so zu erweitern, damit sie den eigenen Anforderungen entspricht. Eucalyptus wird zunehmend weiterentwickelt. Darüber hinaus ist die Aufnahme und Integration von Funktionswünschen und Verbesserungsvorschlägen sehr schnell.
  • Community
    Eucalyptus verfügt über eine große Community die gerne bereit ist einander zu helfen. Über die Foren kann schnell Kontakt zu anderen Benutzern aufgenommen und Hilfe bezogen werden.
  • Public Cloud
    Eucalyptus funktioniert einwandfrei auf Amazon's EC2 Framework und kann damit als Public Cloud eingesetzt werden.
  • Private Cloud
    Eucalyptus kann auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall als Private Cloud eingesetzt werden. Dadurch ist die Kontrolle bzgl. der Sicherheit und der gesamten Umgebung in der eigenen Hand.
  • Portabilität
    Auf Grund der Kompatibilität von Eucalyptus mit Amazon's EC2 API sowie der Flexibilität von Eucalyptus, können Anwendungen ohne großen Aufwand von einer Cloud in die andere migriert werden. Darüber hinaus besteht die Möglichkeit des Aufbaus von Hybrid Clouds, indem eine Private Cloud mit einer Public Cloud erweitert bzw. kombiniert wird.
  • Qualitativ durch Tests
    Durch den Einsatz von Eucalyptus in Ubuntu's Enterprise Cloud findet tagtäglich ein weltweiter realer Test auf Basis von mehr als tausend Server-Instanzen statt.
  • Kommerzieller Support
    Neben den Foren der Eucalyptus Community kann natürlich auch auf einen kommerziellen Support zurückgegriffen werden.

Open Nebula

OpenNebula ist ein Open Source Virtual Infrastructure Manager mit dem aus vorhandenen Rechenzentren jede Art von Cloud Computing Umgebung aufgebaut und bereitgestellt werden kann. In erster Linie dient OpenNebula als Tool zur Verwaltung der virtualisierten Infrastruktur des eigenen Rechenzentrums bzw. der eigenen Cluster, also der eigenen Private Cloud.

Darüber hinaus ist OpenNebula in der Lage Hybrid Clouds aufzubauen, also die eigene lokale Infrastruktur mit einer Public Cloud Infrastruktur zu verbinden/kombinieren, um die Skalierbarkeit der eigenen Umgebung noch weiter zu erhöhen. OpenNebula verfügt zusätzlich über spezielle Schnittstellen für die Verwaltung von virtuellen Maschinen, Speicherplatz und des Netzwerks von Public Clouds.

Funktionen

Private Cloud Computing

  • Internal Interfaces for Administrators and Users
    Mit einer Unix ähnlichen Kommandozeile und einer XML-RPC API kann der Lebenszyklus der virtuellen Maschinen und physikalischen Server verwaltet werden. Weitere Administrationsmöglichkeiten bietet die libvirt API.
  • Steuerung
    Die Verwaltung der Arbeitslast und Zuweisung der Ressourcen kann nach bestimmten Regeln wie z.B. der aktuellen Auslastung automatisch vorgenommen werden. Des Weiteren wird der Haizea VM-based lease manager unterstützt
  • Virtualisierungsmanagement
    Es existieren Konnektoren für Xen, KVM und VMware, sowie einem generischen libvirt Konnektor für weitere Virtual Machine Manager. Die Unterstützung von Virtual Box ist in Planung.
  • Image Management
    Es sind Funktionen für den Transfer und das Clonen von Virtual Machine Images vorhanden.
  • Netzwerk Management
    Es lassen sich isolierte virtuelle Netze festlegen um virtuelle Maschinen miteinander zu verbinden.
  • Service Management
    Unterstützung von Multi Tier Services bestehend aus Gruppen von miteinander verbundenen virtuellen Maschinen und deren Auto Konfiguration während des Boot Vorgangs.
  • Sicherheit
    Die Verwaltung der Benutzer wird durch den Administrator der Infrastruktur vorgenommen.
  • Fehlertoleranz
    Eine persistente Datenbank dient zum Speichern aller Informationen der Hosts und virtuellen Maschinen.
  • Skalierbarkeit
    Tests zeigten bisher, das OpenNebula mehrere hundert Server und virtuelle Maschinen verwalten kann.
  • Installation
    Die Installation erfolgt auf einem UNIX Cluster Front-End ohne das weitere Services benötigt werden. OpenNebula wird mit Ubuntu 9.04 (Jaunty Jackalope) ausgeliefert.
  • Flexibilität und Erweiterbarkeit
    Die Architektur, Schnittstellen und Komponenten sind offen, flexibel und erweiterbar. Dadurch kann OpenNebula mit jedem aktuellen Produkt aus dem Bereich Virtualisierung, Cloud Computing oder Management Tool für Rechenzentren integriert werden.

Hybrid Cloud Computing

  • Cloud Plugins
    Konnektoren für Amazon EC2 und ElasticHosts.
  • Zusammenschluss
    Unterstützung für den gleichzeitigen Zugriff auf mehrere Remote-Clouds.
  • Erweiterbarkeit
    Modulare Konzepte für die Entwicklung neuer Konnektoren.

Public Cloud Computing

  • Cloud Schnittstellen für Benutzer
    Implementierung einer Teilmenge der Amazon EC2 Query API und der OGF OCCI API
  • Erweiterbarkeit
    Die OpenNebula Cloud API ermöglicht die Implementierung neuer/weiterer Cloud Schnittstellen.

OpenStack

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht derzeit aus insgesamt sechs Kernkompenten und wird stetig weiterentwickelt. OpenStack Compute, OpenStack Object Storage und OpenStack Image Service, OpenStack Identity, OpenStack Dashboard und OpenStack Networking.

Man muss sich allerdings darüber im Klaren sein, dass es sich bei OpenStack um kein fertiges Produkt handelt, das sofort einsatzfähig ist, sondern um einzelne Teilprojekte die selbst ineinander integriert und für die eigenen Bedürfnisse angepasst werden müssen. Es gibt aber mittlerweile fertige OpenStack Installationsroutinen von Mitgliedern des OpenStack Projekts.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.

OpenStack Networking

OpenStack Networking ist ein skalierbares und API basierendes System für die Verwaltung von Netzwerken und IP-Adressen.


CloudStack

CloudStack wurde ursprünglich von Cloud.com entwickelt. Nach der Übernahme durch Citrix Systems im Jahr 2011 wurde Citrix zum Hauptsponsor von CloudStack. Die Open-Source Cloud Plattform basiert auf Java und hilft beim Aufbau und der Verwaltung von skalierbaren Infrastrukturen. Zu den aktuell unterstützten Hypervisorn gehören VMware, Oracle VM, KVM, XenServer und die Xen Cloud Platform. Neben einer eigenen RESTful API implementiert CloudStack ebenfalls die Amazon EC2 und S3 APIs sowie VMwares vCloud API. Die Cloud-Infrastruktur kann entweder über die Web-Oberfläche, einer Kommandozeile oder die API konfiguriert und verwaltet werden.

CloudStack besteht aus fünf Kernkomponenten. Der Compute Controller verwaltet die Rechenleistung, der Network Controller steuert das virtuelle Netzwerk und der Storage Controller ist für die Speicherverwaltung des BlockStorage zuständig. Alle drei Komponenten haben direkten Kontakt mit der physikalische Hardware. Auf diesen Komponenten setzt die CloudStack Orchestration Engine auf, die für den Aufbau, die Steuerung und Verwaltung der CloudStack Infrastruktur verantwortlich ist. Über der Orchestration Engine befindet sich als letzte Komponente die CloudStack API, die mit der Web-Oberfläche, Kommandozeile oder über REST interagiert und die Befehle an die Orchestration Engine weitergibt.

Citrix Systems ist nicht das einzige bekannte Unternehmen, was CloudStack unterstützt. Weitere Supporter des CloudStack Projekts sind RightScale, PuppetLabs, Juniper Networks, Enstratus, TrendMicro, Intel und Equinix.


Bildquelle: ©Gerd Altmann / PIXELIO



BYOD und BYOA. Es gibt mehr Vorteile als Risiken.

Die Trends Bring-your-own-device (BYOD) und Bring-your-own-application (BYOA) haben dazu geführt, das Mitarbeiter ihre privaten Endgeräte und (mobilen) Anwendungen mit ins Büro bringen, mit denen sie am Produktivsten sind. Doch anstatt sich gegen den Trend zu wehren, sollten Unternehmen die Vorteile für sich nutzen.

BYOA entwickelt sich zum Trend

Einer Fortinet Umfrage zufolge zeigten sich 69 Prozent der Befragten daran interessiert eigene Anwendungen im Büro zu nutzen. 30 Prozent würden sich dabei sogar gegen Regeln hinweg setzen und trotz eines Verbots eigene Anwendungen einsetzen.

Kontrollverlust wird größer

Der Kontrollverlust in IT-Abteilungen schreitet durch BYOD und BYOA stetig voran. Um sicherzustellen, dass das Unternehmensnetzwerk vor den Endgeräten (BYOD) geschützt ist, können Sicherheitsmaßnahmen eingeführt werden, mit denen der Zugriff je nach Situation beschränkt wird. Bei BYOA sieht es jedoch ein wenig anders aus. Die Daten werden hier in der Regel z.T. auf den lokalen Gerät und in einem Cloud Service oder vollständig in der Cloud gespeichert. Es kann also durchaus vorkommen, dass Unternehmensdaten verloren gehen, sollte der Anbieter des Cloud Service Ausfallen oder gar insolvent werden.

Das bedeutet im Umkehrschluss, dass sich die Unternehmensdaten ebenfalls über mehrere mobile Endgeräte hinweg repliziert befinden. Die IT-Abteilung verliert damit den Überblick wo und in welchem Stand die Daten gespeichert sind. Das kann zu Compliance-Problemen usw. führen.

Es gibt mehr Vorteile als Risiken

Dennoch sollten Unternehmen die Vorteile genau verstehen und anschließend gegen die Risiken abwiegen, bevor eine überhastete Entscheidung gegen BYOD/ BYOA getroffen wird. Denn mobile Anwendungen sind ein wertvolles Gut, was Unternehmen für sich nutzen können. Mit diesen können Mitarbeiter einfacher miteinander zusammenarbeiten, indem sie Dokumente, Videos usw. teilen und gleichzeitig an Dokumenten arbeiten.

Externe oder selbst entwickelte Anwendungen sind zudem eine ideale Quelle, um daraus eigene neue Ideen und Ansätze zu finden, die dem eigenem Unternehmen einen Vorteil verschaffen können. Würde man den Mitarbeitern die Nutzung dieser Anwendungen flächendeckend verbieten, heißt es nicht, dass diese auch tatsächlich darauf verzichten werden. Entweder sie finden einen Weg die App zu nutzen oder man verliert möglicherweise seine besten Mitarbeiter.

Eine Möglichkeit BYOA zu unterstützen besteht darin, die Anwendungen in kontrollierten Umgebungen zu integrieren, um die IT-Infrastruktur aber auch die Nutzer selbst zu schützen. Zudem gibt es einige App-Anbieter, die selbst für Consumer-Apps hohe Sicherheitsstandards in ihren Umgebungen haben. Dazu gehört z.B. Evernote. Der Cloud-basierte Notizblock bietet die Möglichkeit die Nutzerdaten zu verschlüsseln. Damit verfügen die Daten zumindest über ein gewisses Sicherheitsniveau, wenn der Service angegriffen wird.

Entscheider und IT-Abteilungen sollten zudem von den unerwünschten Anwendungen lernen, die durch die eigenen Mitarbeiter in die Unternehmen getragen werden. Anstatt diese zu verbieten, sollte aus diesen gelernt werden, um die eigene Sicherheit zu erhöhen und den eigenen Innovationsgrad zu erhöhen.


Bildquelle: ©Tony Hegewald / PIXELIO



Klassische Webhoster und ihr Kampf mit Infrastructure-as-a-Service

Vor ein paar Tagen hatte ich ein Briefing mit einem europäischen Webhoster, der mir seine Produktlinie, strategische Ausrichtung usw. vorgestellt hat. Ich möchte das Wort Cloudwashing dabei ungerne wieder in den Mund nehmen. Allerdings hat mir das Gespräch erneut gezeigt, dass typische Webhostinganbieter massive Probleme haben, ein echtes Infrastructure-as-a-Service (IaaS) Angebot aufzubauen.

Schwierigkeiten mit der Moderne

Es ist genau das, was ich bei so manchen Anbietern von "Cloud" Lösungen feststellen muss. Dabei handelt es sich überwiegend um klassische Webhoster, die den Cloud Zug nicht verpassen wollten und schnell ihr Portfolio AUF DEM PAPIER Cloud-fähig gemacht haben. Es gibt wohlgemerkt Ausnahmen, diese sind aber äußerst selten. An dieser Stelle wird schlicht und einfach auf den Hype aufgesprungen und das Internet als Cloud verstanden.

Genau so zeigte sich auch das Portfolio des Anbieters, mit dem ich gesprochen habe. Es gibt Dedicated Server und Cloud Server, die vor ein paar Monaten/ Jahren noch Virtual Server hießen. Diese "Cloud Server" gibt es als fünf unterschiedliche fixe Konfigurationsstufen mit entsprechendem 1 bis 4 Cores, Speicherplatz und RAM zu einem monatlichen Preis von x EUR. Nicht zu vergessen, dass die Bereitstellungszeit mit 1 bis 5 Werktagen angegeben wird. Weitere Nachfragen ergaben dann, dass kein on-Demand Bezug möglich ist und keine API zum Verwalten bzw. Starten und Stoppen weiterer Server zur Verfügung steht. Ebenfalls existieren keine weiteren Services oder Software Images die um das Angebot herum bestehen und die Ressourcen nicht pro Verbrauch abgerechnet werden können.

Wie die Eigenschaften eines Cloud Angebots ausschauen sollte steht hier.

Interne Struktur und Strategie vorhanden

Man muss dem Anbieter zugestehen, dass er auf Nachfrage eingestehen musste, dass bis auf das Wort selbst in den Serverangeboten, nicht sehr viel Cloud steckt. Allerdings befindet er sich auf dem richtigen Weg. Vor ca. einem Jahr wurde die interne Infrastruktur auf CloudStack umgestellt, um für sich selbst die Provisionierung der Kunden-Server zu optimieren. Davon können die Kunden bisher jedoch nicht profitieren. Zudem wurde mit KVM auf einen modernen, offenen und weit verbreiteten Hypervisor gesetzt und ebenfalls das Thema Netzwerkvirtualisierung wurde vor ein paar Wochen umgesetzt. Nach eigener Aussage sei ebenfalls eine Strategie vorhanden, in Kürze den Kunden einen on-Demand Bezug einzelner Ressourcen sowie Pay per use als Bezahlmodell anzubieten, da man sich mittlerweile selbst im Klaren darüber sei, dass dies zwingend erforderlich ist.

Dennoch, angesichts dieser Erfahrungen sollte sich jeder Nutzer, der ernsthaft in die Cloud gehen möchte, vorab intensiv informieren.


Bildquelle: ©Harald Fischer / PIXELIO



Cloud Computing verlangt Weiterbildung und fördert die Flexibilität

Cloud Computing erfordert den Aufbau neuer Kenntnisse, um mit den neuen Herausforderungen zurecht zu kommen und die Eigenschaften, welche die Cloud bietet, bestmöglich zu nutzen. Insbesondere die IT-Abteilungen werden sich verändern. Zwar wird es künftig weiterhin Systemadministratoren geben, jedoch wird die Anzahl schwinden und diejenigen, die übrig bleiben, werden durch die Cloud bei der Ausführung ihrer Tätigkeit unterstützt und werden diese dadurch besser ausführen.

Die neuen Jobs? So schauen sie aus.

„Am Server schrauben“ wird in sehr vielen Unternehmen größtenteils aus der Mode kommen. Viel mehr wird es darum gehen, Services zu managen und die IT-Abteilungen werden zum Cloud Service Broker und seinen internen Kunden (Fachabteilungen usw.) die benötigten Services und Anwendungen aus einer Cloud (Private/ Public) bereitstellen.

Seit geraumer Zeit werden daher neue Berufsbezeichnungen diskutiert, die durch die Cloud entstehen werden, darunter:

  • Cloud Architekt
  • Cloud Service Manager
  • Cloud Integrationsspezialist und -Experte
  • Cloud Security Manager und -Ingenieur
  • Director Cloud Infrastructure
  • Executive Vice President of Cloud Technologies

Bei diesen Rollen handelt es sich nur um eine Auswahl von denen, die in nächster Zeit entstehen werden. Denn es gilt zu klassifizieren, welche Aufgaben und Rollen künftig für den Cloud Betrieb notwendig sind und wie sich die jeweiligen Anforderungen dieser einzelnen Rollen verhalten. Zudem werden auf Basis der Cloud neue disruptive Dienstleistungen entstehen, die es gilt zu identifizieren.

Die Cloud erhöht die Flexibilität

Auch die Art wie wir in Zukunft arbeiten wird sich verändern. Die Cloud erlaubt es uns, von überall aus verteilt und vor allem flexibel zu arbeiten. Wann und wo die Leistung erbracht wird, spielt im Prinzip keine Rolle mehr. Der Faktor Zeit wird relativ, da das typische 9 to 5 nicht mehr zwingend erforderlich ist.

Die technischen Möglichkeiten, flexibel und unabhängig von Ort und Zeit zu arbeiten, können wir mittlerweile bereits nutzen. Mit Cloud Services stehen uns Browser-basierte Applikationen zur Verfügung, mit denen wir, zwar weltweit verteilt, aber dennoch im Team parallel und in Echtzeit an ein und demselben Dokument arbeiten können. Cloud Storage Lösungen ermöglichen uns das Echtzeit Backup und ebenso den plattformunabhängigen Zugriff auf unsere Daten.

Gegenwind aus der Politik

Wohingegen viele eine Chance sehen, kommt aus der Politik Gegenwind. So sorgt sich Bundesarbeitsministerin Ursula von der Leyen im Rahmen der DLDwomen: "Cloud-Arbeiter stehen ständig im Wettbewerb miteinander und unter dem ständigen Druck, sich immer wieder neu bewerben zu müssen." Von der Leyen ist der Meinung, dass es "... künftig eine "virtuelle Belegschaft" geben ..." wird, "... einen weltweit verfügbaren Pool von Talenten ...".

Sie hat natürlich recht mit ihrer These. Cloud Lösungen werden Unternehmen dabei helfen, weltweit die besten Mitarbeiter (noch leichter) zu rekrutieren, was darin resultieren kann, dass sich die Arbeitswelt ebenfalls hin zu einem deutlich größeren Anteil von Freiberuflern entwickeln wird. Ob die von von der Leyen titulierten "Cloud-Arbeiter" tatsächlich einem deutlich höheren Druck ausgesetzt werden bleibt fraglich. Denn der Druck in den Unternehmen auf die Mitarbeiter nimmt ebenfalls stetig zu und jeder muss sich tagtäglich in seinem Beruf bewähren und zeigen was er drauf hat.

Ich habe dazu eine nette Anekdote auf dem .comspace Blog gefunden:

Ein Mann sitzt in der Lobby eines Luxushotels. Es ist 3 Uhr nachts und nur hier unten hat er WLAN, um noch einmal schnell seine E-Mails zu checken. Ein junges Pärchen kommt durch die Drehtür des Hotels von einer Strandparty, sie versucht gar nicht erst zu flüstern: “Schau Dir den armen Knilch an, selbst im Urlaub kann er bis tief in die Nacht nicht aufhören zu arbeiten.”
Der Mann mit dem Laptop auf den Knien denkt bei sich “Wer ist denn der arme Knilch – der, der seinen Job liebt und jederzeit von überall aus arbeiten kann oder diejenigen, die sich in 2 Wochen im Jahr von den anderen 50 Wochen Arbeit, die sie nicht gerne machen, erholen müssen?”

Diese Geschichte spiegelt sehr schön wieder, wie jeder einzelne mit der Art zu arbeiten umgeht. Insbesondere die jüngere Generation wird ihre Chancen wittern, dem staubigen Büroalltag entfliehen zu können und entweder von zu Hause oder aus dem Café oder Co-Working Space ihrer Wahl zu arbeiten, um neue und kreative Eindrücke zu erleben. Dann gibt es die "alten Freien", die seit jeher als Freiberufler tätig sind und die Art so zu arbeiten schätzen und in der Cloud wahrscheinlich ebenfalls Vorteile sehen werden. Die dritte Fraktion bilden diejenigen, die glücklich bzw. scheinbar glücklich mit ihrer Arbeit sind, aber eher resistent gegenüber Veränderungen erscheinen. Zu guter letzt gibt es natürlich Berufe, die von dieser Veränderung nicht betroffen sein können, da es rein physikalisch erforderlich ist, dass die Person an Ort und Stelle tätig ist.

Unternehmen sollten Freiheiten gewähren

Natürlich kann und sollte kein Unternehmen seine Mitarbeiter dazu zwingen, flexibel einer Tätigkeit nachzugehen und sie dazu verpflichten nicht mehr täglich ins Büro zu fahren und stattdessen das nächstgelegene Starbucks aufzusuchen. Allerdings sollte jeder Personaler und jede Führungskraft mit dem Gedanken spielen, den Mitarbeitern zumindest die Gelegenheit zu geben, der Tätigkeit eben nicht 9 to 5 nachzugehen sondern Vertrauen in den Mitarbeiter haben, klare Ziele festlegen und diese am Ende eines Meilensteins prüfen.


Bildquelle: ©Gerd Altmann / PIXELIO



Cloud Computing ist das Rückgrat der mobilen Welt

Der Markt für mobile Endgeräte und Lösungen wächst unaufhörlich. Erst vor kurzem hat der BITKOM einen ungebremsten Tablet-Boom vorausgesagt. Demnach werden im Jahr 2012 mehr als 3,2 Millionen Geräte verkauft. Das ist ein Plus von 52 Prozent. Der Umsatz soll auf 1,6 Milliarden Euro steigen. Und ebenfalls der Trend hin zu mobilen Office und Collaborationslösungen hat sich mehr als deutlich gefestigt.

Die Cloud ist das Rückgrat mobiler Lösungen

Bei genauerer Betrachtung wird deutlich, dass Cloud Computing ein Erfolgsgarant für den Markt mobiler Technologien und Angebote ist. Die Cloud ermöglicht es Anbietern wie Google (Google Play) und Amazon (Kindle, Android AppStore) ihren Kunden den für sie tatsächlich einen Mehrwert bringenden Content wie Bücher, Musik ,Apps etc. an jedem Ort und geräteübergreifend bereitzustellen. Anders als Apple verfolgen beide die Strategie überwiegend mit Content ihre Einnahmen zu erzielen und die dafür benötigten Endgeräte zum Selbstkostenpreis zu verkaufen.
Das haben auch Anbieter wie zum Beispiel Samsung und LG erkannt und planen bzw. verfügen ebenfalls über eigene Cloud Angebote, über die sie ihre Kunden mit Inhalten versorgen oder zum ablegen von Daten animieren möchten und somit an sich binden wollen.
Aber nicht nur Anbieter von mobilen Marktplätzen nutzen die Cloud für ihre Zwecke. Auch Entwickler mobiler Applikationen speichern ihre Daten vermehrt nicht mehr nur lokal. Zudem greifen viele Apps auf die Cloud zu, um weitere Informationen und Daten zu erhalten.

Hybrid ist der strategisch richtige Weg

Zwar entwicklen sich mobile Datenverbindungen rasant fort, aber selbst in so einem hochentwickelten Land wie Deutschland existieren sichtlich noch viele Löcher in der mobilen (Breitband)-Versorgung. Dabei geht es weniger um die Innenstädte, sondern um die sogenannten Speckgürtel und ländlichen Regionen. Hier stehen weiterhin nur instabile oder minderwertige Verbindungen (EDGE) zur Verfügung. Und auch der lang ersehnte Hochgeschwindigkeitsstandard LTE (Long Term Evolution) kann die Erwartungen noch nicht erfüllen oder ist für die Masse zudem überteuert.

Ein weiterer Punkt ist die Zuverlässigkeit und das Vertrauen während der mobilen Arbeit. Wurden die Daten beziehungsweise Änderungen tatsächlich erfolgreich gespeichert oder erlebe ich im Büro eine Überraschung? Vor allem während der Arbeit im fahrenden Zug, ist dringend von der Arbeit mit reinen Cloud-basierten Lösungen abzuraten.

Entwickler mobiler Produktivitätslösungen sollten sich daher auf einen hybriden Ansatz konzentrieren. Die Arbeit sollte hauptsächlich auf dem mobilen Endgerät stattfinden. Sämtliche Änderungen/ ausgewählte Daten werden dann im Falle einer Datenverbindung im Hintergrund automatisch synchronisiert (Statusmeldungen nicht vergessen). Die Möglichkeit auf eine Online bzw. einen Cloud Mode umzuschalten wäre aber eine Option, um bspw. auch die Echtzeit Kollaboration mit den Kollegen zu ermöglichen.

Ohne Cloud nichts los

Neben der Entwicklung mobiler Endgeräte und Betriebssysteme wie Android oder iOS, würde sich der mobile Markt ohne Cloud Computing nicht so entwickeln wie es derzeit passiert. Man möge in erster Linie den immer leistungsstärkeren Geräten und komfortabler werdenden Betriebssystemen und Apps dafür verantwortlich machen. Jedoch sollte man nicht vergessen, dass erst durch die Cloud die Möglichkeiten für einen nathlosen und geräteunabhängigen Zugriff und die Synchronisation von Inhalten geschaffen wurde.


Bildquelle: ©Rödi / PIXELIO



"Infrastructure-as-a-Platform" mit mehr Komfort in die Cloud

Die Zukunft der Unternehmens-IT liegt im X-as-a-Service. Vor allem Infrastructure-as-a-Services ermöglichen den schnellen Zugriff auf Rechen- und Speicher-Ressourcen und erfreuen sich immer größerer Beliebtheit. Was jedoch vielen Angeboten fehlt ist die sogenannte "Convenience", also die bequeme Konfiguration der Infrastruktur. Der Hamburger Managed Hosting Anbieter internet4YOU geht neue Wege und erfindet den Bereich "Infrastructure-as-a-Platform (IaaP)". Vor allem für kleine- und mittelständische Unternehmen, die nicht über das notwendige IT-Know-How verfügen, um sich Standard IaaS Ressourcen zusammenzubauen, ist IaaP ein sehr interessanter Ansatz.

Infrastructure-as-a-Platform - Die Einfachheit zählt

Was den meisten IaaS-Lösungen fehlt, ist der komfortable Zugriff auf Ressourcen, mit denen sich virtuelle Infrastrukturen aufbauen lassen. Dabei handelt es sich in der Regel um Services von Cloud Anbietern der ersten Generation, wie bspw. den Amazon Web Services. Hier erfolgt der Zugriff über eine API, um damit die virtuellen Maschinen zu steuern und sämtliche Infrastrukturkomponenten und Services miteinander interagieren zu lassen. Graphische Verwaltungs-/ Konfigurationsoberflächen sind nur mit einem sehr kleinen Funktionsumfang vorhanden. Instanzen lassen sich zwar starten, stoppen und herunterfahren, für die Konfiguration einer komplexen Infrastruktur ist aber Expertenwissen sowie umfangreiches Know-How mit paralleler Programmierung usw. erforderlich.

Und das ist der entscheidende Faktor. Der gewöhnliche Cloud Nutzer ist kein Cloud Computing Experte und muss bzw. sollte es auch nicht sein. Er kennt sich nicht mit den Themen aus, die eine Cloud überhaupt zu einer Cloud machen. Das ist für ihn auch nicht notwendig, er will die "Blackbox" schließlich nur für seine Zwecke nutzen. Darüber hinaus hat er nicht das Interesse oder gar die Zeit, sich mit den oft komplexen Systemen und Prozessen auseinanderzusetzen und diese zu erlernen. In der Regel erwartet der durchschnittliche Cloud Nutzer eine in sich stimmige und integrierte Plattform, auf der er sich seine notwendigen IT-Ressourcen zusammenbauen kann, die er über einen bestimmen Zeitraum für seine Zwecke benötigt.

Es gibt keine offizielle Definition von Infrastructure-as-a-Platform. Ursprünglich stammt der Begriff von ScaleUp Technologies. Dabei handelt es sich um eine eigenständige Tochter von internet4YOU, die Lösungen für den Aufbau und die Verwaltung von Cloud Infrastrukturen anbietet. Neben internet4YOU respektive ScaleUp Technologies bieten auch Anbieter wie Profitbricks und Zimory aber auch Open-Source Lösungen wie openQRM die Möglichkeiten einer IaaP.

Infrastructure-as-a-Platform gehört die Zukunft

Neben dem einfacheren Zugriff auf die Ressourcen, bündeln Infrastructure-as-a-Platform Lösungen insbesondere verschiedene IaaS Ressourcen wie Rechenleistung, Speicherplatz, Netzwerkkomponenten usw. und ermöglichen Unternehmen damit den Aufbau eines eigenen Rechenzentrum on-Demand, also ein "Data-Centre-as-a-Service" (DCaaS).

Bereits etablierte Cloud Computing Anbieter - der ersten Generation - müssen damit beginnen in diesem Bereich aufzuholen und ihren bestehenden und neuen Kunden mehr Convenience bieten, mit der diese die Infrastrukturen bequemer nutzen können und während der Konfiguration zudem weniger Zeit und Expertenwissen benötigen. Denn insbesondere IT-Abteilungen von kleinen- und mittelständischen Unternehmen werden in Zukunft auf diesen Komfort achten.


Bildquelle: ©Gerd Altmann / PIXELIO



Den Return on Investment (ROI) des Cloud Computing bestimmen

Unternehmen sind angehalten den Wert jeder Investition über den Return on Investment (ROI) zu bestimmen. Das ist bei neuen Technologien/ Konzepten wie dem Cloud Computing nicht trivial, da hier derzeit noch wenig bis keine Erfahrungswerte vorliegen. Startups sind davon eher unbefangen, da sie keine Vergleichswerte mit klassischen Systemen haben, etablierte Unternehmen sind jedoch darauf angewiesen.

Der Return on Investment

Der Begriff Return on Investment (deutsch Kapitalverzinsung, Kapitalrendite oder Anlagenrendite) bezeichnet ein Modell zur Messung der Rendite einer unternehmerischen Tätigkeit, gemessen am Gewinn im Verhältnis zum eingesetzten Kapital. Der ROI beschreibt als Oberbegriff für Renditekennzahlen sowohl die Eigenkapitalrendite als auch die Gesamtkapitalrendite.

Quelle: Wikipedia.de

Wie den ROI der Cloud bestimmen?

Es stellt sich als nicht ganz leicht heraus, einen ROI für etwas zu bestimmen, das man nicht gut einschätzen kann oder gar kennt und vor allem kein reales Zahlenmaterial vorliegen hat. Daher muss man sich Bereiche suchen, die zwar keine harten Zahlen wiederspiegeln, aber dennoch den Wert und Nutzen des Cloud Computing zeigen. Dabei handelt es sich um Kosteneinsparungen, Prozessoptimierung, die Verbesserung der Agilität und den praktischen Gewinn durch die Nutzung des Cloud Computing.

Kosteneinsparungen

Nachdem man sich einen Überblick über seine bisher eingesetzten Anwendungen gemacht und diese in Klassen geordnet hat, ist es an der Zeit, potentielle Kandidaten herauszufiltern, bei denen ein Wechsel in die Cloud die Kosten senken können. Ein möglicher Kandidat ist das ERP System, was in eine Cloud Umgebung migriert werden könnte. Anhand der Konsolidierung und Virtualisierung können somit die Anzahl der tatsächlich benötigten Server und gleichzeitig die dafür notwendigen Racks reduziert werden.

Ebenso verhält es sich für Unternehmen, die über eine F&E Abteilung verfügen und die Hardwareinfrastruktur ihrer Labor verkleinern wollen. Einsparungen finden sich hier primär in den Bereichen Entwicklung und Instandhaltung der eingesetzten Applikationen und Hardwarelandschaften. Aber auch der geringere Aufwand für die Installation von Software reduziert die Kosten durch die Nutzung von Cloud-basierten Applikationen und verringert das notwendige Budget. Ein weiterer Vorteil: Die Cloud- basierten Lösungen können auf jedem Arbeitsplatzrechner über einen Webbrowser bereitgestellt werden.

Unternehmen die weiterhin on-Premise ihre Infrastruktur hosten werden zudem relativ schnell bemerken, dass eine eigene Infrastruktur in-House zu betreiben, große Investitionen in eigene Hard- und Software bedeutet. Hosting in der Cloud bedeutet, die fixen Kosten zu variablen Kosten zu transformieren, da auf Grund des Pay as you go Modells nur die Ressourcen berechnet werden, die tatsächlich genutzt werden.

Auf Grund kleiner Hürden und geringem technischen Wissen können selbst nicht IT-Mitarbeiter Cloud Computing einsetzen, um Infrastrukturen und Applikationen für das Unternehmen einzukaufen. Das führt zu Einsparungen bei Arbeits-und Know-How Kosten sowie Installations- und Instandhaltungskosten, vgl. Total Cost of Ownership.

Prozessoptimierung und Agilität

Mit Cloud Applikationen lassen sich zudem Unternehmensprozesse optimieren, indem sich, auf Grund des on-Demand Modells, verstärkt auf die Weiterentwicklung der Kenntnisse und Lösungen konzentrieren lässt. Unternehmen sind somit agiler und können schneller auf Marktveränderungen reagieren und neue Möglichkeiten identifzieren um zu wachsen.

Wenn ein Unternehmen wächst oder sich verändert, werden dafür schnell mehr Ressourcen und entsprechend Betriebsmittel benötigt. Das kann von ein paar Wochen bis zu Monaten dauern. Das beinhaltet ebenfalls das Schulen des Personals. All das bedeutet für ein Unternehmen Stillstand. Cloud Computing ermöglicht die schnelle Provisionierung der benötigten Ressourcen und stellt damit die Skalierung sicher.

Kosten sagen nicht immer viel aus

Der erfolgreiche Einsatz von Cloud Computing lässt sich nicht immer in Zahlen ausdrücken. Daher lässt sich der ROI des Cloud Computing am besten aus dem Nutzen bestimmen. Administratoren und CIOs sollten dazu auf die offensichtlich Werte achten, die beim Einsatz entstehen. Sie sollten sich z.B. fragen, was sie von der Nutzung eines bestimmten Service erwarten können. Auf dieser Basis lassen sich weitere, auf den Nutzen bezogene, Fragen entwickeln, die sich nicht auf das Finanzielle konzentrieren. So können bspw. Metriken entwickelt werden, die sich auf den sichtbaren Nutzen eines Cloud Service beziehen, den dieser in der Lage ist zu liefern. Metriken könnten sein:

  • Wie schaut es mit dem Support und weiteren Services aus, die durch den Anbieter bereitgestellt werden?
  • Können Einsparungen erzielt werden?
  • Wie kompliziert ist der Abrechnungsvorgang?
  • Wie ist die Benutzerfreundlichkeit des Service?
  • Ist die dynamische Nutzung durch den neuen Service gewährleistet?
  • Wie flexibel ist der neue Service in Bezug auf Veränderungen und wechselnder Anforderungen?
  • Wie schnell kann der neue Cloud Service adaptiert und bereitgestellt werden?
  • Wie sehen die Wartungs- und Upgradekosten sowie die Ausfallzeiten im Vergleich zum Cloud Service aus?
  • Wie ist der Einfluss auf das Unternehmen, wenn Services in Zukunft aus der Cloud bezogen werden?
  • Wie sehen die Risiken in Bezug auf die Unternehmensprozesse und gespeicherten Daten in der Cloud aus?
  • Konnte die Zufriedenheit meiner Mitarbeiter erhöht werden?
  • Hat sich die Agilität und Flexibilität verbessert?

Der ROI ist wichtig, aber...

Der Return on Investment ist eine wichtige Kennzahl in einem Unternemen, allerdings sollte und darf die finanzielle Seite nicht die einzige Grundlage des ROI sein. Insbesondere beim Cloud Computing spiegelt sich der Wert und Nutzen der Services nicht immer im monetären Bereich wieder. Und auch wenn die Metrik manchmal nicht ganz greifbar ist, sollte der Wert, den ein Cloud Service für ein Unternehmen liefert, dennoch nicht vernachlässigt und stattdessen sorgfältig betrachtet werden.


Bildquelle: http://us.intacct.com



Cloud Marketplaces sind die Zukunft des Cloud Computing

In den letzten Monaten sind vermehrt Cloud Marketplaces erschienen. Dazu zählen u.a. der AWS Marketplace, der Chrome Web Store, der internet4YOU Cloud Marketplace oder der Business Marketplace der Deutschen Telekom. Hier können sich Unternehmen aber auch Endnutzer aus einem Katalog von Services ihr eigenes Produktivätsportfolio zusammenstellen und haben dadurch einen ausgewählten Überblick von möglichen potentiellen Kandidaten.

Marktplätze sorgen für Übersicht

Ein Cloud Marktplatz ist vor allem dadurch charakterisiert, dass er, wie bspw. ein klassischer Webshop, Produkte in Form von Anwendungen aber auch Infrastruktur kategorisiert. Gerade dann wenn sich ein neuer Trend etabliert, schiessen tagtäglich neue Lösungen aus dem Boden. Das macht es für Einkäufer, aber auch Endkunden zunehmend schwieriger, den Überblick über den Markt zu behalten.
Cloud Marktplätze räumen auf und fassen die unterschiedlichen Cloud Angebote thematisch zusammen. Sie bilden quasi ein unabhängiges Ökosystem von Cloud Services.

Die Spreu vom Weizen trennen

Wohlgemerkt gibt es auch viele "schlechte" Cloud Applikationen auf dem Markt, die keinen echten Mehrwert bieten oder schlicht weg einfach nicht gut durchdacht sind. Cloud Marktplätze helfen, potentielle Top-Applikationen von eher unbedeutenden Services zu trennen. Eine Entscheidungshilfe bieten hier bereits die Betreiber solcher Marktplätze selbst. So sagt die Deutsche Telekom, dass sie über ihren Marktplatz zwar eine Vielzahl von Drittanbieter Lösungen bereitstellen wollen, aber bewusst auf Klasse statt Masse setzen werden. Das birgt natürlich die Gefahr, das potenzielle gute Anwendungen es nicht in den Marktplatz schaffen werden, da diese durch das Raster der Telekom fallen werden. Auf der anderen Seite ist eine Vorauswahl natürlich notwendig, um die Qualität und damit das Ansehen des Marktplatz zu gewährleisten.
Hat es ein Angebot in den Marktplatz geschafft, steht dem Nutzer mit der "Crowd" ein weiteres Entscheidungskriterien zur Verfügung. Anhand eines Bewertungssystem wird die Qualität und Funktion der Anwendung von anderen Nutzern bewertet und kommentiert und gibt damit ein Stückweit mehr Adaptionshilfe.

Die Reichweite erhöhen

Cloud Marktplätze können vor allem jungen Unternehmen helfen, die über ein geringes Kapital für Werbung und PR verfügen, ihren Bekanntsheitsgrad und die Reichweite zu erhöhen. Aber auch für etablierte Unternehmen, die mit Cloud Angeboten starten, ergeben sich dadurch Chancen, sich einer breiten Masse zu präsentieren und sich vor dem bestehenden Mittbewerb transparent zu bewähren.

Cloud Marketplaces sind keine Cloud Broker

Eines sollten man jedoch beachten. Cloud Markplätze bieten in ihrer reinen Form nur Services und Applikationen an, ohne einen weiteren Mehrwert zu bieten. Anstatt sich bspw. über die Suchmaschine seiner Wahl nach möglichen Angeboten zu informieren und direkt auf die Webseiten der Anbieter zugehen, erfolgt der Zugriff über den Marktplatz. Nach einer ersten Anmeldung über den Marktplatz, kann anschließend auch der direkte Weg zum Anbieter genommen werden. Der Marktplatz dient dann nur noch als Verwaltungsinstrument für die Nutzer und das Hinzufügen oder Kündigen anderer Services.

Cloud Broker Services hingegen integrieren und erweitern mehrere Cloud Angebote und schaffen damit einen Mehrwert um die Cloud Servies herum.
Das Cloud Services Brokerage Modell bietet ein architektonisches-, business-, und IT-Betriebs-Modell, mit dem verschiedene Cloud Services bereitgestellt, verwaltet und adaptiert werden können. Und das sich innerhalb eines föderierten und konsistenten Bereitstellung-, Abrechnung-, Sicherheit-, Administration- und Support-Framework befindet. Unternehmen werden damit in die Lage versetzt, ihr Cloud-Services Management zu vereinheitlichen, um damit den Innovationsgrad zu erhöhen, die globale Zusammenarbeit zu verbessern, die Betriebskosten zu senken und insgesamt besser zu wachsen. Cloud Computing Anbieter erhalten damit die Möglichkeit die Bereitstellung ihrer Cloud Services zu vereinheitlichen und ihr eigenes Services Netzwerk zu differenzieren und damit eine umfangreiche Cloud Computing Plattform bereitzustellen. Technologie-Anbieter können damit ein Ökosystem von Mehrwertdiensten aufbauen, um ihre wichtigsten Angebote zu differenzieren, die Kundenbindung erhöhen und neue Vertriebswege erschließen.

Cloud Marketplaces sind ein logischer Trend

Cloud Marketplaces gehören zu der logischen Entwicklung des Cloud Computing, um Unternehmen und Entwickler den einfachen Zugriff auf IT-Ressourcen zu ermöglichen. Neben einer gut dokumentierten API gehören ebenfalls übersichtliche und umfangreiche Web-Oberflächen zu einem guten Cloud Angebot, die es dem Nutzer ermöglichen sich "auch mal eben" eine Cloud Infrastruktur "zusammenzuklicken", um z.B. ein paar Tests durchzuführen. Bereits viele Anbieter sind auf diesen Zug aufgesprungen und ermöglichen über einen eigenen Cloud Marktplatz den Zugriff auf ihre IaaS-Ressourcen. Zudem reichern sie ihre Infrastruktur-Angebote über den Marktplatz mit Betriebssystem-Images oder weiteren Software-Lösungen an, um den virtuellen Ressourcen damit einen echten Nutzen zu geben.

Unternehmen können sich einen Cloud Marketplace vorstellen wie mehrere Regal in einen quasi unendlich großen Supermarkt. Und genau so sollten sie ihn auch nutzen, um sich ihre Infrastruktur beliebig zusammenzubauen. Spannend wird es, wenn wir einen Schritt weitergehen und die Ressourcen und Lösungen nicht mehr nur von einem einzigen Anbieter beziehen, sondern über mehrere Anbieter oder deren Marktplätze, wo wir uns dann beim Thema Cloud Brokerage Services - siehe oben - befinden.


Bildquelle: Wikipedia



Vernichtet Cloud Computing die Enterprise IT?

Cloud Computing gehört zu den disruptivsten Technologien und Konzepten der letzten 10 Jahre. Mit dem flexiblen Bezug von quasi unendlich verfügbaren Ressourcen lassen sich zwar nicht einfacher virtuelle Infrastrukturen aufbauen, aber agiler und kurzfristig. Auch der Zugriff auf - neue - Anwendungen und Daten, die durch die Cloud ortsunabhängig zur Verfügung stehen, hat einen erheblichen Einfluss auf uns, unsere Arbeitswelt und damit auch zwangsläufig auf die Enterprise IT. Durch das Cloud Computing getriebene Themen wie Bring your own device (BYOD) und Mobile Computing, aber auch die Consumerization of IT (CoIT) hinterlassen immer mehr Spuren in den IT-Umgebungen vieler Unternehmen. Es stellt sich somit die Frage, ob das Cloud Computing und seine oben genannten Gefährten dazu beitragen werden, dass die Enterprise IT, wie wir sie kennen nicht mehr lange existieren wird.

Mitarbeiter zeigen wo es lang geht

Die CoIT sorgt dafür, dass IT-Wissen kein rares Gut mehr ist. Vorbei sind die Zeiten, in denen IT-Abteilungen dem Großteil der restlichen Mitarbeiter gleich mehrere Schritte voraus sind. Das liegt unter anderem daran, das die Informationstechnologie in unserem alltäglichen Leben einen omnipräsenten Zustand eingenommen hat. Zudem hat sich die Bedienbarkeit in den letzten Jahren deutlich vereinfacht und die Angst vor dem unbekannten Computern, Smartphones usw. schwindet stetig. Vergessen sollte man auch nicht den demographischen Wandel. Der Nachwuchs wächst mit und in die neuen Technologien herein und hat es mit der IT daher viel einfacher als die vorherigen Generationen. Das Verhältnis von Mitarbeitern die sich mit IT auskennen und denjenigen die Schwierigkeiten damit haben, wird sich immer stärker verändern, bis wir an einem Punkt angelangt sind, wo es keine nicht IT-affinen Mitarbeiter mehr geben wird.

Ständig neue Technologien, die primär für den privaten Gebrauch gedacht sind, beeinflussen die Mitarbeiter darüber hinaus im großen Stil. In Kombination mit der CoIT und dem demographischen Wandel sehen somit immer mehr Nutzer neue Möglichkeiten, diese eher privaten Technologien in ihren Arbeitsalltag einzusetzen und sich damit das Leben zu vereinfachen und die eigene Produktivität zu steigern.

Ein weiteres Problem, das sich die Enterprise IT ausgesetzt sieht: Die IT-Abteilungen sind zu langsam und sitzen weiterhin auf ihrem Thron. Es gibt viele Mitarbeiter und Projekte die innerhalb des Unternehmens und für die Außenwirkung Ideen haben. Dafür benötigen sie allerdings Ressourcen und diese in Form von IT. Dabei kann es sich von einer trivialen Angelegenheit wie Zugriffsrechte, über neue Applikationen bis hin zu Servern oder vollständigen Infrastrukturen handeln. Für jedes genannte Thema ist mindestens ein Ticket bis hin zu zahlreichen Meetings erforderlich. Oder die Antwort lautet schlicht und einfach - Nein! Im Falle von Ja! kann die Bereitstellungszeit mehrere Wochen oder gar Monate benötigen. Für ein einfaches Testsystem steht das in keinem Verhältnis, fördert die Missgunst bei den Mitarbeitern und kann im schlimmsten Fall das ganze Projekt gefährden.

Die Cloud vereinfacht den Zugang

Mitarbeiter und Projekte suchen daher Auswege, um zum einen Diskussionen aus dem Weg zu gehen und zum anderen ihre Ziele im vorgegebenen Zeitfenster zu erreichen. Dem Kunden sind die internen Machtkämpfe relativ egal und er sollte davon besser auch nichts mitbekommen.

Möglich machen es ihnen Lösungen aus der Cloud. Seien es nun vollständige Applikationen (Software-as-a-Service, SaaS), Plattformen für die Entwicklung und den Betrieb eigener Anwendungen (Platform-as-a-Service, PaaS) oder ganze Infrastrukturen für umfangreiche IT-Landschaften (Infrastructure-as-a-Service, iaaS). In der Cloud ist für jeden etwas dabei, wenn auch nicht für jede Situation.

Und auch mobile Applikationen, die ihre Daten bevorzugt in der Cloud ablegen, oder Cloud Storage Services und moderne HTML 5 Applikationen ermöglichen den ortsunabhängigen Zugriff.

Cloud Computing unterstützt die Enterprise IT

Die Enterprise IT darf nicht die Augen vor dem Cloud Computing verschließen und muss diese disruptive Technologie als Unterstützer ihrer täglichen Arbeit sehen. Ähnlich verhält es sich mit BYOD. In beiden Fällen gilt: Augen zu und durch funktioniert nicht! Proaktiv handeln und den Mitarbeiten wieder einen Schritt voraus sein ist gefragt.

Wer sich nun fragt, wie Cloud Computing ein Unterstützer sein kann, hier vier Beispiele:

Irgendwann wird der CEO/ CIO in der Tür stehen und erwarten, dass die Datenmengen die täglich im Web, in den lokalen Systemen usw. gesammelt werden, im großen Stil analysiert und unmenschliche Verknüpfungen angestellt werden sollen, da ein Informationsvorsprung einen Wettbewerbsvorteil bedeutet. Stichwort: Big Data. Wie sollen also in kurzer Zeit die Unmengen an benötigten Systemen für die Verarbeitung (Rechenleistung) und Ablage (Speicherplatz) beschafft und konfiguriert werden? Und wie sollen diese aus dem IT-Budget des laufenden Jahres finanziert werden? Selbst die Entwicklung einer eigenen Big Data Applikation kostet bereits viel Zeit und Geld. Genau, Cloud Computing. Denn Cloud Infrastrukturen sind eine ideale Lösung für die Anforderungen von Big Data. Aber ebenfalls speziell darauf ausgerichtete PaaS Lösungen können bereits helfen, "nur" die Abfragen zu schreiben.

Das Big Data Beispiel lässt sich auf so ziemlich jeden Fall anwenden, wenn es darum geht, kurzfristig Anforderungen zu erfüllen, bei denen mehr als "nur ein paar" virtuelle Server benötigt werden. Denn eines sollte man nicht vergessen, für jede virtuelle Ressource werden auch physikalische Ressourcen benötigt.

Auch neue Anwendungen lassen sich via SaaS kurzfristig, kostengünstig bzw. kostenlos testen, ohne dafür eigene Hardware zu nutzen oder gar die dafür notwendige darunterliegende Software zu besitzen, installieren und konfigurieren.

IT-Abteilungen können Cloud Computing zudem nutzen, um die eigene Innovationsfähigkeit und damit den Innovationsgrad des Unternehmen selbst zu erhöhen, indem sie kurzfristig auf Cloud Technologien zurückgreifen, um neue Ideen zu testen oder zu entwickeln.

Eines sollte weiterhin angemerkt werden. Cloud Computing ist kein Job Killer. Änderungen im Job und Weiterbildungen sind ein normales Phänomen, die natürlich auch die Cloud mit sich bringt. Allerdings erledigen die Cloud Infrastrukturen nicht alles von alleine. Um bspw. ein IaaS Angebot zu nutzen, müssen weiterhin die virtuellen Server Stückweit konfiguriert werden und die virtuelle Infrastruktur und Applikationen so gestaltet werden, dass sie tatsächlich skalierbar und hochverfügbar arbeiten. IT-Abteilungen müssen in der Cloud "verteilt" denken und agieren.

Enterprise IT stirbt nicht aus

Die Enterprise IT wird nicht aussterben. Es sei denn, sie passt sich nicht den aktuellen und zukünftigen Begebenheiten und Trends an. Nicht die IT-Abteilungen werden die technologische Marschroute mehr vorgeben. Die Mitarbeiter werden zeigen und darauf aufmerksam machen, welche Technologien sie für ihre Produktivität benötigen. IT-Abteilungen sollten also verstehen, dass sie in einigen Fällen noch einen gewissen Vorsprung vor den Kollegen haben, dieser aber stetig schwindet. Umgehen können und sollten sie mit dieser Situation, indem sie

  • Auf Mitarbeiter eingehen.
  • Offen sein.
  • Innovationen von Mitarbeitern in das Unternehmen hineintragen lassen.
  • Verstehen dass es mittlerweile viele kleine CIOs/ CTOs gibt.
  • Crowdsourcing innerhalb des Unternehmens einsetzen, um Wünsche und Bedürfnisse zu erkennen.
  • Sich ebenfalls mit dem Markt für Consumer Produkte auseinandersetzen und Ideen für den Einsatz im Unternehmen ableiten.
  • Den Mitarbeitern wieder einen Schritt voraus sein.
  • Die Innovationsfähigkeit und den Innovationsgrad steigern.


Cloud Computing: Es geht um Agilität und Flexibilität und sekundär um die Kosten

Mit dem Artikel "Wieviel kostet die Cloud" hat sich die Computerwoche das Thema Cloud Computing und Kosten angenommen. Dabei konzentriert sich der Beitrag auf das Thema Software-as-a-Service (SaaS) und betrachtet den Cloud Bereich nicht in der Bandbreite. Das allgemeine Ergebnis des Artikels ist, dass man mit einer on-Premise Lösungen nach fünf Jahren günstiger fährt als mit Cloud Services. Diese Schlussfolgerung kommt natürlich nicht überraschend. Wenn ich einmal kräftig investiere und meine eingekauften Ressourcen über einen sehr langen Zeitraum nutze, ohne diese zu erneuern, fahre ich definitiv günstiger als mit einem SaaS-Modell, wo ich monatliche bzw. jährliche Beiträge zahle. Was allerdings nicht beachtet wird ist, dass ich damit ständig den aktuellen Trends hinterher hänge und vor allem niemals die neueste Softwareversion einsetze. Denn beim Cloud Computing geht es sekundär um die Kosten und in erster Linie um die Agilität und Flexibilität, die ein Unternehmen damit gewinnt.

Cloud Computing ist zwangsläufig nicht günstiger

In dem Artikel kommen auch einige Analysten zu Wort u.a. Gartner, die zu dem Ergebnis kommen, dass SaaS "... in den ersten fünf Jahren günstiger als der On-Premise-Betrieb sein kann". Daher sei eine langfristige Betrachtung und Gegenüberstellung von on-Premise und Cloud Computing empfehlenswert. Diese zeigt, dass nach ein paar Jahren der Breakeven erreicht ist und danach die on-Premise Lösungen deutliche Kostenvorteile aufweisen. So sagt Nikolaus Krasser, Vorstandsmitglied der Pentos AG: "Die Lizenzkosten im SaaS-Betrieb sind ab dem sechsten oder siebten Jahr definitiv höher als die abgeschriebenen Kosten für die On-Premise-Lizenzen und Server sowie den laufenden Betrieb"

Damit hat Herr Krasser natürlich recht. Wie ich bereits oben erwähnt habe ist es eine ganz einfache Rechnung. Investiere ich Anfangs eine hohe Summe in Softwarelizenzen und lasse meine Mitarbeiter sechs bis sieben Jahre mit veralteten Softwareversionen arbeiten, spare ich natürlich langfristig. Ähnlich verhält es sich mit Hardware. Aber mache ich meine Mitarbeiter damit auch glücklich und vor allem produktiv?

Mit einer SaaS Lösung investiere ich monatlich bzw. jährlich in die benötigte Software und zahle damit natürlich gleichzeitig für Innovation, Updates, Sicherheits-Bugfixes, neue Versionen usw. Das sollte man dabei nicht vergessen. Zudem erhalte ich mir mit SaaS die Flexibilität zeitnah eine neue Lösung einzuführen, ohne langfristig in Lizenzen zu investieren.

Cloud Computing gestaltet die IT-Infrastruktur flexibler

Die Grundlage des Cloud Computing ist die Konsolidierung der Hardware-Ressourcen auf Basis von Virtualisierung. Damit können Unternehmen bis zu 40 Prozent ihrer Gesamtkosten im eigenen Rechenzentrum reduzieren. Alleine 25 bis 30 Prozent dieser Einsparungen fallen auf einen geringeren Stromverbrauch und Investitionen für Kühlsysteme. Dadurch lässt sich auch das Ziel einer "Green-IT" besser verfolgen. Klassische Rechenzentren mussten stark überdimensioniert ausgelegt werden, um auch in Spitzenzeiten ausreichend IT-Ressourcen liefern zu können. Im Jahresmittel werden jedoch nur maximal 20 Prozent dieser Kapazitäten benötigt. Die restlichen 80 Prozent sind unproduktiv.

Auf Grund der Virtualisierung muss sich das Design eines Rechenzentrum nicht mehr an dem maximal erwarteten Bedarf richten. Mit der Skalierbarkeit des Cloud Computing werden die benötigten Ressourcen automatisiert und flexibel den entsprechenden Geschäftsbereichen bereitgestellt. Im Anschluss werden die Ressourcen wieder heruntergefahren. Diese operative Effizienz führt zu 30 Prozent Kosteneinsparungen.

Kurzum lassen sich mit Cloud Computing die Skaleneffekte optimieren und Ressourcenauslastung der gesamten IT-Infrastruktur verbessern.

Cloud Computing verbessert die Agilität des gesamten Unternehmens

Cloud Computing optimiert sämtliche technologische Prozesse und führt zu mehr Effizienz. Zudem verkürzt es den Zugriff auf Ressourcen und erhöht damit die Innovationsfähigkeit des Unternehmens. Mitarbeiter können dadurch schneller auf Informationen und Applikationen zugreifen, wodurch sie Informationen kurzerhand analysieren und sofort Entscheidungen treffen können. Mit einem ortsunabhängigen Zugriff auf die Daten lässt sich darüber hinaus die Produktivität jedes einzelnen Mitarbeiters erhöhen.

Cloud Computing sorgt zudem für einen optimierten Betrieb der IT-Infrastruktur, wodurch sich Spitzenzeiten bequem und zeitnah ausgleichen lassen. Unerwartete erfolgreiche Werbemaßnahmen, Monats- und Jahresabschlüsse oder saisonale bedingte Einflüsse können damit begegnet werden, ohne langfristig in kostspielige Hardware-Ressourcen zu investieren. Die Skalierbarkeit der Cloud sorgt für das automatische Anpassen der benötigten Ressourcen, sei es Rechenleistung, Speicherplatz oder Applikationen.

Genauso verhält es sich mit der Innovationsfähigkeit des Unternehmens. Jede neue Initiative benötigt Ressourcen. Personal ebenso wie die unterstützende IT im Hintergrund. Die Cloud verkürzt hier die Evaluierung von neuen Ideen bzw. dem Time-to-Market, indem die notwendigen IT-Ressourcen on-Demand zur Verfügung stehen.

Weiterhin fördert Cloud Computing die bessere Zusammenarbeit der Mitarbeiter und optimiert die Koordination mit Kunden und Partnern. Innerhalb des Unternehmens sorgt die Cloud für eine enge Verzahnung der Mitarbeiter sowie den Prozessen und Systemen. Das sorgt für eine effizientere Kollaboration. In der Außenkommunikation mit Kunden und Partner bildet die Cloud eine Plattform, mit der eine nahtlose Zusammenarbeit erfolgt.

Innovationen müssen in den Fokus rücken

Die IT wird seit jeher als der Stein am Bein eines jeden Unternehmens betrachtet und das scheint sich im Zeitalter des Cloud Computing nicht zu ändern. Eine Kostenbetrachtung ist wichtig und jeder der es nicht macht, begeht einen Fehler. Allerdings verschafft man sich durch eine Kostenreduktion keinen Wettbewerbsvorteil. Um innovativ zu sein, muss man investieren. Das haben uns Unternehmen wie Amazon (Amazon Web Services, Amazon Kindle) oder auch Google sehr eindrucksvoll gezeigt. Mit dem Cloud Computing stehen nun jedem Unternehmen alle Türen offen, ebenfalls den Innovationsgrad zu erhöhen und die Agilität zu verbessern. Und auch die Kommunikation zwischen Mitarbeitern, Partnern und Kunden lässt sich damit optimieren. Wie das geht, zeigen uns bevorzugt Startups und junge Unternehmen, die ihre Geschäftsmodelle auf Basis der Cloud aufgebaut haben und die ohne diese skalierbaren Infrastrukturen nicht existieren würden.


Bildquelle: http://ictk.ch



Die Leistungsmetriken einer Cloud sind entscheidend

Cloud Computing verändert unaufhörlich die Art wie IT Services bereitgestellt werden. Neben Kosteneinsparungen gehören die einfache Adaption und ein vereinfachtes Service-Management zu den ursprünglichen Versprechen des Cloud Computing. Dennoch sehen sich Unternehmen aktuell damit konfrontiert, wie sie Services aus der Cloud mit ihrer bestehenden Unternehmens- und IT-Strategie integrieren können. Werden Cloud Lösungen im Unternehmen eingeführt, gehören Verfügbarkeit, Leistungsmetriken und die Sicherheit zu den größten Herausforderungen. Daher ist es notwendig eine Cloud-Strategie zu entwickeln, um die Transformation Schritt für Schritt zu vollziehen.

Die Leistungsmetriken entscheiden über eine Cloud

Viele Unternehmen entscheiden sich über einen Verbund unterschiedlicher Clouds (Federated Cloud). Dabei befinden sich einige Anwendungen innerhalb einer Public Cloud und ein paar in einer Private Cloud. Auf die restlichen Alt-Anwendungen wird über ein klassisches VPN zugegriffen. Um die Masse der dabei entstehenden und übertragenen Informationen zu überwachen ist ein Performance-Management-System notwendig, dass einen Überblick über sämtliche Aktivitäten aller Anwendungen gibt. Speziell die Performanz einer Anwendung misst, wie Leistungsstark die Cloud Umgebung ist, auf der sich die Anwendung befindet.

Schlechte Leistungsmetriken ergeben sich durch eine geringe Bandbreite, Latenzen auf den Datenverbindungen, zu wenig Speicherplatz bzw. langsame Festplatten, geringer Arbeitsspeicher und zu geringe CPU Zyklen. In den meisten Fällen führen zudem nicht ausreichend Ressourcen zu einer schlechten Performance der Anwendung. In manchen Fällen sorgt eine schlechte Applikations-Architektur dafür, dass die Geschwindigkeit der Anwendungen nicht den gewünschten Ergebnissen entspricht, indem die Prozesse der Anwendungen nicht korrekt über die Cloud Ressourcen verteilt wurden.

Dabei sollten Performance-Probleme keinesfalls unterschätzt werden. Denn diese können die Servicebereitstellung erheblich beeinflussen. Für einen Anwender macht es keinen Unterschied, ob der Service eine schlechte Performance hat oder gar nicht verfügbar ist. In beiden Fällen kann er den Cloud Service nicht erwartungsgemäß nutzen. Eine schlechte Performance ist daher ein No-Go und muss unter allen Umständen vermieden werden. Neben dem Verlust von Kunden sorgt eine schlechte Performance für eine Verringerung der Mitarbeiter- und allgemeinen Produktivität und kann sogar zu einem vollständigen Ausfall führen.

Die Cloud Umgebung muss beachtet werden

Die Performance einer Anwendung kann signifikant von der Umgebung abhängen in der sie bereitgestellt wird. Unternehmen müssen daher sicherstellen, dass die Performance der jeweiligen Applikation entspechend angepasst wird, bevor sie auf eine Cloud Computing Infrastruktur migriert wird bzw. neu entwickelt wird, um die Vorteile der Cloud zu nutzen. Dabei sollte man immer beachten, dass sich die Leistungsmetriken von Cloud zu Cloud unterscheiden, was zu einer echten Herausforderung werden kann.

Planen, Separieren und Skalieren

Die Kapazitätsplanung ist ein wichtiger Bestandteil der Cloud-Strategie, wenn Unternehmen ihre eigenen Cloud Umgebungen aufsetzen. Denn nur mit ausreichend Ressourcen lassen sich performante Anwendung bereitstellen, die den Mitarbeitern dabei helfen ihre Produktivität zu erhöhen.

Neben der Kapazitätsplanung ist das Thema Skalierbarkeit ein weiterer wichtiger Baustein, um die Performance einer Anwendung in der Cloud sicherzustellen bzw. diese zu erhöhen. Eine gute Anwendungsarchitektur reduziert Engpässe und Performance Probleme, indem Ressourcen intensive Prozesse voneinander getrennt und die Last über mehrere virtuelle Maschinen innerhalb der Cloud Umgebung verteilt werden.

Private Cloud ist nicht der goldene Weg

Viele Unternehmen entscheiden sich vermehrt für eine Private Cloud im eigenen Rechenzentrum, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine Private Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer Private Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Service Levels

In der Public Cloud bzw. Virtual/ Managed Private Cloud kann ein Service Level Agreement die Performance erhöhen, da in diesem die zu erwartenden Metriken für die Verfügbarkeit und Leistung festgehalten sind. Dabei sollte ein besonderes Augenmerk auf die Performance der Anwendung und die notwendige Leistung des Netzwerks gelegt werden. Mit diesen Werten lassen sich die erforderlichen Performance-Metriken der Cloud Computing Umgebung bestimmen. Hilfreich kann es zudem sein, wenn man die Performance der Anwendung in kleine Parameter zerlegt. Damit lassen sich die versprochenen Metriken besser messen.

Die Cloud ist kein Allheilmittel

Eine Cloud Computing Umgebung beseitigt zwangsläufig nicht alle Performance-Probleme einer Anwendung. Es besteht sogar die Möglichkeit, dass eine Cloud, im Vergleich zu einer nicht Cloud Umgebung zu mehr Performance-Problemen führt. Aus diesem Grund ist das ständige Überwachen sämtlicher Metriken einer Anwendung notwendig, um ein Gefühl für die Leistung der Cloud und der darauf bereitgestellten Anwendung zu bekommen. Darüber hinaus sorgt man damit selbst dafür, dass die vereinbarten Service Levels eingehalten werden und die Performance und Skalierbarkeit der Anwendung von Seiten des Cloud Computing Anbieters sichergestellt werden.


Bildquelle: http://www.fusionio.com



Die Google Cloud Platform

Google hat mit der Einführung seiner Compute Engine sein Portfolio zu einem vollständigen Cloud Computing Stack ausgebaut. Als schärfster Konkurrent gelten die Amazon Web Services (AWS), die den Markt der Infrastructure-as-a-Services mit Abstand anführen. Anders als AWS geht Google jedoch in die Breite. Und auch wenn die Anzahl der Google Cloud Services mit denen von AWS in der Masse [Vergleich] noch nicht mithalten können, finden Entwickler in Googles Portfolio jede Menge Möglichkeiten, ihre Anwendungen in der Google Cloud zu betreiben.

Die Google Cloud Plattform

Ein vollständiger Cloud Stack

Die Google Cloud setzt sich aus neun einzelnen Services zusammen und deckt den kompletten Cloud Stack, Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS) ab. Dazu gehören die Google App Engine, die Google Compute Engine, der Google Cloud Storage, Google BigQuery, die Google Prediction API, die Google Translation API, Google Apps, Google Cloud SQL und Google F1.

Google App Engine

Die Google App Engine ist das Platform-as-a-Service (PaaS) Angebot von Google. Sie gehört mit der Erscheinung im Jahr 2008 zu einer der ersten PaaS am Markt und war der einzige Service der Python und Java gleichzeitig unterstützte. Die Google App Engine wurde entwickelt, um Anwendungen auch mit hoher Last oder während der Verarbeitung von vielen Daten zuverlässig ausführen zu lassen. Dazu unterstützt die Google App Engine dynamische Webdienste inkl. gängiger Web-Technologien, einen persistenten Speicher inkl. der Möglichkeit für Abfragen, Sortierungen und Transaktionen, Automatische Skalierung und Loadbalancing, eine Entwicklungsumgebung für lokale Systeme zur Simulation der Google App Engine, Warteschlangen für die Steuerung von Aufgaben die eine hohe Performance benötigten, uvm.

Für das Speichern der Anwendungen wird von der App Engine eine verteilte Datenhaltung verwendet, wobei der verteilte Speicher mit der Menge der Daten wächst.

Die Google App Engine bietet verschiedene APIs zur Arbeit mit und der Verwaltung von Applikationen. Mit dem URL-Fetch Service können Anwendungen auf andere Ressourcen wie Web Services oder Daten über das Internet zugreifen. Dabei wird dieselbe Google Infrastuktur verwendet, wie sie auch von bekannten Google Produkten genutzt wird. Mittels der App Engine Mail API sind Anwendungen in der Lage direkt E-Mails zu versenden. Per Memcache kann auf Daten zugegriffen werden, die nicht im persistenten Speicher abgelegt werden. Durch einen schnellen in-Memory Key-Value Cache ist eine Anwendung in der Lage mehreren Instanzen parallel nur temporär vorhandene Daten performant bereitzustellen. Anhand der Image Manipulation API sind Anwendungen in der Lage Bilder zu verändern.

Anwendungen können so gesteuert werden, dass sie hoch performante Aufgaben dann erledigen, wenn die Belastung durch Anfragen nicht so hoch ist, z.B. zu einer vorher definierten Uhrzeit oder Tag. Des Weiteren besteht die Möglichkeit eine Anwendung in eine Warteschleife zu legen oder sie im Hintergrund auszuführen.

Google Compute Engine

Die Google Compute Engine bietet Infrastructure-as-a-Services á la Google. Damit erhält man die Möglichkeit, virtuelle Maschinen (VM) mit dem Linux Betriebssystem auf der Google Infrastruktur, die auch von Google Mail und anderen Services eingesetzt wird, zu nutzen.

Die Compute Engine setzt auf Ubuntu als auch CentOS Linux Betriebssysteme, virtuelle Maschinen mit 1,2,4 oder 8 Kernen und 3,75 GB Arbeitsspeicher pro virtueller Instanz. Speicherarten stehen in drei Varianten zu Verfügung.

Flüchtiger Speicher: Auf jeder virtuellen Instanz befindet sich ein flüchtiger lokaler Speicher, bei dem die Daten nur während des Lebenszyklus einer virtuellen Maschinen gespeichert werden. Wenn die VM gestoppt wird, werden alle Daten gelöscht. Dennoch werden alle Daten die auf die VM geschrieben verschlüsselt abgelegt. Persistenter Speicher: Die Google Compute Engine bietet einen persistenten Speicher, der als Service (virtuelle Fesplatte) mit dem Google Storage Netzwerk verbunden ist und über dieselbe Latenz und Geschwindigkeit wie der lokale Speicher einer VM verfügt. Daten die auf diese “virtuelle Festplatte” gespeichert werden, werden automatisch über mehrere physikalische Festplatten innerhalb eines Google Rechenzentrum repliziert. Darüber hinaus können Snapshots von den Festplatten für Backup/ Restore Zwecke erstellt werden. Zudem besteht die Möglichkeit diese virtuellen Platten als Laufwerk in mehrere virtuelle Maschinen zu mounten, um davon Daten zu lesen. Wie beim lokalen VM Speicher sind auch die Daten auf den virtuellen Festplatten verschlüsselt. Google Cloud Storage: Der Google Cloud Storage existiert für Entwickler schon etwas länger. Er bietet die Möglichkeit, Daten persistent zu speichern und auf die Buckets (Ordner) innerhalb des Storage mit einer VM zuzugreifen.

Über der Google Netzwerk lassen sich die virtuellen Maschinen mit der Aussenwelt und innerhalb des Netzwerks selbst verbinden. Der Netzwerk Stack ist so aufgebaut, dass sich die virtuellen Maschinen eines Nutzers in einem isolierten Bereich befinden und von Dritten nicht ohne Weiteres darauf zugegriffen werden kann. Die virtuellen Maschinen können entweder mit statischen oder dynamischen IP-Adressen verknüpft werden, um anschließend über das Internet auf diese zuzugreifen. Über eine Firewall können die Zugriffe auf die virtuellen Maschinen kontrolliert werden.

Alle Management Tools basieren auf einer offenen RESTful API. Google plant darüber hinaus, alle verfügbaren Tools als Open Source zu veröffentlichen, um den Nutzern die Möglichkeiten zu geben, eigene Tools nach ihren Bedürfnissen zu entwickeln. Google arbeitet bereits mit ein paar Partner darunter RightScale, Puppet Labs, OpsCode, Numerate, Cliqr und MapR zusammen, die in Zukunft die Google Compute Engine unterstützen und integrieren werden und weitere Management-Kapazitäten anbieten.

Google Cloud Storage

Der Google Cloud Storage existiert für Entwickler schon etwas länger. Er bietet die Möglichkeit, Daten persistent zu speichern und auf die Buckets (Ordner) innerhalb des Storage mit einer VM zuzugreifen.

Google Cloud Storage bietet zudem unterschiedliche Einsatzszenarien. Neben der Archivierung und dem Datenbackup, lassen sich darüber hinaus Anwendungsdaten darin ablegen, um einen ortsunabhängigen Zugriff darauf zu ermöglichen. Der Zugriff auf die Daten lässt sich über Access Control Lists (ACLs) steuern.

Der Storage Service dient als grundsätzliche Basis für andere Google Cloud und Analytics Services wie der Google Prediction API und Google BigQuery Service. Zudem lassen sich darüber statische Inhalte für Webseiten ausliefern.

Google BigQuery

Google BigQuery nennt sich Googles Big Data Service und soll Unternehmen und Entwicklern bei der Analyse ihrer Daten helfen ohne die dafür notwendige Infrastruktur zu besitzen.

Da Google auf Grund der Indexierung des Webs auf Systeme für die Analyse riesiger Datenmengen angewiesen ist, wurden entsprechend bereits einige Tools entwickelt, die allerdings nur für den internen Einsatz vorgesehen sind. Aus diesen Tools wurde nun der BigQuery Service quasi abgeleitet.

BigQuery ist ein Online Analytical Processing (OLAP) System, um Datensätze mit Milliarden von Zeilen und Terabytes an Daten zu verarbeiten und zielt auf Unternehmen und Entwickler in Unternehmen ab, die mit riesigen Datenmengen (Big Data) balancieren müssen. BigQuery kann auf unterschiedliche Arten genutzt werden. Entweder mit einer Web-Oberfläche, einer REST API oder via Kommandozeile. Die Daten können zur Verarbeitung per CSV Format auf die Google Server hochgeladen werden.

Die Preise orientieren sich an der Menge der gespeicherten Daten und der Anzahl der Anfragen. Für den Speicherplatz berechnet Google 0,12 Dollar pro GB pro Monat bis zu einer maximalen Speichermenge von 2TB. Für die Anfragen werden 0,035 Dollar pro verarbeitetes GB berechnet. Die Limits liegen hier bei 1000 Anfragen pro Tag sowie 20TB zu verarbeitende Daten pro Tag. Für die ersten 100GB an verarbeitenden Daten pro Monat entstehen keine Kosten. Weitere Informationen stehen hier.

BigQuery ist nicht für die OLTP (Online Transaction Processing) Verarbeitung geeignet. Genauso wenig können Änderungen an den auf BigQuery gespeicherten Daten vorgenommen werden. Unternehmen, die eher eine klassische relationale Datenbank für OLTP benötigen, empfiehlt Google seine Cloud basierte Datenbank Google Cloud SQL, welche die volle SQL-Syntax unterstützt.

Google Prediction API

Die Google Prediction API ermöglicht den Zugriff auf Googles Algorithmen zur künstlichen Generierung von Wissen aus Erfahrung. Damit können Daten analysiert und Ergebnisse vorausgesagt werden. Anhand der Eingabe von numerischen Werten oder Text bietet die Prediction API Möglichkeiten für den Musterabgleich bzw. der musterbasierten Suche sowie dem maschinellen Lernen.

Die API kann genutzt werden, um bspw. die Gewohnheiten eines bestimmten Benutzers zu analysieren oder vorherzusagen, welche anderen Filme oder Produkte einem Benutzer vielleicht gefallen. Als weitere Use Cases nennt Google das Kategorisieren von E-Mails als Spam oder nicht Spam sowie die Analyse von positiven oder negativen Kommentaren zu einem Produkt oder anhand der bisherigen Ausgaben zu schätzen, wie viel ein Nutzer an einem bestimmten Tag ausgeben wird.

Google Translation API

Die Google Translation API ist ein Tool, mit dem Texte automatisiert von eine Sprache in eine andere übersetzt werden können. Dafür stehen der Quelltext, die Quellsprache sowie die Zielsprache, in welche der Text übersetzt werden soll. Im Prinzip handelt es sich genau um den Service, der sich hinter http://translate.google.de befindet. Mit der Translation API lassen sich eigene mehrsprachige Applikationen oder Webseiten programmatisch anbieten.

Die Google Platform Extended

Wenn man sich den Google Cloud Stack anschaut, sollte man sich ebenfalls das restliche Ökosystem anschauen. Dazu gehören Google Apps, Google Cloud SQL und Google F1.

Google Apps

Google Apps ist die webbasierte Software-as-a-Service Office & Collaboration Suite von Google. Sie umfasst in der kostenlosen Standard Edition und der Edition für Non-Profit Organisationen die Programme Mail, Kalender, Text & Tabellen, Sites, Talk und Kontakte. Die Premier- und Education Editionen verfügen zusätzlich noch über Video, Groups und APIs für Erweiterungen und die Integration in die eigene Infrastruktur sowie weitere Services von Partnern.

Mail

Google Mail verfügt je nach Edition über einen Speicherplatz von 7 GByte bis 25 GByte. Die Ablage der E-Mails erfolgt nicht klassisch in einer Ordnerstruktur, stattdessen können Labels definiert werden mit der jede E-Mail beliebig getaggt werden kann.

Auch die Art der Verwaltung einer E-Mail Kommunikation ist anders als bei herkömmlichen E-Mail Clients. Werden bei Thunderbird, Outlook etc. für jede E-Mail die hin und her geschickt wird eine separate "physische" E-Mail erstellt die dann im Posteingang und/oder Postausgang liegt, werden die E-Mails bei Google Mail in sogenannten Konversationen verwaltet. Dabei entsteht ein "Objekt" an das jede E-Mail die zu dieser Konversation (Betreff) gehört angehängt wird. Jede Benutzer der an dieser Konversation teilnimmt, erhält zur Unterscheidung eine andere Farbe.

Die Technologie des Spamfilter halte ich für einzigartig. Ich nutze Google Apps nun seit mehreren Jahren und hab in der Zeit nicht eine Spam E-Mail im Posteingang gefunden, dafür ist der Spamordner immer randvoll! Auch die Suche nach E-Mails oder Inhalten von E-Mails funktioniert sehr gut, da merkt man gut, welchen Kernbereich Google normalerweise abdeckt.

Der verschlüsselte Zugriff auf die Postfächer kann lokal von jedem Benutzer oder global über die Managementkonsole festgelegt werden. Seit kurzem ist allerdings nur noch der SSL-Zugriff möglich. Der mobile Zugriff auf Google Mail ist ebenfalls möglich. dazu sind Anwendungen für Android, iPhone, Blackberry und weitere Smartphones wie z.B. Nokia vorhanden. Migrationstools erlauben zusätzlich das Importieren von E-Mail Konten aus anderen Systemen wie Microsoft Exchange oder Lotus Notes.

Google Mail verfügt weiterhin über ein integriertes Messaging System, welches ich weiter unten für die Anwendung Talk beschreibe.

Kalender

Der Google Kalender ist vollständig mit Google Mail verknüpft. Nachdem ein Eintrag erstellt wurde, können Freunde/ Bekannte oder Mitarbeiter darüber direkt per E-Mail informiert bzw. eingeladen werden. Weiterhin können die eigenen Kalender lesend und/oder schreibend anderen Personen freigegeben werde, um ihnen den Zugriff darauf zu gewähren. Dadurch haben Kollegen z.B. die Möglichkeit die Termine eines anderen Kollegen in ihrem Kalender zu sehen und ggf. sogar zu bearbeiten.

Google Kalender ist ebenfalls mit Google Sites verknüpft, damit kann ein Kalender(eintrag) auf einer Webseite veröffentlicht werden. Kalender können darüber hinaus - z.B. für Veranstaltungen - grundsätzlich öffentlich verfügbar gemacht und in Googles Kalendergallerie aufgenommen werden.

Der mobile Zugriff ist ebenso wie bei Google Mail möglich. Zusätzlich können Kalenderbenachrichtigungen per SMS verschickt werden.

Text & Tabellen

Text & Tabellen ermöglicht das gemeinsame Bearbeiten (inkl. Versionierung) von Dateien in Echtzeit. Das beschränkt sich entweder nur auf die Benutzer in der eigenen Domain, aber auch externe Partner und Kunden können darauf den Zugriff erhalten und aktiv mitarbeiten.

Die erarbeiteten Dokumente, Tabellen und Präsentationen können anschließend z.B. auf den Webseiten von Google Sites oder im Intranet eingebettet werden. Päsentationen können über das Internet abgehalten werden, ohne dass sich die Zielgruppe am selben Ort befindet, die benötigt nur einen Browser mit aktiver Internetverbindung.

Text & Tabellen bietet bereits vorgefertigte Vorlagen für Formulare, z.B. für Umfragen oder Registrierungen die auf Webseiten verfügbar gemacht, per E-Mail verschickt oder in Dokumente eingebunden werden. Die eingegeben Daten werden dabei automatisch in einer verknüpften Tabelle gespeichert. Darüber hinaus existieren Vorlagen für Geschäftsdokumente, Visitenkarten, Briefköpfe, Zeiterfassungsformulare etc., die ebenfalls in vorhandene Dokumente integriert werden können.

Texte & Tabellen unterstützt und kann folgende Dateiformate importieren und exportieren: DOC, XLS, CSV, PPT, TXT, HTML, PDF.

Der mobile Zugriff mit Android, Blackberry oder iPhone ist ebenfalls möglich.

Sites

Mit Google Sites kann jede beliebige Art von Webseite erstellt werden, wie z.B. Seiten für das Intranet in einem Unternehmen, für Teams, Projekte, Abteilungen, Schulungen oder Wikis. Der Zugriff ist per se nur für Leute innerhalb der Domain erlaubt. Die Seiten können aber für externe Partner, Kunden ider Lieferanten zugänglich gemacht werden.

Innerhalb eine Google Sites Webseite können unterschiedliche Arten von Inhalten eingebettet werden. Dazu gehören Textdokumente, Tabellen, Präsentationen, Videos, Formulare oder Photos. Darüber hinaus ist die Google Suchfunktion vorab in jeder Site integriert, wodurch der gesamte Inhalt indiziert ist und schnell gefunden werden kann.

Talk

Google Talk ist in zwei Varianten verfügbar. Die erste ist die klassische Software, die auf dem PC installiert und von dort genutzt wird. Damit stehen auf dem PC Chat-, Sprach- und Videofunktionen zur Verfügung.

Die zweite Variante ist eine integrierte Instant Messaging Funktion innerhalb von Google Mail, mit der direkt eine Verbindung mit den Kontakten im eigenen Addressbuch oder per Mausklick auf den Absender einer E-Mail hergestellt werden kann. Vorausgesetzt, der Kontakt verfügt über ein Google-Talk Konto bzw. einen ICQ/AIM Account. Über ein zusätzliches Plugin kann das Instant Messaging um Voice- und Video-Chat Funktionen erweitert werden. Der Chat-Verlauf innerhalb von Google Mail kann dabei in einem Chat-Protokoll für jede einzelne Sitzung (pro Tag) aufgezeichnet werden. Das Protokoll wird nach dem Beenden der Sitzung wie eine E-Mail im Archiv abgelegt.

Ist man im Besitz eines Android Smartphones, kann die Chat-Funktion von Google Talk auch unterwegs genutzt werden.

Kontakte

Google Kontakte ist keine Anwendung im eigentlichen Sinne. Vielmehr hat man damit die Möglichkeit seine Kontakte in einem separaten "großen" Fenster zu verwalten. Normalerweise erreicht man die Kontakte in Google Mail über den Button "Kontakte" auf der linken Seite. Dabei werden die Kontakte dann in dem Bereich angezeigt, wo sonst die E-Mail Konversationen aufgelistet werden. Das kann auf Geräten, wie z.B. Netbooks ziemlich eng werden, wodurch das Auslagern in ein weiteres Fenster wesentlich komfortabler ist.

Google Cloud SQL

Mit Google Cloud SQL lassen sich relationale Datenbanken erstellen, konfigurieren und nutzen, die in Googles Cloud gehostet werden. Dabei handelt es sich um einen vollständig durch Google administrierten Service, der für eigene Anwendungen und Services eingesetzt werden kann.

Google Cloud SQL basiert auf der MySQL Datenbank. Damit lassen sich sämtliche Anwendungen, Daten und Services zwischen der on-Premise Welt und der Cloud hin- und herbewegen

Google F1

Google F1 ist ein relationales Datenbankmanagementsystem (RDBMS) von Google, das laut Google über umfangreiche Funktionen einer relationalen Datenbank verfügt. Dazu gehören ein festgelegtes Schema und eine parallel arbeitende SQL Query-Engine. Zudem setzt F1 auf Googles verteiltem Speichersystem auf, das sich über Google Rechenzentren erstreckt. Der Speicher wird dynamisch geteilt und unterstützt eine transaktional konsistente Replikation über mehrere Rechenzentren hinweg, wodurch Ausfälle bewältigt werden, ohne Daten zu verlieren.

Fazit

Die Amazon Web Services haben derzeit ein sehr vertikal ausgerichtetes Portfolio. Dabei konzentriert sich das Unternehmen auf den Ausbau seiner Infrastructure Services mit Mehrwert-Diensten wie bspw. Elastic Beanstalk. Beanstalk selbst ist kostenlos. Der Umsatz erfolgt mit der darunter liegenden Infrastruktur die der Kunde nutzt.

Google hingegen stellt sich breiter auf und hat in allen Cloud Bereichen, IaaS, PaaS und SaaS einen Fuß in der Tür. Der Anfang wurde mit der Google App Engine gemacht. Google ist nun einmal ein Entwickler-Unternehmen. Sie haben nie einen Hehl daraus gemacht, dass sie ihre Überkapazitäten herausgeben, damit Entwickler weltweit die Google Infrastruktur nutzen können, um Anwendungen zu entwickeln. Anschließend folgte mit Google Apps der SaaS Bereich. Dieser hat sich aus den Consumer-Produkten (Mail, Docs, usw.) abgeleitet und stellt quasi ein Best-off dieser einzelnen Services dar. Alles zusammen bildet eine Office Suite unter einer eigenen Domain. Der letzte Bereich den Google erobern will ist IaaS. Die Google Compute Engine ermöglicht das starten und betreiben eigener virtueller Maschinen auf Googles Infrastruktur. Andere Services wie Google Cloud SQL oder Google F1 gehören offiziell noch nicht in die Google Cloud Platform unter http://cloud.google.com. Allerdings ist zu erwarten, dass dies bald geschehen wird. Auch BigQuery war zunächst nur ein reines Developer Projekt, wurde nach der Beta Phase aber recht zügig zur Cloud Platform hinzugefügt.



Schatten-IT gewinnt weiter an Bedeutung: IT-Abteilungen verlieren immer mehr Einfluss

Das die Schatten-IT im Zusammenspiel mit dem Cloud Computing stark wachsen wird und in Zukunft immer mehr an Bedeutung gewinnt, haben Dietmar Wiedemann und ich bereits Mitte 2011 beschrieben (Erstveröffentlichung, 16.08.2011). Nun hat eine Studie der Wirtschaftsprüfer von PricewaterhouseCoopers (PwC) ergeben, dass mehr als 30 Prozent der IT-Ausgaben nicht aus dem offiziellen IT-Budget stammen und damit um die IT-Abteilungen herum eingekauft wird.

Die IT-Abteilung wird übergangen

Die jeweiligen Unternehmensbereiche umgehen mittlerweile die IT-Abteilungen, um ihre eigenen Entscheidungen zu treffen, welche Cloud-basierte Applikationen oder mobile Endgeräte sie einsetzen wollen. Der CIO und die IT-Mitarbeiter haben also immer weniger Kenntnisse darüber, was für IT-Lösungen tatsächlich im Unternehmen eingesetzt werden und verlieren die Kontrolle darüber.

Bis zu 30 Prozent der Ausgaben fließen an der IT-Abteilung vorbei

Basierend auf einer Umfrage "Raising Your Digital IQ", befragte PwC 500 US-amerikanische Unternehmen mit einem Jahresumsatz von etwa 500 Millionen US-Dollar. PwC schätzt, dass zwischen 15 Prozent bis zu 30 Prozent der IT-Ausgaben an der IT-Abteilung vorbei ausgegeben wird.

Dabei machen Cloud Services den größten Anteil an Ausgaben aus, die nicht über den gewöhnlichen Einkaufsprozess stattfinden. In den meisten Fällen fällt diese Form der Schatten-IT erst dann auf, wenn die Bereichsleiter mit den Cloud Services zu den IT-Abteilungen gehen und einfordern, dass die Unternehmensdaten zur Analyse mit den Daten aus der Cloud integriert werden.

Schatten-IT ist ein evolutionärer Schritt

Für mich kommt diese Entwicklung, wich ich bereits 2011 geschrieben habe, nicht überraschend. Die IT-Abteilungen gelten seit Jahren als die Spielverderber und Innovationsbremsen in den Unternehmen. Lange saßen sie am längeren Hebel, wenn es darum ging, dem Mitarbeiter oder den Projekten spezifischen Anwendungen oder Hardware zu besorgen. Das dauerte z.T. mehrere Wochen, gar Monate. Mit dem Einzug des Cloud Computing, BYOD und der Consumerization of IT (CoIT) wandelt sich das Bild. IT-Abteilungen werden nicht überflüssig, aber sie müssen langsam damit beginnen, von ihrem Thron herunterzukommen und mit den Mitarbeitern und Kollegen auf einer Ebene kommunizieren.

Schatten-IT schafft Probleme

CIOs sollten natürlich mit Bedenken der Schatten-IT entgegentreten. Nicht nur, dass sie dadurch die Kontrolle über ihre IT-Infrastruktur verlieren und die Heterogenisierung voranschreitet. Wie sollen sie damit umgehen, wenn ein Mitarbeiter selbstverständlich erwartet, dass sein Android oder iPhone integriert werden soll, das Unternehmen aber eine Blackberry Strategie verfolgt? Oder wenn das Smartphone plötzlich keine Verbindung mehr zum Provider aufbaut? Wer ist dann dafür verantwortlich? Eine weitere Herausforderung besteht zudem darin, wenn Daten unter dem Radar der IT-Abteilung in einem Cloud Service verschwinden.

Ich habe bereits das Thema voranschreitende Heterogenisierung angesprochen. IT-Abteilungen kämpfen grundsätzlich mit Insellösungen in ihrer IT-Umgebung. Es gibt nun einmal nicht die homogone IT-Infrastruktur, wo jedes Rad in das andere fasst bzw. jede Schnittstelle perfekt mit der anderen integriert ist. Durch die Schatten-IT werden sich die Insellösungen weiter vergrößern. Es werden immer mehr voneinander unabhängige Silos von Daten und Plattformen enstehend, jede mit einer eigenen proprietären Schnittstelle.

Schatten-IT treibt die Innovationskraft

IT-Abteilungen mögen die Schatten-IT als eine Anarchie der eigenen Kollegen verstehen. Damit könnten sie auf der einen Seite sogar recht haben. Ich würde es allerdings eher als einen Hilfeschrei der Kollegen verstehen, die einfach nicht mehr auf die IT-Abteilung warten wollen bzw. können. Schließlich nimmt der Druck in den Fachabteilungen ständig zu, dem Markt Innovationen und neue Lösungen zu präsentieren.

Schatten-IT fördert meiner Meinung nach die Innovationskraft im Unternehmen. Und das nicht nur auf Grund von Cloud Services. Die Fachabteilungen tun gut daran, die Zügel in die Hand zu nehmen und den IT-Abteilungen zu zeigen, was sie benötigen. IT-Abteilungen werden versuchen den unerlaubten Zugriff auf Cloud-basierte Lösungen zu unterbinden. Das wird die Produktivität der Fachabteilungen jedoch wieder vermindern. Besser wäre es, wenn die IT-Abteilungen, für das Wohl des Unternehmens, sich frühzeitig mit neuen Technologien und Trends auseinanderzusetzen, diese evaluieren und den Kollegen präventiv anbieten, anstatt nur auf die Entscheidungen der Fachabteilungen zu reagieren.

Lösung: Kommunikation

Wie kann der Schatten-IT vorgebeugt oder gegen eine bestehende entgegengewirkt werden? Zwei Wörter: Miteinander reden! (Zwischenmenschliche Kommunikation!)

Weitere Artikel zum Thema Schatten-IT


Bildquelle: http://www.hotpixel.ch



Der Weg in die Cloud ist schwerer als man denkt!

Sollen Anwendungen in die Cloud verlagert werden, heißt es, diese auch für die Cloud zu entwickeln und sich nicht starr an die bekannten Pattern zu halten. Denn die Cloud verzeiht keine Ineffizienz. Möchte man den Vorteil der Cloud wie Infrastructure-as-a-Service (IaaS) oder Platform-as-a-Service (PaaS) für sich nutzen, bedeutet dies mehr Arbeit, als die meisten IT-Abteilungen vermutlich glauben.

Unternehmens-IT ist sehr komplex

Trotz der großen Euphorie um die Cloud, sollte man nicht vergessen wie komplex die Unternehmens-IT im Laufe der Zeit geworden ist. Dabei ist die Komplexität jedoch nicht das Ergebnis der IT oder der Technologien selbst. Es ist die Summe aller Einflüsse aus dem Unternehmen und was von der IT erwartet wird. Alle Technologien müssen aufeinander optimal abgestimmt werden, die internen Prozesse unterstützen und zugleich noch schnellstmöglich und mit minimalem Budget realisiert werden.

In der Regel bedeutet dies, kommerzielle Softwarelösungen einzukaufen. Diese an die Bedürfnisse des Unternehmens anzupassen und anschließend so zu integrieren, dass manuell so wenig wie möglich angepasst werden muss und gleichzeitig das Maximum an Informationen aus dem Unternehmen gezogen werden kann. Mehrere proprietäre Softwarelösungen plus deren Integration führen zu einer komplexen IT-Umgebung. So kann eine IT-Infrastruktur schnell aus z.T. mehreren hunderten von Anwendungen bestehen. Diese wurden unabhängig voneinander und mit unterschiedlichen Design-Standards entwickelt und tragen die Handschrift verschiedener Architekten.

Die Migration in die Cloud ist eine Herausforderung

Die bestehenden Anwendungen in die Cloud zu migrieren ist eine nicht zu unterschätzende Aufgabe. Im Gegenteil, es ist sehr wahrscheinlich, dass die meisten on-Premise Applikationen aus dem Portfolio trotz eines neuen Entwurfs nicht ihren Weg in die Cloud finden. Die IT-Abteilungen werden es nicht schaffen, die bestehenden proprietären Lösungen "einfach so" in die Cloud zu verschieben, das funktioniert nicht. Jede einzelne Lösung für sich ist ein Individuum und hat spezielle Konfigurationen und Eigenschaften, die eine Cloud so nicht unterstützen kann.

Fassen wir mal ein paar Punkte zusammen:

  • Anpassung vornehmen, damit die Anforderungen erfüllt werden. - Nicht einfach!
  • Integration mit weiterhin bestehenden lokalen Anwendungen (hybrid). - Nicht einfach!
  • Dokumentation der Konfigurationen für eine erneute Migration. - Nicht einfach!
  • Sicherstellen der korrekten Lizenzierung. - Nicht einfach!
  • . . . - Nicht einfach!

Soll ein selbst entwickeltes System in die Cloud verlagert werden, wird es nicht einfacher. Es ist vergleichbar mit dem re-Design einer COBOL Batch-Anwendung für Mainframes in eine objektorientierte Variante. Denn so wie man von der COBOL Applikation in die objektorientierte Applikation die Objekte im Hinterkopf behalten musste, so muss man heute die Eigenschaften und Möglichkeiten der Cloud berücksichtigen.

Ist eine Anwendung erfolgreich in die Cloud migriert worden, bedeutet das jedoch nicht, dass es mit der Zweiten einfacher wird. Im Gegenteil, es kann sogar schwieriger werden. Denn jede Anwendung hat ihre individuellen Eigenschaften und basiert i.d.R. auf anderen technischen Standards und einem eigenen Design.

Zeit und Geduld

Verfolgt man das Ziel, das gesamte Portfolio in die Cloud zu verlagern, muss man sich auf einen langen und hügeligen Weg vorbereiten. Das saubere re-Design einer Anwendung oder gar der gesamten IT-Umgebung für die Cloud benötigt Zeit und vor allem Geduld. Denn wenn es so einfach wäre, gebe es schon mehrere Referenzprojekte.


Bildquelle: http://ccis.ucsd.edu



Tipps für die Wahl einer Cloud Computing Beratung

Jeder Berater ist auf seinem Gebiet "der führende" Cloud Computing Dienstleister. Das macht es für Einkäufer und Entscheidungsträger in Unternehmen nicht leichter, den richtigen Partner zu finden, mit dem sie ihren Weg in die Cloud bestreiten. Zudem fehlt z.T. die Transparenz, was die Berater tatsächlich können. Dieses und weitere Themen nehme ich aus Gesprächen immer wieder mit. Dabei ist die Wahl des Dienstleister entscheidend für den Erfolg oder Misserfolgt eines Wechsels in die Cloud. Nachdem man sich für eine Software (SaaS) bzw. eine Plattform (PaaS) oder Infrastruktur (IaaS) entschieden hat, heißt es die richtige IT-Beratung zu finden - Das ist Mission Critical!

Der Berater ist Mission Critical

Angesichts der Unterschiede zwischen Public Cloud und on-Premise Umgebungen, ist es wichtig, den richtigen Partner mit der entsprechenden Erfahrung zu finden. Denn ein Berater mit klassischem Rechenzentrums-Know-How wird in der Cloud nicht viel weiterhelfen können.

Existiert nachgewiesene Erfahrung in der zu implementierenden Lösung

Der Berater sollte über umfangreiches Wissen zu dem Service verfügen, um den es geht. Hier muss der Dienstleister entsprechende Referenzen vorweisen können inkl. möglichen speziellen Themen und Bereichen die man selbst verfolgt.

Kennt der Berater das Marktsegment

Der Dienstleister sollte sich in dem Marktsegment auskennen, in dem man selbst tätig ist. Auch hier helfen wiederum Referenzen aus dem eigenen Segment und Kunden, die ähnlich aufgestellt sind wie man selbst. Ist man selbst bspw. nur ein kleines- oder mittelständisches Unternehmen, sollte man keinen Dienstleister wählen, der auf internationale Großkonzerne spezialisiert ist.

Bietet er ergänzende Lösungen

Einige Dienstleister haben neben Beratungs- und Implementationsleistungen sich ebenfalls auf die Entwicklung von Add-ons für eine bestimmte Lösung spezialisiert und bieten dafür einen gewissen Mehrwert. Diese Dienstleister verfügen in der Regel zudem über ein sehr gutes technisches Wissen zu dem Produkt und haben ebenfalls tiefes Wissen über den jeweiligen Markt.

Kann er weltweit implementieren

Cloud Computing ist ein globales Thema. Darüber hinaus können Cloud Umgebungen schnell weltweit wachsen. Wenn notwendig, hilft hier auf jedenfall ein Dienstleister mit internationaler Erfahrung. Falls ja, dann sollte der Dienstleister auf jedenfall weltweit und über das Internet Schulungen anbieten sowie über einen internationalen Support verfügen.

Cloud Integration

Die Bedeutung von Cloud zu Cloud Integration wird weiter an Bedeutung zunehmen. Hier sollte der Dienstleister neben Erfahrungen mit unterschiedlichen Anbietern ebenfalls bereits Multi-Vendor Installationen und Integrationen durchgeführt haben.

Die Akzeptanz entscheidet

Jedes Projekt steht und fällt am Ende mit der Akzeptanz der späteren Nutzer. Der Dienstleister sollte daher Lösungen iterativ entwickeln können, um die Anforderungen der Nutzer und der IT gleichermaßen erfüllen zu können.

Reputation und Vertrauen

Neben einer guten Reputation ist das Vertrauen in den Dienstleister entscheidend. Schließlich startet man mit einem Projekt in eine langfristige Geschäftsbeziehung, zu der ebenfalls der Cloud Anbieter selbst gehört. Vertrauen schafft Vertrauen und sorgt zudem für eine dauerhafte Beziehung.

Externe Artikel zu Cloud Computing Anbieter

Ich habe im Laufe der letzten Jahre ein paar Artikel für IT-Magazine geschrieben, in denen ich die Portfolios einzelner Anbieter betrachtet habe, die ebenfalls Professional Services im Angebot haben.


Bildquelle: http://createyournextcustomer.techweb.com



Trends und Fakten rund um den Cloud Computing Markt

Auch wenn die Meinungen und Reaktionen rund um die Cloud immer sehr "vielfältig" ausfallen, ist die generelle Meinung, dass Cloud Computing rasant wächst und weiter stark wachsen wird. Während die Marktforscher von Market Research Media dem Cloud Markt bis 2020 ein Wachstum von 270 Milliarden US-Dollar voraussagen, ist Forrester ein wenig vorsichtiger und vermutet bis 2014 ein Wachstum von ca. 55 Milliarden US-Dollar.

Aktuelle Fakten und Trends im Cloud Computing Markt

Aber wie wird sich der Cloud Markt in Zukunft verhalten und welche Trends erwarten uns? In das Orakel zu schauen, was in der Zukunft passieren wird und wie sich das genau in Zahlen niederschlägt ist sehr schwierig. Umsonst müssen sich die Marktforscher nicht immer mal wieder nach unten korrigieren. Dennoch sind die Zahlen gute Richtwerte und anhand der aktuellen Marktentwicklung lassen sich gut neue Trends und Bedürfnisse erkennen.

Software-as-a-Service (SaaS)

Der SaaS-Markt bietet auf Grund seiner Vielfalt und Möglichkeiten das größte Marktsegment in der Cloud und wird damit auch der größte Bereich im Cloud Computing Markt bleiben. Gartner hat hier verschiedene Kategorien von SaaS Applikationen differenziert. Dazu gehören aktuell CRM, ERP, Web Conferencing, Kollaborationsplattformen und Social Software Suites.

Infrastructure-as-a-Service (IaaS)

IaaS wird in den kommenden Jahren ein stetiges Wachstum behalten. Allerdings sieht Forrester in Dynamic Infrastructure Services auf lange Sicht mehr Potential als in IaaS. Dennoch sollte man nicht vernachlässigen, dass IaaS die Lösung für die Herausforderungen von Big Data ist.

Platform-as-a-Service (PaaS)

Nach einer Gartner Studie hat PaaS das schnellste Wachstum von allen Services in der Cloud. Die Wachstumsraten in den jeweiligen PaaS Teilsegmenten gliedern sich dabei wie folgt auf: Anwendungsentwicklung (22%), Datenbankmanagementsysteme (48.5%), Business Intelligence Plattformen (38.9%) und Anwendungsinfrastruktur und Middleware (26.5%).

Business Process Management

Der Cloud BPM (bpmPaaS) Markt soll von Jahr zu Jahr um ca. 25% wachsen. 40% der Unternehmen die bereits BPM einsetzen, nutzen BPM aus der Cloud. Gartner hat mehr als 30 bpmPaaS Anwendungen und Plattformen identifiziert und hat diese als Model-Driven BPM-Plattform in der Cloud kategorisiert, mit denen Prozess-orientierte Anwendungen der nächsten Generation entwickelt werden sollen, die für Differenzierung und Innovation sorgen werden.

Big Data

Big Data wird, laut Gartner, den Unternehmen in den nächsten 2 bis 5 Jahren entscheidende Vorteile bringen. Bis 2015 soll Big Data den Unternehmen dabei helfen einen strategischen Vorteil gegenüber des Mitbewerbs zu erhalten. Gartner definiert Big Data dabei als Methode um große Datenmengen, zusätzlich zur Batch-Verarbeitung, fließend zu verarbeiten. Integraler Bestandteil von Big Data ist ein erweiterbares Framework, dass Daten direkt verarbeitet oder diese an einen Prozess-Workflow weiterleitet. Gartner unterscheidet Big Data dabei zusätzlich in strukturierte und unstrukturierte Daten.

Cloud Business Marketplaces

Cloud Marketplaces gehören zu der logischen Entwicklung des Cloud Computing, um Unternehmen und Entwicklern den einfachen Zugriff auf IT-Ressourcen zu ermöglichen. Neben einer gut dokumentierten API gehören ebenfalls übersichtliche und umfangreiche Web-Oberflächen zu einem guten Cloud Angebot, die es dem Nutzer ermöglichen sich "auch mal eben" eine Cloud Infrastruktur "zusammenzuklicken", um z.B. ein paar Tests durchzuführen. Bereits viele Anbieter sind auf diesen Zug aufgesprungen und ermöglichen über einen eigenen Cloud Marktplatz den Zugriff auf ihre IaaS-Ressourcen. Zudem reichern sie ihre Infrastruktur-Angebote über den Marktplatz mit Betriebssystem-Images oder weiteren Software-Lösungen an, um den virtuellen Ressourcen damit einen echten Nutzen zu geben.

Cloud Brokerage Services

Das Cloud Services Brokerage Modell bietet ein architektonisches-, business-, und IT-Betriebs-Modell, mit dem verschiedene Cloud Services bereitgestellt, verwaltet und adaptiert werden können. Und das sich innerhalb eines föderierten und konsistenten Bereitstellung-, Abrechnung-, Sicherheit-, Administration- und Support-Framework befindet.

Unternehmen werden damit in die Lage versetzt, ihr Cloud-Services Management zu vereinheitlichen, um damit den Innovationsgrad zu erhöhen, die globale Zusammenarbeit zu verbessern, die Betriebskosten zu senken und insgesamt besser zu wachsen. Cloud Computing Anbieter erhalten damit die Möglichkeit die Bereitstellung ihrer Cloud Services zu vereinheitlichen und ihr eigenes Services Netzwerk zu differenzieren und damit eine umfangreiche Cloud Computing Plattform bereitzustellen. Technologie-Anbieter können damit ein Ökosystem von Mehrwertdiensten aufbauen, um ihre wichtigsten Angebote zu differenzieren, die Kundenbindung erhöhen und neue Vertriebswege erschließen.

Ein Cloud Service Broker ist ein Drittanbieter, der im Auftrag seiner Kunden Cloud Services mit Mehrwerten anreichert und dafür sorgt, dass der Service die spezifischen Erwartungen eines Unternehmens erfüllt. Darüber hinaus hilft er bei der Integration und Aggregation der Services, um ihre Sicherheit zu erhöhen oder den originalen Service mit bestimmten Eigenschaften zu erweitern.

Master Data Management (MDM)

Master Data Management (MDM) Lösungen aus der Cloud und hybride IT Konzepte sind das erste Mal im Hype Cycle vertreten. Gartner erwartet, dass MDM Lösungen aus der Cloud ein steigendes Interesse in Unternehmen erhält, da das allgemeine Interesse an MDM stetig steigt. Als führende Anbieter in diesem Bereich sieht Gartner Cognizant, Data Scout, IBM, Informatica, Oracle und Orchestra Networks.

Private Cloud

Die Private Cloud gehört zu den beliebtesten Cloud Deployment Modellen. Laut einer Gartner Umfrage planen 75% der Befragten bis 2014 eine Strategie in diesem Bereich. Bereits viele unterschiedliche Unternehmen haben Private Cloud Lösungen in Pilot-Projekten und im produktiven Betrieb im Einsatz. Dabei ist das Hauptziel, für sich den größten Nutzen aus der Virtualisierung zu ziehen.

Fazit

Unabhängig von den oben getroffenen Annahmen werden alle Segmente des Cloud Computing Markt durch den Zustand unserer Wirtschaft und die weltweite Nachfrage nach IT-Dienstleistungen beeinflusst werden. Cloud Computing ist ein attraktiver Wachstumsmarkt besonders für kleine- und mittelständische Unternehmen, aber bietet ebenfalls ein erhebliches Potenzial für Unternehmen jeder Größe.


Bildquelle: http://www.moeller-horcher.de