Tag: On-Premise


Die Anbieter für Managed Public Cloud Services im Härtetest

Geht es um die Planung, den Aufbau und den Betrieb von Public Cloud-Infrastrukturen sind deutsche Unternehmen aktuell im großen Stil auf der Suche nach Unterstützung. Nur die wenigsten werden auf die eigenen Kompetenzen vertrauen, sondern vielmehr auf Expertenwissen und praktische Erfahrungen externer Dienstleister setzen. An dieser Stelle kommen die Managed Public Cloud Provider (MPCP) ins Spiel, die sich auf den Betrieb und das Management von Public Cloud-Infrastrukturen ihrer Kunden spezialisiert haben. Crisp Research hat alle Anbieter für Managed Public Cloud Services in Deutschland im Rahmen einer umfangreichen Analyse und Bewertung des Marktes untersucht. Das Crisp Vendor Universe liefert mit einer transparenten Methodik eine Entscheidungshilfe für CxOs bei der Dienstleister-Auswahl im Rahmen ihrer Public Cloud-Strategie.

Continue reading “Die Anbieter für Managed Public Cloud Services im Härtetest” »



Hybride Hadoop Strategien – Big Data macht den Spagat

Das Thema Big Data hat in den letzten Jahren viele Entscheider massiv getrieben. Cloudera, Hortonworks, MapR & Co. zogen in die Rechenzentren vieler deutscher Unternehmen ein und befüllen die Datalakes der Unternehmen. Parallel dazu werden immer mehr Cloud-Infrastrukturen genutzt, um neue Dienste zur erstellen und so entstehen auch in der Cloud zum Teil Datalakes. Die Frage ist, wie man effektiv und sinnvoll diese hybriden Welten verbinden kann und welche Einsatzszenarien einen Mehrwert und nicht nur mehr Aufwand bringen.

Continue reading “Hybride Hadoop Strategien – Big Data macht den Spagat” »




Der Weg in die Cloud ist schwerer als man denkt!

Sollen Anwendungen in die Cloud verlagert werden, heißt es, diese auch für die Cloud zu entwickeln und sich nicht starr an die bekannten Pattern zu halten. Denn die Cloud verzeiht keine Ineffizienz. Möchte man den Vorteil der Cloud wie Infrastructure-as-a-Service (IaaS) oder Platform-as-a-Service (PaaS) für sich nutzen, bedeutet dies mehr Arbeit, als die meisten IT-Abteilungen vermutlich glauben.

Unternehmens-IT ist sehr komplex

Trotz der großen Euphorie um die Cloud, sollte man nicht vergessen wie komplex die Unternehmens-IT im Laufe der Zeit geworden ist. Dabei ist die Komplexität jedoch nicht das Ergebnis der IT oder der Technologien selbst. Es ist die Summe aller Einflüsse aus dem Unternehmen und was von der IT erwartet wird. Alle Technologien müssen aufeinander optimal abgestimmt werden, die internen Prozesse unterstützen und zugleich noch schnellstmöglich und mit minimalem Budget realisiert werden.

In der Regel bedeutet dies, kommerzielle Softwarelösungen einzukaufen. Diese an die Bedürfnisse des Unternehmens anzupassen und anschließend so zu integrieren, dass manuell so wenig wie möglich angepasst werden muss und gleichzeitig das Maximum an Informationen aus dem Unternehmen gezogen werden kann. Mehrere proprietäre Softwarelösungen plus deren Integration führen zu einer komplexen IT-Umgebung. So kann eine IT-Infrastruktur schnell aus z.T. mehreren hunderten von Anwendungen bestehen. Diese wurden unabhängig voneinander und mit unterschiedlichen Design-Standards entwickelt und tragen die Handschrift verschiedener Architekten.

Die Migration in die Cloud ist eine Herausforderung

Die bestehenden Anwendungen in die Cloud zu migrieren ist eine nicht zu unterschätzende Aufgabe. Im Gegenteil, es ist sehr wahrscheinlich, dass die meisten on-Premise Applikationen aus dem Portfolio trotz eines neuen Entwurfs nicht ihren Weg in die Cloud finden. Die IT-Abteilungen werden es nicht schaffen, die bestehenden proprietären Lösungen "einfach so" in die Cloud zu verschieben, das funktioniert nicht. Jede einzelne Lösung für sich ist ein Individuum und hat spezielle Konfigurationen und Eigenschaften, die eine Cloud so nicht unterstützen kann.

Fassen wir mal ein paar Punkte zusammen:

  • Anpassung vornehmen, damit die Anforderungen erfüllt werden. - Nicht einfach!
  • Integration mit weiterhin bestehenden lokalen Anwendungen (hybrid). - Nicht einfach!
  • Dokumentation der Konfigurationen für eine erneute Migration. - Nicht einfach!
  • Sicherstellen der korrekten Lizenzierung. - Nicht einfach!
  • . . . - Nicht einfach!

Soll ein selbst entwickeltes System in die Cloud verlagert werden, wird es nicht einfacher. Es ist vergleichbar mit dem re-Design einer COBOL Batch-Anwendung für Mainframes in eine objektorientierte Variante. Denn so wie man von der COBOL Applikation in die objektorientierte Applikation die Objekte im Hinterkopf behalten musste, so muss man heute die Eigenschaften und Möglichkeiten der Cloud berücksichtigen.

Ist eine Anwendung erfolgreich in die Cloud migriert worden, bedeutet das jedoch nicht, dass es mit der Zweiten einfacher wird. Im Gegenteil, es kann sogar schwieriger werden. Denn jede Anwendung hat ihre individuellen Eigenschaften und basiert i.d.R. auf anderen technischen Standards und einem eigenen Design.

Zeit und Geduld

Verfolgt man das Ziel, das gesamte Portfolio in die Cloud zu verlagern, muss man sich auf einen langen und hügeligen Weg vorbereiten. Das saubere re-Design einer Anwendung oder gar der gesamten IT-Umgebung für die Cloud benötigt Zeit und vor allem Geduld. Denn wenn es so einfach wäre, gebe es schon mehrere Referenzprojekte.


Bildquelle: http://ccis.ucsd.edu



Big Data: Red Hat veröffentlicht seinen Storage Server 2.0

Auf der Suche nach einem on-Premise Cloud Storage oder Probleme mit Big Data? Dann hat RedHat da etwas neues im Portfolio, den Red Hat Storage Server 2.0. Die Open-Source-Storage-Lösung hilft beim Management unstrukturierter Daten und setzt nach Angaben des Open Source Giganten neue Standards im Enterprise- und Cloud-Storage-Markt. So soll die Lösung die Innovationen aus der Open-Source-Community zusammen mit der Leistungsfähigkeit standardbasierter x86-Server kombinieren und ermöglicht vielfältige Storage-Lösungen in den Rechenzentren vor Ort, in der Cloud und in hybriden Umgebungen.

Biiiig Data

Dank Social Media, Dokumenten, E-Mails, Bildern, Video- und Audio-Daten explodieren branchenweit die Mengen an unstrukturierten Daten. Das Wachstum der Daten übertrifft bei Weitem das der strukturierten Daten. Bis zum Jahr 2020 sollen laut Cisco 50 Milliarden Geräte mit dem Internet verbunden sein. Diese Prognose wird von einer IDC Studie unterstützt, nach der das digitale Ungetüm um das 50-Fache anwachsen wird – wobei wir hier von 90 Prozent an unstrukturierten Daten sprechen, die 2011 bereits 1,8 Zetabyte umfassten. Mit diesen Hintergrundinformationen stehen Unternehmen vor erheblichen Herausforderungen, die Daten zu verarbeiten und zu speichern. Proprietäre, monolithische Hardwarelösungen sind nicht dafür ausgerüstet und bieten den Unternehmen keine dafür geeigneten kostengünstigen Möglichkeiten.

RedHat hat dafür was im Portfolio

Die Storage-Lösung von Red Hat greift auf die Innovationen aus der Open-Source-Community zurück, um dieses riesige Wachstum zu bewältigen. Der Red Hat Storage Server 2.0 ermöglicht dazu eine Zusammenführung von File Storage und Object Storage. Dazu können Unternehmen sehr große Datenmengen in einem einzigen Storage-Pool gemeinsam speichern. Die Kombination von File und Object Storage soll die Verwaltung unterschiedlichster Daten vereinfachen und Unternehmen eine höhere Speicher- und Informationsflexibilität bieten, um das rasante Wachstum unstrukturierter Daten zu bewältigen und schneller sowie kostengünstiger auf die Daten zugreifen zu können.

Anhand des Red Hat Enterprise Linux soll der Red Hat Storage Server für mehr Wahlfreiheit sorgen und Unternehmen helfen leistungsfähige, skalierbare und verfügbare Speicherlösungen aufzubauen. Der Red Hat Storage Server adressiert das eigene Rechenzentrum, Private oder Public Cloud sowie hybride Umgebungen und eignet sich für das Speichern großer Datenmengen in den Bereichen High Performance Computing, arbeitsplatznahe Archivierung und die Ablage von Medieninhalten.

Die Funktionen des Red Hat Storage Server 2.0

  • Kompatibel mit mehr als 50 Dual-Socket-x86-Servern unterschiedlicher Hardwarehersteller
  • Unterstützt verschiedene Dateizugriffsprotokolle wie Common Internet File System (CIFS), Network File System (NFS), HTTP und OpenStack
  • Hohe Sicherheit ohne Kompromisse bei der Zugänglichkeit und Verfügbarkeit der Daten, einschließlich Georeplikation. Damit lassen sich selbst anspruchsvollste Speicherlösungen aufbauen.

Big Data und Hadoop

Die Software unterstützt Big Data Infrastrukturen und ist mit Apache Hadoop kompatibel. Dazu lässt sich der Red Hat Storage Server entweder zusammen mit dem Hadoop Distributed File System (HDFS) oder alleine nutzen. Er soll für einen schnellen Datenzugriff sorgen und öffnet Hadoop-Implementierungen für datei- oder objektbasierte-Applikationen. Die Managementkonsole des Red Hat Storage Server basiert auf dem oVirt-Projekt – einer Open-Source-Infrastruktur- und Virtualisierungsmanagementplattform – und bietet Administratoren von einem Punkt aus einen vollständigen Überblick über die Storage-Cluster.


Bildquelle: http://www.hostingtecnews.com



Eucalyptus kündigt offizielles Trainings- und Partnerprogramm an.

Eucalyptus Cloud baut seine weltweiten Aktivitäten mit einem Traininings- und Partnerprogramm für Beratungsunternehmen weiter aus. Mit dem Eucalyptus Authorized Education Partner (EAEP) Programm werden Partner von Eucalyptus in die Lage versetzt mit dem Eucalyptus Certified Instructors (ECI), offizielle Schulungen rund um die Open Source IaaS Software anzubieten. Berater die mit dem Authorized Consulting Partner (EACP) ausgezeichnet sind, sollen zumindest auf dem Papier, über das notwendige Wissen verfügen, komplexe Eucalyptus Cloud Lösungen zu entwickeln und aufzubauen.

Das Eucalyptus Authorized Education Partner (EAEP) Programm

Eucalyptus Partner erhalten mit dem EAEP Programm neben dem Generieren zusätzlicher Einnahmen, weitere Vorteile. Dazu gehören bspw. der Zugang auf durch Eucalyptus autorisierte Software, Guidelines für den Aufbau von Schulungsräumen sowie Software für den internen Gebrauch. Zu den weiteren Vorteilen zählen:

  • Teilnahme an durch Eucalyptus gesponsorten "Train the Trainer" Events.
  • Die Möglichkeit bereits vor dem Release an Beta bzw. nicht öffentlichen Trainingsprogrammen teilzunehmen.
  • Einladungen zu technischen Zertifizierungen die sich noch in der Betaphase befinden.
  • Unterstützung durch Mitarbeiter der Eucalyptus Education Services.
  • Zugriff auf die Eucalyptus Education Cloud.
  • Berechtigung zur Nutzung des EAEP Logo.

Das Eucalyptus Authorized Consulting Partner (EACP) Programm

Mit dem EACP Programm sind Partner in der Lage, ihre Beratungsdienstleistungen auszubauen und sich damit vom Mitbewerb am Markt zu differenzieren, indem sie nach Außen das notwendige Wissen für den Aufbau von Eucalyptus on-Premise IaaS Lösungen ausstrahlen. Weitere Vorteile des Programms sind:

  • Zugriff auf Best Practise Lösungen und Methoden durch die Eucalyptus Professional Services.
  • Zugriff auf Eucalyptus Software für den eigenen Gebrauch und die Eucalyptus Partner Cloud (EPC).
  • Ermäßigungen auf Eucalyptus Trainings und Zertifizierungen.
  • Marketingmöglickeiten auf der Eucalyptus Webseite sowie die Nutzung des offiziellen EACP Logo.

Der Eucalyptus Certified Professional

Bereits im April hatte Eucalyptus eine neue technische Zertifizierung zum Eucalyptus Certified Professional (EUCP3) präsentiert, mit dem Kandidaten ihre Kenntnisse hinsichtlich Design, Installation, Konfiguration und Management einer Eucalyptus 3 Umgebung unter Beweis stellen müssen. Als Teil der EAEP und EACP Programme werden Unternehmen zudem diese EUCP3 Zertifizierung erhalten, die ab Juli 2012 verfügbar ist.

Weitere Informationen zum Eucalyptus Authorized Education Partner Program gibt es hier. Interessenten am Eucalyptus Authorized Education Partner Program können sich hier informieren.


Bildquelle: http://dpac.ch



Eucalyptus 3.1 wird Open Source(iger) wie keine andere Version zuvor

Eucalyptus Systems hat gestern eine neue Version seiner Open Source Cloud Infrastruktur Software angekündigt. Eucalyptus 3.1 richtet sich auf Basis derselben Plattform an die Open Source Community als auch an Unternehmen, um damit Cloud Infrastrukturen und Cloud Entwicklungsumgebungen aufzubauen, zu betreiben sowie zu verwalten. Die neue Version präsentiert neben einer besseren Performance ebenfalls viele weitere Funktionen wie FastStart, mit der Nutzer AWS-komaptible (Amazon Web Service) on-Premise Cloud Infrastrukturen unter 20 Minuten aufbauen können.

Mehr als nur AWS Unterstützung

Wer nun glauben mag, dass Eucalyptus sich komplett auf der Kooperation mit den Amazon Web Services stützt und ausruht, der irrt. Eucalyptus 3.1 wird sich verstärkt auf die Entwicklung der Community konzentrieren und diese unterstützen. Dazu wird u.a. der vollständige Eucalyptus 3.x Quellcode auf Github zur Verfügung gestellt. Darüber hinaus wird die Bereitstellung von Unternehmensplattformen auf Basis von Red Hat Enterprise Linux und Red Hat Enterprise Virtualization sowie VMware vCenter 5 unterstützt. Hinzu kommen Möglichkeiten für das Management von Community Projekten, mit denen Fehler, Korrekturen und Wünsche verwaltet werden können.

Eucalyptus 3.1 im Überlick

Mit der neuen Version möchte Eucalyptus es Unternehmen ermöglichen, on-Premise Cloud Infrastrukturen auf eine einfache Art und Weise aufzubauen und gleichzeitig die Innovationsfähigkeit der Cloud zu erhöhen, indem die Open Source Cloud Community alle Mittel erhält, um dazu beizutragen, die Eucalyptus Cloud ihren Bedürfnissen nach anzupassen. Zu den neuen Funktionen in Eucalyptus 3.1 gehören:

On-Premise Cloud Plattformen

Unternehmen erhalten mit Eucalyptus 3.1 nun die Möglichkeit, eigene on-Premise Cloud Umgebungen auf der neuesten Version von Red Hat Enterprise Linux inkl. EC2, EBS, S3 und IAM zusammen mit den Red Hat Enterprise und VMware Virtualisierungsplattformen aufzubauen.

FastStart: Ruck Zuck zur eigenen Private Cloud

FastStart bietet Nutzern einen Self-Service, mit dem sie eine Eucalyptus IaaS Cloud Umgebung automatisiert unter 20 Minuten aufbauen können. FastStart kann zusammen mit CentOS 5 und Xen oder CentOS 6 und KVM genutzt werden. Mit durch FastStart bereitgestellte Clouds können sich Nutzer die auf Eucalyptus gespeicherten Images aussuchen und mit einem Klick auf der Infrastruktur ausrollen. Für fortgeschrittene Nutzer bietet Eucalyptus Silvereye, eine Reihe von Tools, mit der sich komplexere Eucalyptus Umgebungen installieren und konfigurieren lassen.

Open Source Cloud Community

Der vollständige Eucalyptus 3.1 Quellcode steht nun öffentlich auf Github bereit. Zudem werden alle Erneuerungen ebenfalls auf Github bereitgestellt, dazu gehören ebenfalls das Tracking von Fehlern und neuen Funktionen. Damit sollen Mitglieder der Eucalyptus Community die Gelegenheit erhalten ihren Teil beitragen zu können.

Los geht's am 27. Juni

Am 27. Juni 2012 werden Kunden in den Genuss der neuen Funktionen kommen, die auf Eucalyptus 3 aufbauen werden. Dazu gehören weiterhin neue Funktionen für die Hochverfügbarkeit, Amazon Web Services API Erweiterungen, Rapid Instancing, Verbesserungen am Elastic Block Store (EBS), erweiterte Unterstützung für Windows-Images, eine neu gestaltet Verwaltungskonsole sowie verbesserte Kommandozeilentools.

So langsam zeichnet sich die Handschrift von Eucalyptus CEO Marten Mickos ab, der bereits als CEO von MySQL die relationale Datenbank zu einem der führenden Open Source Anbieter am Markt machte.


Bildquelle: http://www.srs.fs.usda.gov



AWS veröffentlicht VM Export Service für Amazon EC2

Mit dem AWS VM Import Service ermöglichen die Amazon Web Service den Import unterschiedlicher Virtual Machine Formate nach Amazon EC2, um damit virtualisierte On-Premise Ressourcen in die Amazon Cloud zu migrieren. Wie Jeff Barr auf dem Unternehmensblog berichtet, wurde der Service nun so erweitert, um virtuelle Maschinen von Amazon EC2 in die eigene On-Premise Umgebung zu exportieren.

AWS veröffentlicht VM Export Service für Amazon EC2

Diese Funktion steht mit der neuesten Version der EC2 command line (API) Tools bereit. Ein Export könnte bspw. so aussehen:

ec2-create-instance-export-task –e vmware -b NAME-OF-S3-BUCKET INSTANCE-ID

Hier wird die Instanz ID und der Name eines S3 Buckets benötigt, in dem die exportierte VM gespeichert wird.

Mit dem Befehl ec2-describe-export-tasks kann der Export Prozess überwacht und mit ec2-cancel-export-task gestoppt werden.

Ist der Exportvorgang abgeschlossen, muss das exportierte Image lediglich in die lokale On-Premise Umgebung heruntergeladen werden.

Der Service unterstützt derzeit den Export von Windows Server 2003 (R2) und Windows Server 2008 EC2 Instanzen in das VMware ESX kompatible VMDK Format sowie nach Microsoft Hyper-V VHD oder Citrix Xen VHD Images. Zudem plant AWS in Zukunft weitere Betriebssysteme, Image Formate und Virtualisierungstechnologien zu unterstützen.



Dell veröffentlicht OpenStack Cloud in Europa und Asien

Dell hat heute seine auf OpenStack basierende Cloud vorgestellt. Dabei handelt es sich um eine Open Source On-Premise Lösung, die für den Aufbau einer Private Cloud gedacht ist und exklusiv den europäischen und asiatischen Markt adressiert.

Dell veröffentlicht OpenStack Cloud in Europa und Asien

Dell hat dazu die OpenStack Referenz Architektur angepasst, um Kunden eine schnelle Migration in die Private Cloud zu ermöglichen. Dazu basiert die Referenz Architektur auf den Dell PowerEdge C Series Servern. Zudem arbeitet im Hintergrund ein Ubuntu Linux.

Die Cloud Lösung beinhaltet zusätzlich das Dell Crowbar Software Framework, dass das gesamte OpenStack Deployment, vom initialen Bootvorgang des Servers bis zur Konfiguration der OpenStack Komponenten unterstützt. Ist das erste Deployment fertiggestellt, kann Crowbar dazu genutzt werden, um die Private Cloud zu erweitern und zu warten. Dazu gehören ebenfalls die Konfiguration des BIOS, Status Monitoring, die Überwachung des Netzwerks und weitere Funktionen und Benachrichtigungen.

Bei Crowbar handelt es sich um ein Open Source Projekt unter der Apache 2.0 License.


Bildquelle: http://www.techweekeurope.es



Kostenvergleich: Cloud Computing vs. On-Premise und Managed Services

Neben dem flexibleren Ressourcenbezug hat Cloud Computing vor allem finanzielle Vorteile. Bei dem Aufbau und Betrieb einer eigenen IT-Infrastruktur entstehen hohe Vorlaufkosten (Investitionskapital), welche in die Infrastruktur etc. investiert werden müssen. Dabei handelt es sich um Kapital, das zunächst erst einmal verplant ist und für weitere Projekte nicht mehr zur Verfügung steht, mit denen das Unternehmen weiteren Umsatz generieren könnte. Zudem dauert es eine nicht zu unterschätzende Zeit, bis die neu angeschafften Ressourcen tatsächlich produktiv eingesetzt werden können. Der Kauf eines Serversystems ist dafür ein gutes Beispiel. Die Kosten dafür müssen vorab vollständig entrichtet werden. Der eigentliche Wertbeitrag des Systems macht sich allerdings erst in den nächsten Jahren bemerkbar, während es sich im Einsatz befindet. Dabei verursacht das System natürlich weitere Kosten bzgl. der Wartung, Strom etc.

Das Problem besteht also darin, dass ein System, bzw. das investierte Kapital in das System, nicht umgehend einen direkten Wertbeitrag für das Unternehmen leistet und sogar noch mehr Kapital benötigt, um betrieben zu werden. Unternehmen investieren sehr ungerne in Bereiche, deren eigentlichen Wertbeitrag sie aber erst über einen längeren Zeitraum erhalten. Das Ziel eines Unternehmens besteht darin, in Bereiche zu investieren, die umgehend einen sichtbaren Wertbeitrag für das Unternehmen erzielen.

Das Pay as you Go Modell des Cloud Computing ist für ein Unternehmen somit deutlich billiger, da in diesem Fall nur für die Ressourcen bezahlt wird, die auch tatsächlich genutzt werden und die umgehend einen Wertbeitrag für das Unternehmen leisten.

Die Nutzung der Infrastruktur eines Managed Service Providers oder Services eines Cloud Computing Anbieters führt dazu, dass Unternehmen ihre Investitionskosten und weitere Vorlaufkosten auf ein Minimum reduzieren können. Das Cloud Computing bietet zudem den Vorteil, die entstandenen Kosten mit den Ressourcen zu verknüpfen, die tatsächlich genutzt wurden und somit über eine exakte und detaillierte Abrechnung zu verfügen. Des Weiteren kann damit das Kapital zielgerichtet investiert werden. Es lohnt sich somit ein Blick auf die Kosten, die bei den unterschiedlichen Arten der IT-Nutzung entstehen.

[CHRISTMAN et. al.] haben einen Kostenvergleich zwischen einer Co-Location (Managed Services), einem eigenen Rechenzentrum (On-Premise) und einem Infrastructure-as-a-Service Angebot (Cloud Computing) vorgenommen.

Nicht ganz unerwartet zeigte das Cloud Computing Angebot hier einen deutlichen Kostenvorteil, da, ausschließlich die reinen Betriebskosten betrachtet, in diesem Fall nur Kosten für die genutzten Server sowie den Datenstransfer entstehen, wenn diese auch tatsächlich genutzt wurden. Das Managed Services Angebot landete dabei auf dem zweiten Platz. Das ist auf die einmaligen Investitionen wie die Serverhardware, Netzwerkkomponenten, Betriebssystemlizenzen und die Einrichtung sowie die laufenden Kosten wie die Investitionskosten, Instandhaltungskosten, Miete, Stromkosten, Remoteservices und dem Datentransfer zurückzuführen. Die On-Premise Lösung hingegen war erwartungsgemäß die teuerste und landete damit auf dem dritten Platz. Neben den bereits oben genannten einmaligen Investitionen bei den Managed Services erhöhten vor allem der Aufbau der Infrastruktur und die allgemeinen Baukosten den Gesamtpreis. Dazu kommen bei den laufenden Kosten noch die Bereiche der Administration (Personal) und die Miete für die Datenleitung.

Dennoch sind die Entscheidungsgrundlagen für ein Cloud Computing Angebot individueller Natur. Zunächst gilt es die eigenen Bedürfnisse zu identifizieren, um danach das für sich passende Angebot herauszufiltern und zu schauen, ob und wo Cloud Computing für das Unternehmen einen entscheidenen Vorteil bieten kann. Zudem müssen auch die genutzten virtuellen Instanzen konfiguriert und die Cloud an dieser Stelle mit Intelligenz ausgestattet werden. Hierfür ist daher auch das entsprechende Personal erforderlich, was ebenfalls Zeit und spezifisches Wissen benötigt, um die Infrastruktur den eigenen Bedürfnissen nach aufzubauen.

Quelle

[CHRISTMAN et. al.]
Constantin Christmann, Jürgen Falkner, Dietmar Kopperger, Annette Weisbecker; Schein oder Sein; Kosten und Nutzen von Cloud Computing; iX Special 2/2010 Cloud, Grid, Virtualisierung, S. 6



Cloud Computing vs. On-Premise und Managed Services

Arten, wie Unternehmen Informationstechnologie für sich einsetzen, gibt es im Grunde genommen nicht viele. Die eine besteht darin, alles selbst zu machen. Die andere darin, alles zu einem Drittanbieter auszulagern. Die dritte ist, eine hybride Lösung zu nutzen, also bestimmte Dinge selbst zu betreiben und gewisse Bereiche verarbeiten zu lassen.

Grundsätzlich unterscheiden wir also den Betrieb einer eigenen IT-Infrastruktur, auch als On-Premise bezeichnet, und den Ansatz des Outsourcingmodells. Für das Outsourcing wird auch oft der englische Begriff Managed Services verwendet.

On-Premise

Beim On-Premise, also dem Betrieb einer eigenen IT-Infrastruktur, verfügt ein Unternehmen über eine vollständig eigene intern zu verwaltende IT-Umgebung. Das gilt selbst dann, wenn das Unternehmen Server in einer Co-Location eines Rechenzentrums angemietet hat. In diesem Fall müssen also sämtliche Vorabinvestitionen in Hardware und Software sowie Kosten für Strom, Kühlung und Personal geleistet werden. Fällt einer oder mehrere Server aus, entstehen dadurch weitere Kosten sowie der Zwang, diese schnellstmöglich durch funktionsfähige Geräte zu ersetzen.

Managed Services

Bei den Managed Services, also der Auslagerung des Betriebs und der Verwaltung der IT-Aufgaben, wird ein externer Dienstleister mit der Wartung beauftragt. In diesem Fall befinden sich die Server im Eigentum des Dienstleisters. Dieser ist für den reibungslosen Betrieb der Infrastruktur zuständig und hat dafür zu sorgen, dass ein fehlerhafter Server umgehend oder je nach dem vereinbarten Service Level Agreement (SLA) auszutauschen.

Der Dienstleister verfügt somit über die Expertise, dem Unternehmen den einwandfreien Betrieb der Server zu garantieren. Des Weiteren ist er für die Wartung der Betriebssysteme verantwortlich, die auf den Servern installiert sind. Das beinhaltet die Versorgung mit Patches etc. und die Betreuung der gesamten Netzwerkinfrastruktur, in der die Server untergebracht sind. Das Unternehmen hat mit dem Dienstleister in der Regel einen langfristigen Vertrag und zahlt diesem für die erbrachten Leistungen eine monatliche oder jährliche Gebühr.

Der Vergleich

Zu diesen beiden IT-Nutzungsmodellen gesellt sich nun das Cloud Computing. In Diskussionen zum Thema Cloud Computing wird von Skeptikern in der Regel die Meinung vertreten, dass Cloud Computing keine nennenswerten Vorteile birgt und es sich dabei nur um alten Wein in neuen Schläuchen handelt.

IT-Manager stehen immer denselben Situationen gegenüber. Dabei entstehen Fragen hinsichtlich der korrekten Softwarelizensierung, in deren Falle viele Unternehmen tappen, da die Übersicht dabei schnell verloren gehen kann. Auch der Zeitpunkt und die Art und Vorgehensweise beim nächsten unternehmensweiten Softwareupdate darf an dieser Stelle nicht unterschätzt werden. Wie verhält es sich beim Ausfall einer Hardware in der Nacht? Zum einen muss dafür das benötigte Personal verfügbar und zum anderen die entsprechende Ersatzhardware vorhanden sein. Ähnlich verhält es sich bei der grundsätzlichen Verwaltung der bestehenden Serverlandschaft und der Entsorgung ausrangierter Althardware, die ordnungsgemäß beseitigt werden muss. Ein weiterer nicht zu unterschätzender Punkt ist die Erweiterung der IT-Infrastruktur. Von der Planung über die Entscheidung bis hin zur letztendlichen Bestellung, Lieferung, der endgültigen Installation und des Testlaufs können dabei mehrere Monate verstreichen. Aber auch steuerrechtliche Themen wie die Abschreibung der IT-Vermögenswerte sind Bereiche, die bei dem Betrieb einer IT-Infrastruktur mit bedacht werden müssen.

Ein Vergleich soll zeigen, dass dem nicht so ist. George Reese hat zu diesem Thema die oben genannten Nutzungsmodelle, On-Premise und Managed Services dem Cloud Computing gegenübergestellt und die Attribute “Investitionskapital”, “Betriebskosten”, “Bereitstellungszeit”, “Flexibilität”, “Anforderungen an das Mitarbeiter KnowHow” und “Zuverlässigkeit” miteinander verglichen. Hierbei hat er eine Gewichtung bzgl. der Wichtigkeit der jeweiligen Attribute auf die entsprechende IT-Nutzung vorgenommen.

Investitionskapital

  • On-Premise:            signifikant
  • Managed Services:   moderat
  • Cloud Computing:     unerheblich

An dieser Stelle gilt es die Frage zu stellen, wie viel Kapital zur Verfügung steht, um die eigene Infrastruktur aufzubauen bzw. Änderungen an dieser vorzunehmen. Bei dem Betrieb eines Eigenen Rechenzentrums muss bspw. in die dafür benötigte Hardware vorab gezielt investiert werden, selbst dann, wenn die Hardware zu dem Zeitpunkt noch nicht benötigt wird. Somit kommt dem Investitionskapital eine hohe Bedeutung zu. Im Falle der Managed Services entstehen Setup Gebühren für die Einrichtung des Systems, die jedoch als angemessen betrachtet werden können. Beim Cloud Computing entstehen keine Vorabinvestitionen und Verpflichtungen. Das Investitionskapital ist an dieser Stelle daher marginal.

Betriebskosten

  • On-Premise:            moderat
  • Managed Services:   signifikant
  • Cloud Computing:     nutzungsbasiert

Die laufenden Kosten für das eigene Rechenzentrum beziehen sich auf die Kosten für das Personal und/ oder Subunternehmer, die für die Verwaltung und den Betrieb der Infrastruktur zuständig sind. Dazu kommen die Kosten für die Gebäude sowie die Nebenkosten, die während des Betriebs entstehen. Erhebliche Abweichungen der laufenden Kosten entstehen speziell mit Subunternehmern, wenn Notfälle oder andere Probleme eintreten und Sonderzahlungen z.B. durch Mehrarbeit entstehen. Managed Services sind verhältnismäßig teuer, jedoch sind die monatlichen Kosten vertraglich fest geregelt, sodass die Aufwendungen, die aufgebracht werden müssen, planbar sind, da diese sehr selten variieren. Die laufenden Kosten beim Einsatz von Cloud Computing hängen von der Art, Länge und Häufigkeit der jeweiligen Nutzung ab. Jedoch besteht hier der entscheidene Vorteil darin, dass nur dann Kosten entstehen, wenn ein Service genutzt wird. Die Abrechnung erfolgt auf Basis der tatsächlichen Nutzung - nicht mehr und nicht weniger. Im Vergleich zu den Managed Services sind die Personalkosten höher, aber deutlich günstiger als bei dem Betrieb eines eigenen Rechenzentrums.

Bereitstellungszeit

  • On-Premise:            signifikant
  • Managed Services:   moderat
  • Cloud Computing:     keine

Die Bereitstellungszeit ist ein entscheidender Faktor, wenn es darum geht, wie lange es dauert, bis z.B. ein neuer Server der bestehenden Infrastruktur hinzugefügt wird. Im Falle eines eigenen Rechenzentrums oder der Managed Services erfolgt zunächst die Planung gefolgt von der sich anschließenden Bestellung und der damit verbunden Wartezeit, bis die neue Komponente endgültig in Betrieb genommen und zunächst getestet wird, bis sie dann am Ende in den Live-Betrieb gehen kann. Bei der Zusammenarbeit mit einem Managed Services Provider ist die Wartezeit geringer im Vergleich zum eigenen Rechenzentrum, vorausgesetzt der Provider hat die benötigten Komponenten vorrätig. Bei der Nutzung des Cloud Computing vergehen von der Entscheidung für einen neuen Server bis zu seiner vollständigen Bereitstellung hingegen nur wenige Minuten.

Flexibilität

  • On-Premise:            limitiert
  • Managed Services:   moderat
  • Cloud Computing:     flexibel

Infrastrukturen sind heutzutage z.T. extremen Anforderungen und unerwarteten Belastungen ausgesetzt. Aus diesem Grund gilt es darauf zu achten, inwieweit eine Infrastruktur etwaige unvorhergesehene Spitzenlasten beherrschen kann, indem sie bei Bedarf weitere Ressourcen bereitstellt. Ein Beispiel wäre eine beschränkte Speicherplatzgröße. Wie verhält sich die Infrastruktur, wenn das Limit des Speicherplatzes plötzlich erreicht ist. Rechenzentren, die selbst betrieben werden, haben von Natur aus eine sehr feste Kapazität und das Hinzufügen von weiteren Ressourcen kann bei Bedarf nur durch den Einsatz von mehr Kapital vorgenommen werden. Zudem ist der Zeitraum von der Notwendigkeit weiterer Ressourcen bis zur endgültigen Bereitstellung sehr lang. Ein Managed Service Provider kann hier temporär mit weiteren Ressourcen aushelfen, indem bspw. die Bandbreite erhöht oder der kurzfristige Zugriff auf alternative Speichermöglichkeiten gewährt wird. Bei der Verwendung des Cloud Computing hingegen kann die entsprechende Cloud Infrastruktur so eingerichtet werden, dass sie im Falle weiterer benötigter Kapazitäten diese automatisch hinzufügt und wieder entfernt, wenn sie nicht mehr benötigt werden.

Anforderungen an das Mitarbeiter Know How

  • On-Premise:            signifikant
  • Managed Services:   limitiert
  • Cloud Computing:     moderat

Bei diesem Attribut geht es um die Frage, wieviel Know How innerhalb des Unternehmens benötigt wird, um die IT-Umgebung zu betreiben. Beim dem Betrieb eines eigenen Rechenzentrums werden entsprechendes Personal oder Subunternehmer benötigt, die über die notwendigen Kenntnisse der Infrastruktur verfügen. Dazu gehört u.a. das Wissen über die Serverhardware und die Betriebssysteme sowie die Betreuung der Systeme, z.B. das Einspielen von Patches, um die Systeme auf dem aktuellen Stand zu halten. Den Vorteil haben an dieser Stelle die Managed Services Provider, da diese sich um die Wartung der Infrastruktur kümmern. Je nachdem wie die Nutzung von Cloud Computing erfolgt, sind entweder mehr oder weniger Kenntnisse erforderlich. Unterstützung bieten hier bspw. Cloud Infrastruktur Manager (Software), die dabei helfen, die verwendete Cloud Umgebung zu verwalten. Jedoch sind hier trotzdem Kenntnisse bzgl. der Einrichtung und der Konfiguration der virtuellen Maschinen Images notwendig.

Zuverlässigkeit

  • On-Premise:            variiert
  • Managed Services:   hoch
  • Cloud Computing:     moderat bis hoch

Die Zuverlässigkeit der Infrastruktur ist ein weiterer wichtiger Punkt, den es zu beachten gilt. Der Aufbau einer hochverfügbaren Infrastruktur im eigenen Rechenzentrum hängt von dem jeweiligen Personal und des verfügbaren Kapitals ab, das in die Infrastruktur investiert werden soll. Ein Managed Services Provider ist an dieser Stelle die bewährteste Alternative. Jedoch ist hier ein Standortvorteil, den eine Cloud auf Grund ihrer Rendundanz bietet, nicht vorhanden. Einer Cloud Infrastruktur fehlt hingegen (noch) die nachgewiesene Erfolgsbilanz der Stabilität.

Fazit

Der Vergleich zeigt, dass es für den Großteil der Unternehmen keinen Sinn mehr ergibt, eine eigene Infrastruktur von Grund auf neu aufzubauen. Lediglich Unternehmen, die bereits hohe Investitionen in das eigene Rechenzentrum vorgenommen haben oder diejenigen, die auf Grund von rechtlichen Hindernissen oder anderweitiger Regularien ihre Daten nicht bei einem Drittanbieter speichern dürfen, können zunächst davon absehen. Sie sollten sich für zukünftige Investionen aber zumindest Gedanken über den Ansatz eines Hybrid Cloud Modells machen.

Alle anderen Unternehmen sollten schließlich auf einen Managed Service Provider oder einen Cloud Computing Anbieter zurückgreifen. Speziell das Pay as you Go Modell und der flexible Ressourcenbezug des Cloud Computing führt bei jedem Unternehmen zu einer höheren Flexibilität und somit einer besseren Agilität und erhöht die Innovationsfreudigkeit bei den Mitarbeitern.