Tag: Cloud


Transformation: Die Rolle der IT und des CIO verändert sich! #tsy13

Am 6. November findet das diesjährige T-Systems Symposium in Düsseldorf statt. Nachdem im vergangenen Jahr unter dem Motto "Zero Distance - perfektes Zusammenspiel" durch innovative Geschäftsmodelle und moderne ICT eine neue Art von Nähe zum Kunden im Mittelpunkt stand, sollen in diesem Jahr die Konsequenzen der Zero Distance diskutiert werden. Ich werde dieses Jahr auf dem Symposium sein und die Themen Cloud, Mobile und Collaboration vor Ort kommentieren und analysieren. Dazu werden in dieser Woche entsprechende Artikel hier auf CloudUser erscheinen.

Es geht um den Kunden

Nie war die Beziehung zum Kunden und Endnutzer so wichtig wie heute. Gleichermaßen ist aber auch der technologische Zugang zu diesen Gruppen noch nie so einfach gewesen wie heute. Das hat auch die Businessseite erkannt und erhöht stetig die Anforderungen an die IT. Eine hohe Verfügbarkeit wie eine ebenso maximale Geschwindigkeit unter den bestmöglichen Sicherheitsanforderungen sind die Ansprüche an denen sich CIOs heute messen lassen müssen. Gleichzeitig müssen heutige Lösungen so einfach und intuitiv zu bedienen sein, um gegen den immer stärker werdenden Wettbewerb um den Kunden vorbereitet zu sein.

Disruptive IT: Die Rolle der IT wird sich verändern müssen

Cloud Computing, Big Data, Mobility und Collaboration sind derzeit die disruptiven Technologien, die in vielen Bereichen einen gewaltigen Wandeln auslösen und die IT-Abteilungen und CIOs vor große Herausforderungen stellen. Diese lassen sich aber auch für die eigenen Zwecke einsetzen und damit neue Chancen entstehen lassen.

Ich habe erst vor kurzem mit einem Analysten Kollegen über die Rolle des CIOs gesprochen. Seine zunächst amüsante doch ernst gemeinte Schlussfolgerung lautete CIO = Career Is Over. Diese Meinung vertrete ich nicht. Dennoch ist die Rolle der IT und ebenfalls die des CIOs einem Wandel ausgesetzt. Der CIO muss als Innovationstreiber anstatt eines Instandhalters verstanden werden und viel stärker in die Diskussionen mit den Fachabteilungen (Marketing, Vertrieb, Produktion, Finanzen, Personal) einbezogen werden bzw. den Dialog suchen. Er muss verstehen, welche Anforderungen erwartet werden, um die notwendigen Anwendungen und Infrastrukturen schnell, skalierbar und so einfach zu bedienen wie Apps und Tools aus dem Consumer-Bereich bereitzustellen. Das bedeutet, dass die interne IT einem Transformationsprozess ausgesetzt werden muss, ohne dabei die Sicherheit und Kosten zu vernachlässigen. Dieser Wandel entscheidet über die Zukunft eines jeden CIOs und ob er weiterhin als Dr. No oder Business Enabler angesehen wird, der als strategisch wichtiger Partner des CEO und der Fachbereiche zum Treiber des Business wird.



Die Bedeutung der Managed Cloud für Unternehmen

Cloud Computing wächst kontinuierlich. Dabei wird der Public Cloud das für die Zukunft größte Wachstum vorhergesagt. Je nachdem auf wen man hört, liegt dieses bis zum Jahr 2017 zwischen 107 Milliarden Dollar (IDC) und 244 Milliarden Dollar (Gartner). An dieser Stelle darf man sich als Leser gerne die Frage stellen, woher diese nicht unbedeutende Differenz stammt. Unterhält man sich jedoch mit IT-Entscheidern, entspricht die Public Cloud, die in erster Linie auf standardisierte Workloads und Self-Service ausgelegt ist, nicht den Anforderungen der meisten Unternehmen. Cloud Computing ist definitiv attraktiv, aber die Form ist entscheidend.

Die Komplexität darf nicht unterschätzt werden

Die größten Erfolgsmeldungen aus der Public Cloud stammen bisher von Startups oder Unternehmen, die Ideen und Geschäftsmodelle darin realisiert haben. Zwar wird auch immer wieder von Migrationen von SaaS Anwendungen mit bis zu 90.000 Nutzern berichtet. Und diese Meldungen scheinen die Erfüllungen der Anforderungen gut wieder zu spiegeln. Die Wahrheit in den meisten Unternehmen sieht aber anders aus. Selbst die Migration eines E-Mail Systems, einer der vermeintlich höchststandardisierten Anwendungen, wird dabei zum Abenteuer. Das liegt daran, dass viele Unternehmen kein Standard E-Mail System nutzen und stattdessen weitere proprietäre Add-ons oder selbstentwickelte Erweiterungen angebunden haben, die so nicht in der Cloud existieren.

Hinzu kommen weitere Applikationen, die einfach zur IT-Enterprise Architektur dazu gehören und höchst individuelle Ansprüche erfüllen. Ich habe kürzlich mit dem Strategie-Manager eines deutschen DAX Unternehmens gesprochen das weltweit tätig ist und aktuell eine Cloud Strategie evaluiert. Das Unternehmen verfügt Global über etwa 10.000(!) Applikationen (Desktop, Server, Produktionssysteme usw.). Dieses Beispiel ist sehr extrem und spiegelt nicht die durchschnittlichen Herausforderungen eines Unternehmens dar. Es zeigt aber die Dimension, in der man sich bewegen kann und die sich ebenfalls auf deutlich kleinere Applikations-Infrastrukturen herunterbrechen lassen.

Managed Cloud Services gehört die Zukunft im Unternehmensumfeld

Man möge nun argumentieren, dass die IT-Architekturen der meisten Unternehmen eh viel zu komplex sind und eine Standardisierung jedem gut tun würde. So einfach ist die Realität aber leider nicht. Auch wenn bereits einige Standard Unternehmensapplikationen für Public Clouds zertifiziert sind. Schaut man sich die erfolgreichsten Workloads in der Public Cloud an, handelt es sich dabei um Web-Applikationen für den Massenmarkt und weniger um spezifische Unternehmensapplikationen. Der Großteil der Unternehmen ist für die Cloud nicht vorbereitet. Sondern darauf angewiesen und erwartet gleichermaßen Hilfe auf dem Weg in die Cloud sowie während des Betriebs der Anwendungen und Systeme.

Das hat auch unsere Untersuchung des europäischen Cloud Markts gezeigt. Unternehmen sind interessiert an Cloud Computing und dessen Eigenschaften (Skalierbarkeit, Flexibilität oder Pay per use). Allerdings gestehen sie sich selbst ein, dass sie nicht über das Wissen und die Zeit verfügen oder es einfach nicht (mehr) zu ihrem Kerngeschäft gehört, IT-Systeme zu betreiben und dies stattdessen von dem Cloud-Anbieter übernehmen lassen. Es geht also um eine flexible Art von Managed Services. Darauf sind Public Cloud Anbieter nicht vorbereitet, da ihr Geschäft darin besteht, hochstandardisierte Infrastrukturen, Plattformen, Applikationen und Services bereitzustellen. Abhilfe sollen speziell von dem Anbieter zertifizierte Systemintegratoren bieten.

Hier besteht die Chance für Anbieter von Business Clouds. Also Cloud Anbieter, die kein Public Cloud Modell fahren, sondern anhand von Managed Services den Kunden dabei helfen, den Weg in die Cloud zu meistern und den Betrieb übernehmen und damit einen „Alles aus einer Hand“ Service bieten. Das erfolgt im Normalfall nicht auf einer Shared-Infrastructure sondern innerhalb einer Hosted Private Cloud bzw. einer Dedicated Cloud bei der sich ein Kunde explizit in einem isolierten Bereich befindet. Professional Services runden das Portfolio ab, die bei der Integration, Schnittstellen und der Weiterentwicklung helfen. Business Clouds sind auf Grund dieser Serviceleistungen, Exklusivität und höherer Sicherheit (in der Regel physikalische Isolation) teurer als Public Clouds. Betrachtet man jedoch den Aufwand, den man als Unternehmen selbst in der einen oder anderen Public Cloud betreiben muss, um tatsächlich erfolgreich zu sein oder sich Hilfe von einem der zertifizierten Systemintegratoren holt, dann ist der Kostenvorteil meist eliminiert. Zudem ist Business Cloud (Managed Cloud) Anbietern ein höheres Wissen in die eigene Cloud und deren Eigenschaften gutzuschreiben als Systemintegratoren, da diese die Infrastruktur kennen und zudem weitere spezifische Anpassungen für den Kunden vorgenommen werden können als in einer zumeist hochstandardisierten Public Cloud Infrastruktur.

Public Cloud ist kein No-go für Unternehmen

Die Public Cloud ist für Unternehmen per se kein Tabu-Thema. Im Gegenteil, denn zum einem bietet die Public Cloud den maximal einfachsten und unkompliziertesten Weg in die Cloud-Welt, ohne dabei mit dem Vertrieb in Kontakt zu geraten. Zum anderen kommt es auf die Workloads/ Use Cases an, die identifiziert werden müssen.

Der größte Vorteil einer Public Cloud für Unternehmen besteht darin, dass sie sehr kostengünstig und schnell eigene Erfahrungen in einem echten Cloud-Umfeld sammeln können und sich sehr einfach „Dinge“ ausprobieren lassen. Zudem bietet sie die Gelegenheit sehr günstig und schnell Fehler zu machen und damit frühzeitig daraus zu lernen, was früher sehr schmerzhaft gewesen wäre. Anhand einer Top Down Cloud Strategie lassen sich in der Public Cloud zudem u.a. neue Geschäftsmodelle abbilden, die über Web Applikationen realisiert werden. Hier lassen sich mit einem hybriden Ansatz z.B. die Applikationen von den Daten trennen, um die Skalierbarkeit der Public Cloud für die Applikation selbst auszunutzen, die Daten aber in einem für sich definierten sicheren Bereich zu speichern.

Ob kritische Workloads innerhalb einer Public Cloud betrieben werden sollten ist u.a. eine Entscheidung des Risikomanagements und des eigenen Aufwands den man betreiben will/ kann um dies sicherzustellen. Hierauf muss während der Evaluation zwischen einer Public und einer Managed (Business) Cloud besonders geachtet werden.



HP Cloud Portfolio: Überblick & Analyse

HPs Cloud Portfolio besteht aus einer Reihe von Cloud-basierten Lösungen und Services. Dabei ist die HP Public Cloud als echtes Infrastructure-as-a-Service (IaaS) Angebot das aktuelle Kernprodukt, was dementsprechend großzügig vermarktet wird. Die HP Enterprise Services - Virtual Private Cloud bietet eine von HP gehostete Private Cloud. Die Public Cloud Services werden ausschließlich aus den USA mit Rechenzentren im Westen und Osten ausgeliefert. Auch wenn der Vertrieb weltweit aufgestellt ist, wird lediglich Englisch unterstützt.

Portfolio Überblick

Das IaaS Kernangebot umfasst Rechenleistung (HP Cloud Compute), Speicherplatz (HP Cloud Storage) und Netzwerkkapazitäten. Weiterhin stehen die Mehrwertservices HP Cloud Load Balancer, HP Cloud Relational DB, HP Cloud DNS, HP Cloud Messaging, HP Cloud CDN, HP Cloud Object Storage, HP Cloud Block Storage und HP Cloud Monitoring zur Verfügung, mit denen sich eine virtuelle Infrastruktur für eigene Applikationen und Services aufbauen lassen.

Die HP Cloud Infrastruktur basiert auf OpenStack und ist Multi-Mandantenfähig. Die virtuellen Maschinen sind mit KVM virtualisiert und lassen sich in festen Größen (Extra Small bis Double Extra Large) pro Stunde buchen. Der lokale Speicher der virtuellen Maschinen ist nicht persistent. Langfristige Daten lassen sich aber auf einem unabhängigen Block Storage speichern und anbinden. Eigene virtuelle Maschinen Images lassen sich nicht in die Cloud hochladen. Der Load Balancer befindet sich derzeit noch in einer Private Beta. Die Infrastruktur ist eine Multi-Fault-Domain, was von dem Service Level Agreement berücksichtigt wird. Eine Multifaktor Autorisierung wird derzeit nicht angeboten.

Die HP Enterprise Cloud Services bieten eine Vielzahl unterschiedlicher auf Unternehmen ausgerichteter Lösungen. Darunter Recovery-as-a-Service, dedizierte Private Clouds und Hosted Private Clouds. Zu den Applikationsservices gehören Lösungen für Collaboration, Messaging, Mobility und Unified Communications. Zu spezifischen Unternehmensanwendungen zählen HP Enterprise Cloud Services for Microsoft Dynamics CRM, HP Enterprise Cloud Services for Oracle und HP Enterprise Cloud Services for SAP. Professional Services runden das Enterprise Cloud Services Portfolio ab. Die Enterprise Cloud Services – Virtual Private Cloud ist eine von HP gehostete und Mandantenfähige Private Cloud und richtet sich an SAP, Oracle und weitere Unternehmensanwendungen.

Analyse

HP hat viel Erfahrung im Aufbau und Betrieb von IT-Infrastrukturen und verfolgt dieselben Ziele in den Bereichen Public und Private Cloud Infrastrukturen. Dabei setzen sie auf eigene Hardwarekomponenten und ein umfangreiches Partnernetzwerk. HP verfügt über einen weltweit agierenden Vertrieb und ein gleichermaßen hohes Marketingbudget und ist damit in der Lage eine Vielzahl an Kunden zu erreichen. Auch wenn sich die Rechenzentren für die Public Cloud ausschließlich in den USA befinden.

HP hat in den letzten Jahren viel Aufwand und Entwicklung investiert. Dennoch ist der HP Public Cloud Compute Service erst seit Dezember 2012 für die Allgemeinheit am Markt verfügbar. Auf Grund dessen kann HP noch keine aussagekräftige Erfolgsbilanz für seine Public Cloud nachweisen. Es existiert nur eine begrenzte Interoperabilität zwischen der HP Public Cloud, basierend auf OpenStack, und der Private Cloud (HP CloudSystem, HP Converged Cloud) der das HP Cloud OS zugrunde liegt. Da die HP Public Cloud nicht über die Möglichkeit verfügt, eigene virtuelle Maschinen Images auf Basis eines Self-Service hochzuladen, können Kunden derzeit keine Workloads aus der Private Cloud in die Public Cloud übertragen. Selbst dann, wenn die Private Cloud auf OpenStack basiert.

INSIGHTS Report

Der INSIGHTS Report "HP Cloud Portfolio - Überblick & Analyse" kann hier kostenlos als PDF heruntergeladen werden.



Wir leben bereits in einer Multi-Cloud getriebenen Welt

Nicht zuletzt das Disaster um Nirvanix hat gezeigt, dass man sich nicht auf einen einzelnen Cloud-Anbieter verlassen. Aber auch ungeachtet der Risikostreuung ist der Einsatz einer Multi-Cloud Strategie ein empfehlenswerter Ansatz, der bereits von vielen heute schon bewusst oder unbewusst praktiziert wird.

Hybrid oder Multi-Cloud?

Was bedeutet genau Multi-Cloud? Oder was ist der Unterschied zu einer Hybrid Cloud? Nun, eine Hybrid Cloud verbindet von ihrer Definition her eine eigene Private Cloud bzw. eine on-Premise IT-Infrastruktur mit einer Public Cloud, um die lokalen Infrastrukturen bei Bedarf mit weiteren Ressourcen zu versorgen. Bei diesen Ressourcen kann es sich um Rechenleistung, Speicherplatz aber auch Services in Form von Software handeln. Wird ein lokales E-Mail System mit einem SaaS CRM-System integriert, kann durchaus von einer Hybrid Cloud gesprochen werden. Eine Hybrid Cloud gilt also nicht nur für IaaS bzw. PaaS Szenarien.

Ein Multi-Cloud Konzept erweitert den Hybrid Cloud Gedanken um die Anzahl der zu verbindenden Clouds. Genauer gesagt kann es sich dabei um n-Clouds handeln die in irgendeiner Form miteinander integriert sind. Dabei werden bspw. Cloud-Infrastrukturen so miteinander verbunden, dass die Applikationen verschiedene Infrastrukturen oder Services parallel oder je nach Auslastung oder aktuellen Preisen nutzen. Auch das parallele oder verteilte Speichern von Daten über mehrere Clouds ist vorstellbar, um die Verfügbarkeit und Redundanz der Daten sicherzustellen. Aktuell wird sehr intensiv über Multi-Cloud im IaaS-Umfeld diskutiert. Siehe dazu auch Ben Kepes' und Paul Miller's Mapping Session zum Thema Multi-Cloud sowie Paul's Sector RoadMap: Multicloud management in 2013.

Was oft vergessen wird ist, dass Multi-Cloud insbesondere im SaaS-Umfeld seine Bedeutung hat. Die Anzahl neuer SaaS-Applikationen wächst täglich und damit auch der Bedarf, diese unterschiedlichen Lösungen miteinander zu integrieren und Daten austauschen zu lassen. Aktuell bewegt sich der Cloud-Markt unkontrolliert auf viele kleine Insellösungen zu, die jede für sich zwar einen Mehrwert bieten, in der Summe jedoch zu vielen kleinen Dateninseln führen. Mit solchen Entwicklungen haben in Unternehmen schon in vor Cloud Zeiten zu kämpfen gehabt und das vergebens.

Risiken streuen

Auch wenn das Cloud-Marketing ständig die Verfügbarkeit und Sicherheit der Daten, Systeme und Applikationen verspricht, liegt die Verantwortung dies sicherzustellen in den eigenen Händen (Das bezieht sich auf eine IaaS Public Cloud). Zwar stellen die Cloud-Anbieter hierfür weitestgehend alle Mittel und Wege zur Verfügung, im IaaS-Bereich muss sich der Kunde aber selbst darum kümmern. Ausfälle wie die der Amazon Web Services oder unvorhergesehene Schließungen wie die von Nirvanix sollten zu mehr Sensibilität bei der Nutzung von Cloud-Services führen. Die Risiken müssen bewusst gestreut werden. Dabei sollten sich nicht alle Eier in einem Nest befinden, sondern strategisch über mehrere verteilt werden.

Best-of-Breed

Die Best-of-Breed Strategie ist der meist verbreitetste Ansatz in IT-Unternehmensarchitekturen. Dabei werden mehrere Branchenlösungen für verschiedene Teilbereiche innerhalb des Unternehmens eingesetzt und miteinander integriert. Die Idee hinter Best-of-Breed besteht darin, die jeweils beste Lösung zu nutzen, die eine All-in-one Lösung in der Regel nicht bieten kann. Man stellt sich also die für seinen Zweck besten Services und Applikationen zusammen.

Verfolgt man diesen Ansatz in der Cloud, befindet man sich direkt in einem Multi-Cloud Szenario, was bedeutet, dass schätzungsweise 90% aller Unternehmen die Cloud-Services nutzen, Multi-Cloud Nutzer sind. Ob die eingesetzten Cloud-Services auch miteinander integriert sind bleibt zu bezweifeln. Was auf der einen Seite empfehlenswert ist, lässt sich auf der anderen Seite in vielen Fällen auch nicht vermeiden. Zwar existieren bereits ein paar gute All-in-one Lösungen am Markt. Dennoch sind die meisten Perlen eigenständig implementiert und müssen mit anderen Lösungen kombiniert werden, z.B. E-Mail und Office/ Collaboration mit CRM und ERP. Das hat von der Risikobetrachtung, insbesondere in der Cloud, seinen Vorteil. Fällt ein Anbieter aus, ist auch nur ein Teil-Service nicht erreichbar und nicht direkt die gesamte Produktivitäts-Umgebung.

Insellösungen vermeiden: Schnittstellen und Integration

Solche Best-of-Breed Ansätze versuchen Cloud-Marktplätze zu schaffen, indem sie einzelne Cloud-Lösungen in unterschiedlichen Kategorien zusammenfassen und Unternehmen damit ein umfangreiches Portfolio verschiedener Lösungen bieten, mit der sich eine Cloud-Produktivitäts-Suite zusammenstellen lässt. Dennoch zeigen, obwohl sehr stark kontrollierte und vermeintlich integrierte Marktplätze an einer entscheidenden Stelle massive Probleme mit der Integration. Es existieren viele einzelne SaaS-Applikationen die nicht zusammenspielen. Das bedeutet, dass keine gemeinsame Datenbasis existiert und das z.B. der E-Mail Service nicht auf die Daten im CRM-Service zugreifen kann und umgekehrt. Damit entstehen wieder, wie bereits oben beschrieben, einzelne Datensilos und Insellösungen innerhalb des Marktplatzes.

Dieses Beispiel zeigt auch die größte Problematik mit einem Multi-Cloud Ansatz. Die Integration der vielen verschiedenen und normalerweise voneinander unabhängig agierenden Cloud-Services und deren Schnittstellen zueinander.

Multi-Cloud ist "The New Normal" in der Cloud

Das Thema Multi-Cloud wird derzeit insbesondere im IaaS-Umfeld stark diskutiert, um das Risiko zu streuen und die Kosten und Leistungen unterschiedlicher Cloud-Infrastrukturen optimal ausnutzen zu können. Aber ebenfalls im SaaS-Umfeld muss das Thema unbedingt eine höhere Bedeutung zugesprochen werden, um Daten- und Insellösungen in Zukunft zu vermeiden, die Integration zu vereinfachen und Unternehmen bei ihrer Adaption ihrer Best-of-Breed Strategie zu unterstützen.

Ungeachtet diesen Erwartungen ist der Multi-Cloud Einsatz bereits Realität, indem Unternehmen mehrere Cloud Lösungen von vielen unterschiedlichen Anbietern einsetzen, auch wenn diese noch nicht (vollständig) miteinander integriert sind.



AWS Activate. Startups. Marktanteile. Noch Fragen?

Startups sind die Grundlage für den Erfolg der Amazon Web Services (AWS). Mit ihnen ist der IaaS-Marktführer groß geworden. Anhand einer offiziellen Initiative baut AWS diesen Zielkundenmarkt weiter aus und wird die restlichen IaaS-Anbieter damit weiter im Regen stehen lassen. Denn von deren Seite, mit Ausnahme von Microsoft und Rackspace, passiert nichts.

AWS Activate

Es ist kein Geheimnis das AWS sich gezielt die Gunst der Startups "erkauft". Abgesehen von dem attraktiven Service Portfolio haben Gründer, die von Accelerator unterstützt werden, AWS Credits im zweistelligen Bereich erhalten, um ihre Ideen auf der Cloud Infrastruktur zu starten.

Mit AWS Activate hat Amazon nun ein offizielles Startup-Programm gestartet, um als Business-Enabler für Entwickler und Startups zu dienen. Dieses besteht aus dem "Self-Starter Package" und dem "Portfolio Package".

Das Self-Starter Package richtet sich an Startups, die ihr Glück auf eigene Faust versuchen und beinhaltet das bekannte kostenlose AWS-Angebot, welches jeder Neukunde in Anspruch nehmen kann. Hinzu kommen ein AWS Developer Support für einen Monat, "AWS Technical Professional" Training und ein vergünstigter Zugriff auf Lösungen von SOASTA oder Opscode. Das Portfolio Package ist für Startups die sich in einem Accelerator Programm befinden. Diese erhalten AWS Credits im Wert zwischen 1.000 Dollar und 15.000 Dollar sowie ein Monat bis ein Jahr kostenlosen AWS Business Support. Hinzu kommen "AWS Technical Professional" und "AWS Essentials" Trainings.

Noch Fragen wegen der hohen Marktanteile?

Angesichts dieser Initiative werden die Amazon Web Services auch in Zukunft alleine weiter vorne weglaufen. Mit Ausnahme von Microsoft, Google und Rackspace, positioniert sich nur AWS als Plattform für Nutzer, die dort ihre eigenen Ideen umsetzen können. Alle anderen Anbieter umarmen lieber Unternehmenskunden, die eher zögerlich auf den Cloud Zug aufspringen und bieten bei weitem nicht die Möglichkeiten einer AWS Cloud Infrastruktur. Anstatt das Portfolio auf Cloud-Services auszulegen, wird stattdessen mit Rechenleistung und Speicherplatz versucht auf Kundenfang zu gehen. Dabei hat Infrastruktur aus der Cloud mehr zu bedeuten als nur Infrastruktur.



Komponieren statt Administrieren – IBM entwirft einen Blueprint für „Software Defined Environments“ (SDE)

Ein kurzer Schlag und das Orchester passt Takt und Tonlage an die Interpretation des Dirigenten an. Das Ensemble reagiert in Echtzeit.  Die einzelnen Musiker folgen klaren Regeln. Das Ergebnis ist vollständige Harmonie und ein echter Hörgenuss. Dies gilt zumindest für die Aufführungen anlässlich des 21. George Enescu-Festivals, das vom 01.-28.09.2013in Bukarest stattgefunden hat.  Parallel veranstaltete IBM in einem Hotel gegenüber der „Piata George Enescu“  einen Analysten-Event zum Thema „Software Defined Environments“ (SDE). Gute Wahl denkt man sich – und dies gilt sowohl für das Thema als auch den Veranstaltungsort. Continue reading “Komponieren statt Administrieren – IBM entwirft einen Blueprint für „Software Defined Environments“ (SDE)” »



Enterprise Cloud Computing: T-Systems startet "Enterprise Marketplace"

Mit dem Business Marketplace konnte die Deutsche Telekom nach eigenen Angaben bereits 10.000 mittelständische Unternehmen erreichen. Nun soll ein ähnlicher Erfolg auch im Großkundenumfeld erzielt werden. Dazu steht jetzt der Enterprise Marketplace bereit, über den sich Software, Hardware oder Paket-Lösungen nach Bedarf buchen und ebenfalls unternehmensspezifische Eigenentwicklungen den eigenen Mitarbeitern bereitstellen lassen.

SaaS, IaaS und fertige Pakete

Der Enterprise Marketplace richtet sich speziell an die Bedürfnisse von Großunternehmen und bietet neben Software-as-a-Service-Lösungen (SaaS) ebenfalls vorkonfigurierte Images (Appliances) und konfigurierbare Gesamtpakete an, die sich in die bestehenden Systemlandschaften integrieren lassen sollen. Alle Services inklusive der integrierten Eigenentwicklungen befinden sich in einer Hosted Private Cloud und werden über das Netz der Telekom bereitgestellt.

Standardlösungen und Eigenentwicklung

Der Enterprise Marketplace bietet weitestgehend standardisierte Services. Die Nutzung dieser Services beinhaltet neue Releases, Updates und Patches. Die Abrechnung erfolgt monatlich und je nach Nutzung des jeweiligen Angebots. T-Systems stellt ebenfalls fertige Appliances wie bspw. einen vorkonfigurierten Apache Application Server bereit der nach Bedarf mit eigener Software erweitert und verwaltet werden kann. Weiterhin sollen Kunden in Zukunft selbst wählen können, welches T-Systems Rechenzentrum sie nutzen möchten.

Innerhalb des Enterprise Marketplace können ebenfalls unterschiedliche Angebote aus dem Marktplatz miteinander kombiniert werden, z.B. ein Webserver mit Datenbank und Content-Management-System. Weiterhin lassen sich eigene Lösungen wie Monitoring-Tools integrieren. Diese eigenen Lösungen lassen sich ebenfalls den restlichen Marktplatzteilnehmern zur Verfügung stellen. Wer und wie viele Teilnehmer Zugriff auf diese Lösung im Enterprise Marketplace erhalten entscheidet das Unternehmen alleine.

Zudem kann die Performance der jeweiligen Appliance des Enterprise Marketplace individuell angepasst werden. Der Nutzer erhält hierzu Einfluss auf die Anzahl der CPUs sowie die Größe des RAM und Speicherplatz und die Anbindungsbandbreite. In einer weiteren Ausbaustufe erfolgen ebenfalls Managed Services die Patches, Updates und Release-Wechsel beinhalten.

Marktplatz mit Lösungen von externen Anbietern

Ein individuelles Dashboard sorgt für die Übersicht aller eingesetzten bzw. freigegeben Applikationen innerhalb des Enterprise Marketplace. Zu den aktuellen Lösungen auf dem Marktplatz zählen unter anderem Web Server (z.B. Apache und Microsoft IIS), Application Server (z.B. Tomcat und JBoss), SQL-Datenbanken, Microsoft Enterprise Search sowie OpenSource-Pakete (z.B. LAMP Stack oder Joomla). Weiterhin kooperiert T-Systems mit einer Reihe von SaaS-Lösungen von Software-Partnern, die speziell für den Betrieb auf der T-Systems Infrastruktur geprüft wurden. Dazu gehören u.a. die Steuersoftware TAXOR, die Enterprise Social Media Lösung tibbr, die Business Process Management Suite T-Systems Process Cloud sowie das Nachhaltigkeitsmanagement WeSustain.

Cloud Computing auf Enterprise Level

T-Systems ist mit dem Enterprise Marketplace bereits dort angekommen, wohin sich andere Anbieter wie Amazon, Microsoft, Google, HP und Rackspace erst auf den Weg gemacht haben - bei den lukrativen Unternehmenskunden. Wo sich der Business Marketplace in erster Linie lediglich als Marktplatz für SaaS-Lösungen präsentiert, geht T-Systems mit dem Enterprise Marketplace deutlich weiter und bietet neben SaaS-Anwendungen ebenfalls Infrastruktur-Ressourcen und vollständige Lösungsansätze für Unternehmen inkl. die Integration von Eigenentwicklungen sowie Managed-Services.

Im Vergleich zu den aktuellen Cloud Playern am Markt verfügt T-Systems über keine Public Cloud und konzentriert sich stattdessen auf das Bereitstellen seiner Angebote über eine (Hosted/ Virtual) Private Cloud. Das kann sich mittelfristig rentieren. Aktuelle Marktzahlen von IDC versprechen ein Wachstum für die Public Cloud von 2013 mit 47,3 Billionen Dollar auf 107 Billionen Dollar im Jahr 2017. Die Beliebtheit der Private Cloud wird laut IDC zu Gunsten der Virtual Private Cloud (Hosted Private Cloud) abschwächen, sobald Public Cloud Anbieter damit beginnen, entsprechende Lösungen anzubieten, um den Bedenken der Kunden entgegenzukommen.

Ähnliche Beobachtungen haben wir während unserer GigaOM Studie "The state of Europe’s homegrown cloud market" gemacht. Cloud-Kunden fordern vermehrt Managed-Services. Zwar wollen sie von den Eigenschaften der Public Cloud - flexible Nutzung der Ressourcen, Pay per use - profitieren, dieses aber gleichzeitig in einem sehr sicheren Umfeld inkl. der Unterstützung bei der Integration von Anwendungen und Systemen durch den Anbieter. All dies können die Public Cloud Player in dieser Form derzeit noch nicht bieten, da sie sich vornehmlich auf ihre Self-Service Angebote konzentrieren. Das ist in Ordnung, da sie damit bestimmte Use Cases effektiv bedienen und bisher beachtliche Marktanteile in einem bestimmten Zielkundensegment erreicht haben. Wollen Sie allerdings an die großen Fische im Enterprise Segment gelangen, werden sie ihre Strategie an das T-Systems Portfolio ausrichten müssen, um die individuellen Bedürfnisse der Kunden bedienen zu können.

Eine Anmerkung zu dem Auswahlprozess von Partnern für den Enterprise Marketplace: Gespräche mit Partnern, die auf dem Business Marketplace ihre Lösungen anbieten, bestätigen einen knallharten Auswahlprozess, der für den Partner zu einer echten "Qual" werden kann. Spezifische Anpassungen speziell an die Sicherheitsinfrastruktur von T-Systems sind keine Einzelfälle und zeugen von einer hohen Qualitätssicherung durch T-Systems.



Die Bedeutung von mobilen und cloud-basierten Arbeitsweisen wächst stetig

Die Vorteile flexibler Arbeitsweisen auf Grund mobiler und Cloud Technologien überwiegen die Bedenken und Risiken von 86 Prozent leitender Angestellter und Geschäftsführer von kleinen und mittelständischen Unternehmen (KMU). Zu diesem Ergebnis kommt eine weltweite Studie unter 1.250 Unternehmen aus Europa, Nordamerika und Australien von YouGov im Auftrag von Citrix.

Verbesserte Produktivität und Imagesteigerung

Eine Steigerung der Produktivität erwarten 48 Prozent und somit ungefähr die Hälfte der Befragten durch die Möglichkeit von flexiblen Arbeitsweisen. 32 Prozent erhoffen sich dadurch eine Verbesserung ihres Image als Arbeitgeber. In etwa ein Viertel (23 Prozent) sehen in mobilen Arbeitsmethoden einen besseren Ausgleich der Work-Life-Balance, die speziell berufstätigen Eltern (29 Prozent) entgegenkommen. Weiterhin sehen 39 Prozent eine verbesserte Integration externer Teams und 28 Prozent Vorteile in der Geschäftskontinuität.

Bedenken mit dem Privatleben

Dennoch verursachen mobile Arbeitsweisen auch Bedenken. Die größten beziehen sich auf die Trennung zwischen privatem und beruflichem (41 Prozent) und die Befürchtung, dass sich die Mitarbeiter dadurch zu sehr verpflichtet fühlen können, Überstunden zu machen. Zwar haben bereits die Hälfte der befragten Unternehmen mobile Arbeitsweisen umgesetzt, begegnen aber dennoch Befürchtungen mit mündlichen oder schriftlich fixierten Regelungen. Stichwort: Kontrolle der Mitarbeiter. Allerdings stehen diese Einschränkungen im Widerspruch zum Wunsch die Arbeit in Eigenverantwortung zu organisieren. Dazu lehnt die Mehrheit von 73 Prozent Regeln ab, die flexibles und mobiles Arbeiten in Zeitfenstern organisieren, da hiermit die grundsätzliche Idee mobiler und flexbiler Arbeitsweisen eingeschränkt werden. Ansonsten wären Mitarbeiter nicht mehr in der Lage, den Ort und die Zeit selbst zu wählen um für sich am produktivsten zu sein und ihr Berufs- und Privatleben in Einklang zu bringen.

Mobile und cloud-basierte Arbeitsmethoden sind wichtig

Unser Arbeitsleben findet für viele schon lange nicht mehr in einem lokalen begrenzten Bereich statt. Stattdessen leben wir in einer globalen, vernetzten und vor allem mobilen Welt, aus der jeder die Vorteile für sich ziehen sollte, um produktiver, somit gewinnbringender für das Unternehmen zu sein und gleichzeitig ein ausgeglichenes Privatleben führen kann.

Moderne Unternehmen müssen ihren Mitarbeitern heutzutage die Möglichkeiten/ Freiheiten geben, von dort aus zu arbeiten wo sie möchten. Dabei muss es sich nicht immer um den Starbucks um die Ecke handeln. Aber es bietet die Gelegenheit, sich in kreative Bereiche wie bspw. Co-Working Spaces zurückzuziehen und somit andere Eindrücke und Meinungen zu gewinnen und von potentiellen Kunden oder Partnern Rückmeldungen zu erhalten. Der größte Vorteil besteht aber in der Möglichkeit, aus dem Routinealltag im Büro des Unternehmens zu entfliehen und sich somit weiterzuentwickeln. Cloud- und mobile Technologien ermöglichen dies wie keine anderen Technologien zuvor.

Die Gefahr sich zu überarbeiten oder gar in einen Burnout zu enden spielt in unserer heutigen Arbeitswelt ständig mit. Aber dafür sind keine flexiblen bzw. mobilen Arbeitsweisen verantwortlich. Im Gegenteil, ein Mitarbeiter erhält damit mehr Freiheiten, sich auch mal eine "Auszeit" in einer privaten oder in dem Moment gewünschten Umgebung zu verschaffen, um damit einen Ausgleich zu finden. Dennoch müssen Mitarbeiter damit mehr Eigenverantwortung übernehmen, um ihre vereinbarten Ziele zu erreichen und gleichzeitig sich selbst in Schutz zu nehmen und so zu organisieren, um weiterhin ein Privatleben zu haben, wobei ebenfalls der Arbeitgeber helfen sollte, um dafür die Aufmerksamkeit zu wecken.



Ein Blick auf Europas eigenen Cloud Computing Markt

Europas Cloud-Markt wird weitestgehend von den Amazon Web Services, Microsoft Windows Azure und Rackspace beherrscht. Also dieselben Anbieter, die auch den Rest der Welt dominieren. Jeder dieser Anbieter hat Niederlassungen in Europa und alle versuchen die speziellen Bedenken der Europäer zu genügen. Nichtsdestotrotz entwickeln eine steigende Anzahl lokaler Anbieter ihre eigenen Cloud Computing Lösungen für den europäischen Markt. Für GigaOM Research haben Paul Miller und ich die Gründe und Bedeutungen für diese lokalen Anbieter genauer betrachtet und gefragt, ob Europas stetig wachsende Sorge mit der Dominanz US-amerikanischer Anbieter in der Cloud ein tatsächlicher Treiber für einen Wandel sein kann. Das Ziel ist es, herauszufinden, ob es einen einheitlichen europäischen Cloud-Markt gibt den diese Unternehmen bedienen müssen oder ob verschiedene Märkte zu adressieren sind.

Wesentliche Inhalte aus dem Report

  • Europäische Bedenken mit der Dominanz US-amerikanischer Cloud Anbieter
  • Gründe für die Entwicklung von Cloud Lösungen innerhalb Europas
  • Der Nutzen einer transnationalen Cloud Infrastruktur
  • Der Nutzen von lokalen oder regionalen Cloud Infrastrukturen
  • Eine Auswahl von nativen Cloud Anbietern aus Europa

Europäische Cloud Anbieter in diesem Report

  • ProfitBricks
  • T-Systems
  • DomainFactory
  • City Cloud
  • Colt
  • CloudSigma
  • GreenQloud

Der Report

Der vollständige Report kann unter "The state of Europe’s homegrown cloud market" gelesen werden.



Bulette oder Filetstück? Host Europe schluckt Telefonica Online Services

150px-Host_Europe_2009_logo.svg

Manchmal ist einem im erstem Moment gar nicht so klar, was da gerade auf dem Teller gelandet ist. Was auf der Karte eben noch als „Frischlingsrücken“ bezeichnet wurde entpuppt sich dann beim Essen oft als banale „Schweinerei“.

Das ist bei Übernahmen häufig nicht anders, bekommt der Käufer doch auch das Objekt der Begierde nur von seiner schönsten Seite präsentiert, Due Diligence hin oder her. Was also hat sich Host Europe mit der Übernahme der Telefonica Online Services gerade einverleibt? Aber erst mal von vorne. Continue reading “Bulette oder Filetstück? Host Europe schluckt Telefonica Online Services” »



AWS OpsWorks + AWS VPC: Amazon AWS erhöht das Tempo in der Hybrid Cloud

Nachdem die Amazon Web Services (AWS) im vergangenen Jahr das deutsche Unternehmen Peritor und dessen Lösung Scalarium akquiriert und in AWS OpsWorks umbenannt haben, folgt die weitere Einbindung in die AWS Cloud Infrastruktur. Der nächste Schritt ist die Integration mit der Virtual Private Cloud, was angesichts der aktuellen Marktentwicklung ein weiterer Seitenhieb in Richtung der Verfolger ist.

AWS OpsWorks + AWS Virtual Private Cloud

Bei AWS OpsWorks handelt es sich um eine DevOps Lösung mit der Anwendungen bereitgestellt, angepasst und verwaltet werden können. Kurzum lässt sich damit der gesamte Lebenszyklus einer Applikation steuern. Dazu gehören Funktionen wie ein Nutzer-basiertes SSH-Management, CloudWatch Metriken für die aktuelle Last und den Speicherverbrauch sowie automatische RAID Volume konfigurationen und weitere Möglichkeiten zum Applikations-Deployment. Weiterhin lässt sich OpsWorks mit Chef erweitern, indem individuelle Chef Rezepte genutzt werden.

Die neue Virtual Private Cloud (VPC) Unterstützung ermöglicht nun diese OpsWorks Funktionen innerhalb eines isolierten privaten Netzwerks. Dadurch lassen sich z.B. auch Anwendungen aus einer eigenen IT-Infrastruktur in eine VPC in der Amazon Cloud übertragen, indem eine sichere Verbindung zwischen dem eigenen Rechenzentrum und der Amazon Cloud hergestellt wird. Damit verhalten sich Amazon EC2-Instanzen innerhalb einer VPC so, als ob Sie sich in dem vorhandenen Unternehmensnetzwerk befinden würden.

OpsWorks und VPC sind erst der Anfang

Glaubt man dem Ergebnis der Rackspace 2013 Hybrid Cloud Umfrage, dann haben 60 Prozent der IT-Entscheider die Hybrid Cloud als Hauptziel vor Augen. Dabei wollen bzw. haben ebenfalls 60 Prozent ihre Applikationen und Workloads aus der Public Cloud abgezogen. 41 Prozent haben angegeben die Public Cloud teilweise verlassen zu wollen. 19 Prozent wollen die Public Cloud sogar vollständig verlassen. Die Gründe für den Einsatz einer Hybrid Cloud anstatt einer Public Cloud sind eine höhere Sicherheit (52 Prozent), mehr Kontrolle (42 Prozent) sowie eine bessere Performance und höhere Zuverlässigkeit (37 Prozent). Zu den Top Vorteilen, von denen Hybrid Cloud Nutzer berichten, gehören mehr Kontrolle (59 Prozent), eine höhere Sicherheit (54 Prozent), eine höhere Zuverlässigkeit (48 Prozent), Kostenvorteile (46 Prozent) und eine bessere Performance (44 Prozent).

Diesen Trend hat AWS bereits im März 2012 erkannt und erste strategische Schritte eingeleitet. Denn die Integration von OpsWorks mit VPC ist im Grunde genommen nur ein Nebenschauplatz. Den eigentlichen Trumpf hat AWS mit der Kooperation von Eucalyptus in der Hand, die im vergangenen Jahr unterzeichnet wurde. Hierbei geht es darum, die Kompatibilität mit den AWS APIs zu verbessern, indem AWS Eucalyptus mit weiteren Informationen versorgt. Weiterhin sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Die Kunden sollen zudem die Möglichkeit bekommen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Erste Erfolge der Kooperation konnte Eucalyptus mit Version 3.3 bereits präsentieren.

Spannend bleibt wie die Zukunft von Eucalyptus aussieht. Irgendwann wird das Open-Source Unternehmen gekauft oder verkauft. Die Frage ist wer den ersten Schritt macht. Mein Tipp ist weiterhin, dass AWS eine Akquisition von Eucalyptus anstreben muss. Aus strategisch und technologischer Sicht führt daran eigentlich kein Weg vorbei.

Angesichts dieser Tatsache dürfen sich Rackspace und alle anderen, die mittlerweile auf den Hybrid Cloud Zug aufgesprungen sind, keine all zu großen Hoffnungen machen. Auch hier hat Amazon frühzeitig die Weichen gestellt und ist ebenfalls für dieses Szenario vorbereitet.



TeamDrive SecureOffice: Sichere und nahtlose Bearbeitung von Dokumenten für Smartphones und Tablets

Unter dem Namen „TeamDrive SecureOffice“ haben der deutsche Anbieter für sichere Enterprise-Cloud-Storage Lösungen TeamDrive und der Smart Office Hersteller Picsel die erste sichere Office-Lösung für iOS und Android Smartphones sowie Tablets auf den Markt gebracht. TeamDrive SecureOffice präsentiert sich als erste Dropbox-artige Synchronisations-Lösung mit eingebautem Office, Ende-zu-Ende Verschlüsselung und nahtloser Bearbeitung von Dokumenten.

Ende-zu-Ende Verschlüsselung für Unternehmen und Behörden

Mit der Integration von TeamDrives - auf Sicherheit geprüfter und zertifizierter - Synch- & Share-Technologie, zusammen mit Picsels Smart Office Lösung für mobile Endgeräte, wollen die Unternehmen einen Meilenstein rundum sichere Produktivitätslösungen für mobilen Endgeräte setzen. Nach Aussage beider Unternehmen, gilt TeamDrive SecureOffice als erste Technologie seiner Art, welche den Bedarf von Unternehmen und Behörden nach einer kompletten Ende-zu-Ende-Verschlüsselung deckt und gleichzeitig die gemeinsame Datennutzung durch verschiedene Benutzer über mobile Endgeräte erlaubt.

Eine Sandbox sorgt für nahtlose Sicherheit auf dem Endgerät

Auf Basis einer Sandbox-Technologie sollen gemeinsam genutzte Dokumente niemals die sichere Umgebung der Anwendung verlassen. Dazu wird eine komplette Ende-zu-Ende-Verschlüsselung geschaffen, wenn Mitarbeiter ihre Dateien von mobilen Endgeräten aus abrufen und versenden. Das wird dadurch realisiert, indem die Daten in der sicheren TeamDrive Umgebung gespeichert werden und der Aufruf bspw. eines Word Dokuments direkt an die SmartOffice Implementation weitergegeben wird, die innerhalb der Sandbox gekapselt ist. Mit der Integration von Smart Office in TeamDrive wird die verschlüsselte Synchronisationslösung für iPhones, iPads und Android-Smartphones realisiert.

Hinweis: Auf Android Geräten muss die Verschlüsselung für das Device selbst und die SD-Karte extra aktiviert werden, um die nahtlose Sicherheit sicherzustellen. Auf dem iPhone und iPad ist dies automatisch aktiv.

Funktionen von TeamDrive SecureOffice

TeamDrive SecureOffice Nutzern stehen zahlreiche Funktionen zur Verfügung. Dazu gehören:

  • Unterstützung mehrerer Betriebssysteme.
  • Leistungsstarke Ansichts- und Bearbeitungsfunktionen.
  • Umfassende Unterstützung von Dateiformaten wie Microsoft Word, PowerPoint, Excel und Adobe PDF.
  • Automatische Dokumentenanpassung durch Zoomen und Schwenken.

Weiterhin erwartet die Nutzer eine sichere Drucklösung für mobile Geräte sowie die Möglichkeit, Dateien aus einer Office-Anwendung nach Adobe PDF zu exportieren und PDF-Dokumente mit Kommentaren zu versehen.

Die sichere mobile Kollaboration nimmt immer weiter an Bedeutung zu

Die sichere Nutzung von Unternehmensdaten hat höchste Priorität. Durch den weiterhin anhaltenden Wandel zu einer mobilen Gesellschaft, wird sich auch das Arbeitsverhalten und wie künftig zusammengearbeitet wird, verändern. Die Duldung und Einführung von Bring Your Own Device (BYOD) in Unternehmen hat zu einer neuen Dimension von Schutzbedürfnissen geführt, die für jede Organisation eine besondere Herausforderung darstellt, um unternehmenskritische Daten und geistiges Eigentum bestmöglich zu schützen. Es sind daher neue Technologien erforderlich, die vor dem Verlust von sensiblen Daten während der Nutzung von mobilen Endgeräten schützen und die einfache Nutzung dabei nicht aus dem Auge verlieren.

TeamDrive gilt nachweislich als der sicherste deutsche Anbieter von Sync-, Share- und Cloud-Storage Lösungen. Das Unternehmen nutzt seine Expertise und die bewährte Sicherheitstechnologie in Kombination mit Picsels Smart Office, um die Produktivität von Mitarbeitern durch den Einsatz von mobilen Endgeräten zu steigern. Gleichzeitig gehen beide Unternehmen mit ihrer Sandbox-Technologie neue Wege und geben den kritischen Themen Datensicherheit und Datenverlust damit einen besonderen Stellenwert.

Für große Unternehmen, Behörden und jede andere Organisation, die mit besonders sensiblen Daten arbeitet, ist es von entscheidender Bedeutung, sich auf die mobilen Arbeitsgewohnheiten ihrer Mitarbeiter einzustellen und mit entsprechenden Lösungen zu reagieren. Ein erster Blick auf die Android Version der App zeigt: Der nahtlose Workflow von Picsels Smart Office für mobile Endgeräte in Kombination mit TeamDrives Cloud-basierter Synchronisations- und Verschlüsselungstechnologie für Unternehmen, kann dabei helfen, dieses Ziel zu erreichen.



openQRM 5.1 ist verfügbar: OpenStack und Eucalyptus haben einen ernsthaften Konkurrenten

openQRM Projektmanager Matt Rechenburg hatte mir Ende Juli schon einige neue Features von openQRM 5.1 verraten. Jetzt ist das endgültige Release mit weiteren Funktionen veröffentlicht worden. Das Gesamtbild sieht wirklich vielversprechend aus. Zwar lässt die Überschrift im ersten Moment vermuten openQRM wäre etwas vollkommen Neues, was nun versucht OpenStack oder Eucalyptus den Rang abzulaufen. Das ist bei weitem nicht so. openQRM existiert bereits seit 2004 und hat im Laufe der Jahre eine große Funktionsvielfalt aufgebaut. Das Open-Source Projekt aus Köln geht in der Masse leider etwas unter, weil die Marketing-Maschinen hinter OpenStack und Eucalypts auf Hochtouren laufen und deren Lautsprecher um ein Vielfaches größer sind. Dabei muss sich openQRM vor beiden nicht verstecken. Im Gegenteil, mit der Version 5.1 hat das Team um Rechenburg noch einmal kräftig an Funktionen zugelegt und insbesondere die Benutzerfreundlichkeit erhöht.

Die neuen Funktionen in openQRM 5.1

Auch openQRM-Enterprise sieht in dem Hybrid Cloud Modell eine wichtige Bedeutung für die Zukunft der Cloud. Aus diesem Grund wurde openQRM 5.1 mit einem Plugin für die Unterstützung der Amazon Web Services (AWS), Eucalyptus Cloud und Ubuntu Enterprise Cloud (UEC) erweitert, um mit diesen drei Cloud Infrastrukturen eine Hybrid Cloud aufzuspannen. Damit bindet openQRM sowohl AWS als auch Eucalyptus und UEC als weitere Ressourcen-Anbieter für Rechenleistung und Speicherplatz ein und ist damit in der Lage Public Cloud Infrastrukturen als auch lokale virtuelle Maschinen zu verwalten. Damit erhalten Administratoren die Möglichkeit anhand von openQRM ihren Endnutzern über ein Cloud-Portal z.B. Amazon AMIs transparent bereitzustellen und über Nagios den Zustand der virtuellen Maschinen zu überwachen.

Eine weitere neue Funktionalität ist die sehr enge Integration von Puppet, mit der Endnutzer lokale virtuelle Maschinen ebenso wie Public Cloud Infrastrukturen mit personalisierten, verwalteten Software-Stacks bestellen können. Die wohl beste technische Erneuerung ist das Berücksichtigen des High-Availability Konzepts der Amazon Web Services. Fällt eine Amazon EC2-Instanz in einen Fehlerzustand, wird automatisch eine neue gestartet. openQRM 5.1 ist dabei sogar in der Lage, den Ausfall einer gesamten Amazon Availability Zone (AZ) zu kompensieren. Sollte eine AZ nicht mehr erreichbar sein, wird die entsprechende EC2-Instanz in einer anderen Availability Zone derselben Region gestartet.

openQRM-Enterprise baut die Open-Source Lösung openQRM konsequent um Cloud-übergreifende Verwaltungslösungen aus, um seinen Kunden damit zu ermöglichen, flexibel über die Grenzen ihrer eigenen IT-Kapazitäten hinweg zu wachsen, so CEO Matt Rechenburg.

Neben technischen Erweiterungen wurde ebenfalls viel Wert auf die Benutzerfreundlichkeit gelegt. Die Benutzeroberfläche für den Administrator wurde in openQRM 5.1 vollständig überarbeitet. Damit wird für eine bessere Übersichtlichkeit und Benutzerführung gesorgt. Auch das Dashboard, als zentrale Anlaufstelle hat davon stark profitiert, indem alle Informationen, wie der Status des Rechenzentrums, auf einen Blick angezeigt werden.

Für die openQRM Enterprise Edition wurden ebenfalls neue Funktionen vorgestellt. Dazu gehört ein neues Plugin für die rollenbasierte Zugriffsrechteverwaltung, die eine feingranulare Einstellung von Berechtigungen für Administratoren innerhalb des gesamten openQRM-Systems erlaubt. Damit lassen sich komplette Unternehmenstopologien auf openQRM-Rollen abbilden, um Administratoren, die im Unternehmen nur für die Virtualisierung zuständig sind, auf die Verwaltung und Bereitstellung virtueller Maschinen einzuschränken.

Weitere Erneuerungen in openQRM 5.1 sind eine verbesserte Unterstützung der Virtualisierungstechnologie KVM, indem nun ebenfalls GlusterFS für KVM-Volumes genutzt werden kann. Zudem werden VMware Technologien ab sofort besser unterstützt. Das bedeutet, dass sich nun auch bestehende VMware ESX Systeme verwalten, sowie lokale oder über das Netzwerk startbare VMware ESX Maschinen installieren und verwalten lassen.

openQRM macht einen großen Schritt nach vorne

Zwar existiert openQRM bereits deutlich länger am Markt als OpenStack oder Eucalyptus. Dennoch ist der Bekanntheitsgrad beider Projekte größer. Das liegt vorwiegend an den großangelegten Marketing-Aktivitäten sowohl von der OpenStack Community als auch von Eucalyptus. Technologisch und Funktional muss sich openQRM aber keinesfalls verstecken. Im Gegenteil, openQRMs Funktionsumfang ist um ein Vielfaches mächtiger als der von OpenStack oder Eucalyptus. Wo sich die beiden ausschließlich auf das Thema Cloud konzentrieren, liefert openQRM zudem eine vollständige Data Center Management Lösung inklusive.

Auf Grund der langen Historie hat openQRM in den vergangenen Jahren viele neue und wichtige Funktionen erhalten. Allerdings ist dadurch ebenfalls ein wenig der Überblick verloren gegangen, was die Lösung überhaupt im Stande ist zu leisten. Wer jedoch verstanden hat, dass sich openQRM aus den ineinander integrierten Bausteinen "Data Center Management", "Cloud-Backend" und "Cloud-Portal" zusammensetzt, wird erkennen, dass ihm die Open-Source Lösung, insbesondere beim Aufbau von Private Clouds, einen Vorsprung gegenüber OpenStack und Eucalyptus ermöglicht. Speziell der Bereich Data Center Management darf für den Aufbau einer Cloud nicht vernachlässigt werden, um den Überblick und die Kontrolle über seine Infrastruktur zu behalten.

Mit der Version 5.0 wurde bereits damit begonnen die Strukturen zu schärfen und die einzelnen Funktionen zu Workflows zusammenzufassen. Dieses wurde durch das Release 5.1 noch einmal besser herausgearbeitet. Die neue Optik und Aufteilung des openQRM-Backends wurde vollständig überarbeitet, wirkt aufgeräumter und dadurch übersichtlicher in der Handhabung und wird alle Kunden positiv überraschen.

Die Erweiterung um die Hybrid-Cloud Funktionalität ist ein wichtiger Schritt für die Zukunft von openQRM. Das Ergebnis der Rackspace 2013 Hybrid Cloud Umfrage hat gezeigt, dass 60 Prozent der IT-Entscheider die Hybrid Cloud als Hauptziel vor Augen haben. Dabei wollen bzw. haben ebenfalls 60 Prozent ihre Applikationen und Workloads aus der Public Cloud abgezogen. 41 Prozent haben angegeben die Public Cloud teilweise verlassen zu wollen. 19 Prozent wollen die Public Cloud sogar vollständig verlassen. Die Gründe für den Einsatz einer Hybrid Cloud anstatt einer Public Cloud sind eine höhere Sicherheit (52 Prozent), mehr Kontrolle (42 Prozent) sowie eine bessere Performance und höhere Zuverlässigkeit (37 Prozent). Zu den Top Vorteilen, von denen Hybrid Cloud Nutzer berichten, gehören mehr Kontrolle (59 Prozent), eine höhere Sicherheit (54 Prozent), eine höhere Zuverlässigkeit (48 Prozent), Kostenvorteile (46 Prozent) und eine bessere Performance (44 Prozent).

openQRM orientiert sich dabei nicht überraschend am aktuellen Public Cloud Marktführer Amazon Web Services. Damit lässt sich die Cloud-Infrastruktursoftware ebenfalls in Kombination mit Eucalyptus und anderen Amazon kompatiblen Cloud-Infrastrukturen nutzen, um eine massiv skalierbare Hybrid-Cloud Infrastruktur aufzubauen. Dabei setzt openQRM auf sein bewährtes Plugin-Konzept und bildet Amazon EC2, S3 und Eucalyptus genau so ab. Amazon und Eucalyptus werden, neben eigenen Ressourcen aus einer privaten openQRM Cloud, damit zu einem weiteren Ressourcen Provider, um schnell und unkompliziert mehr Rechenleistung zu erhalten.

Zu den absoluten Killerfeatures gehören meiner Ansicht nach das automatische Applications Deployment mittels Puppet, mit dem End-Nutzer sich bequem und automatisiert EC2 Instanzen mit einem vollständigen Softwarestack selbst bereitstellen können, sowie die Berücksichtigung der Amazon Availability Zone übergreifenden High-Availability Funktionalität, die von vielen Cloud-Nutzern aus Unwissenheit immer wieder vernachlässigt wird. Aber auch die verbesserte Integration von VMware Technologien wie ESX Systemen sollte nicht unbeachtet bleiben. Schließlich ist VMware noch die führende Virtualisierungstechnologie am Markt. Damit erhöht openQRM ebenfalls seine Attraktivität, um als Open-Source Lösung zur Steuerung und Kontrolle von VMware Umgebungen eingesetzt zu werden.

Technologisch und Funktional ist openQRM auf einem sehr guten Weg in die Zukunft. Es muss allerdings mehr in die Öffentlichkeitsarbeit und das Marketing investiert werden.



Cloud Storage Box könnte Dropbox und Microsoft SkyDrive Marktanteile kosten

Um für private Anwender und kleine Unternehmen attraktiver zu werden, hat der Cloud Storage Anbieter Box sein Preismodell erweitert. Ab sofort kann neben den bestehenden Tarifen für Privatanwender, Business- und Enterprise-Kunden ebenfalls ein Starter-Tarif gewählt werden, der sowohl für kleine Unternehmen und Freelancer aber auch Privatkunden interessant ist.

Privatkunden bekommen mehr kostenlosen Speicherplatz, kleine Unternehmen einen eigenen Tarif

Das Angebot für private Nutzer wurde von ehemals kostenlosen 5GB auf 10GB erhöht. Zudem wurde das Portfolio um einen neuen Starter-Tarif erweitert, der sich insbesondere an kleinere Unternehmen richten soll. Dieser bietet 100GB Speicherplatz für 1 bis max. 10 Benutzer pro Unternehmensaccount für 4EUR pro Benutzer pro Monat.

Box, die in erster Linie große Unternehmen ansprechen, erhofft sich damit, dass kleinere Unternehmenskunden und Endkunden verstärkt ihre Daten in der Cloud speichern, anstatt diese auf fehleranfälligen lokalen Datenträgern speichern bzw. sichern. Nach Aussage von CEO Aaron Levie wird Box insbesondere durch die Themen Informationen und Collaboration vorangetrieben. Ob es sich nun um einen global agierenden Konzern, ein kleines Unternehmen oder einen Freelancer handelt, am Ende geht es darum, dass man in der Lage ist, Inhalte zu teilen und von überall darauf zuverlässig und sicher zuzugreifen, so Levie.

Der neue Starter-Tarif ist nur ein Haken

Man muss ehrlich sagen, dass der neue Start-Tarif sehr interessant ist, da er die Bedürfnisse einer bestimmten Zielgruppe erfüllt. Allerdings handelt es sich dabei nicht um kleine Unternehmen, sondern Freelancer und auf jeden Fall Privatanwender. Die Funktionen die um den Speicherplatz herum angeboten werden sind definitiv auf Unternehmenslevel. Neben diversen Sicherheitsfunktionen (keine Ende-zu-Ende Verschlüsselung) auf unterschiedlichen Ebenen, stehen Integrationsmöglichkeiten über Apps auf Basis eines Ökosystems von externen Entwicklern zur Verfügung. Jedoch sind 100GB für kleine Unternehmen viel zu wenig, zumal dieses Konto für 1 bis 10 Benutzer ausgelegt ist. 10 GB pro Nutzer wird sehr schnell sehr eng. Hinzu kommt, dass viele weitere interessante und wichtige Funktionen für Unternehmen erst mit der nächsten Tarifstufe "Business" für 12 EUR pro Benutzer pro Monat angeboten werden. Wobei mindestens drei Benutzer einzurichten sind. Dazu gehören dann 1000GB Speicherplatz sowie weitere Sicherheitsfunktionen auf Ordner- und Dateiebene pro Benutzer, Integrationsmöglichkeiten in eine Active Directory, Google Apps und Salesforce, eine erweiterte Benutzerverwaltung usw. Daher muss man zusammenfassend sagen, dass der Starter-Tarif einzig und alleine als Haken dient, um Unternehmen an Land zu ziehen.

Auf der anderen Seite ist dieser Tarif für Privatnutzer und Freelancer sehr interessant, die mehr Funktionen zu einem günstigeren Preis und zu einer ähnlichen Performance benötigen wie bei Dropbox. Denn, zwar wurde der kostenlose Privatkundentarif auf 10GB erweitert, dafür ist aber die kostenlose Obergrenze von 50GB weggefallen. Wer nun mehr als die 10GB benötigt, muss 100GB für 9 EUR pro Monat kaufen. Es macht daher also ebenfalls als Privatnutzer viel mehr Sinn, sich für einen Starter Tarif zu entscheiden und nur 4 EUR pro Monat bzw. 48 EUR pro Jahr zu bezahlen.

Der Starter Tarif kann durchaus dafür sorgen, dass Dropbox und Microsoft SkyDrive Marktanteile verlieren, wenn sich diese Erneuerung herum spricht. Insbesondere SkyDrive sollte sich warm anziehen. Zwar ist Microsofts Cloud Storage gut in die Windows Betriebsysteme integriert und weiterhin der preisgünstigste am Markt. Allerdings ist SkyDrive sehr langsam und die Benutzerfreundlichkeit ist unterdurchschnittlich. Nur um ein winziges aber entscheidendes Detail hervorzuheben, was Box ganz einfach besser macht. Die Transparenz, das was gerade im Hintergrund passiert. Zum Vergleich: Box hat eine kleine App unter Windows in welcher der Status angezeigt wird. Hier ist zu sehen: Der Fortschritt in Prozent; die ungefähre Zeit die noch verbleibt bis der Upload abgeschlossen ist; die Datei die gerade verarbeitet wird; wie viele Dateien noch verarbeitet werden müssen; wie viele Dateien insgesamt verarbeitet werden. Microsoft SkyDrive zeigt nix von alledem an. Man wird als Nutzer vollständig im dunklen stehen gelassen.

Dropbox ist als Performancekönig bekannt. Auch die Benutzerfreundlichkeit ist gut. Dennoch hat der Box Starter Tarif, auf Grund seiner erweiterten Funktionsmöglichkeiten zu einem günstigeren Preis und einer ähnlichen Performance, durchaus das Potential Dropbox Konkurrenz zu machen.

Anmerkung: Aufgrund der aktuellen Sicherheitslage wird darauf hingewiesen, dass Box ein U.S. amerikanischer Anbieter ist und die Daten in den USA gespeichert werden. Zwar werden diese dort Serverseitig verschlüsselt gespeichert. Box bietet allerdings keine Ende-zu-Ende Verschlüsselung an (nur SSL bei der Übertragung). Die Schlüssel für die auf Box' Infrastruktur verschlüsselt gespeicherten Daten befinden sich ebenfalls im Besitz von Box und nicht des Benutzers. Aus diesem Grund hat Box zu jeder Zeit die Möglichkeit Daten eigenständig zu entschlüsseln, um Dritte darauf Zugriff zu gewähren.



Google Apps vs. Microsoft Office 365: Was sagen die vermuteten Marktanteile wirklich aus?

Im Blog von UserActivion wird in regelmäßigen Abständen die Verbreitung der Office und Collaboration Lösungen von Google Apps und Microsoft Office 356 verglichen. Ich bin zufällig auf die Marktanteile pro Branche aufmerksam geworden, danke Michael Herkens. Das Ergebnis ist aus dem Juli und zeigt die Marktanteile beider Cloud Lösungen für den Monat Juni. Der Beitrag zeigt ebenfalls einen Vergleich zum Vormonat Mai. Was dabei auffällt ist, dass Google Apps in jeder Branche mit Abstand vorne liegt. Bei der Größe und generellen Verbreitung von Microsoft ist das schon ungewöhnlich. Daher lohnt sich ein Blick hinter die Kulissen.

Google Apps mit klaren Vorsprung vor Office 365

Glaubt man den Zahlen von UserActivion, liegt Google Apps mit einem deutlichen Vorsprung in den Branchen Handel (84,3 Prozent), Technologie (88,2 Prozent), Bildung (77,4 Prozent), Gesundheitswesen (80,3 Prozent) und Regierungen (72,3 Prozent) vorne.

Im weltweiten Vergleich sieht es ähnlich aus. Allerdings hat Office 365 zum Mai in Nordamerika, Europa und Skandinavien etwas aufgeholt. Dennoch liegt das aktuelle Verhältnis laut UserActivion bei 86:14 für Google Apps. In Ländern wie Norwegen und Denmark ist ein ausgeglichenes 50:50 Verhältnis.


Quelle: useractivation.com


Quelle: useractivation.com

Haben die Google Apps Martkanteile eine Aussagekraft?

Diese Frage ist relativ einfach zu beantworten. Sie haben eine Aussagekraft was die Verbreitung von Google Apps angeht. Allerdings sagen sie nichts darüber aus, was für einen Umsatz Google mit diesen Marktanteilen macht. Denn gemessen daran dürfte das Verhältnis zwischen Google Apps und Office 365 etwas anders aussehen. Warum?

Nun, Google Apps hat mittlerweile so einen großen Marktanteil, weil die Google Apps Standard Version (existiert nicht mehr) für eine bestimmte Anzahl von Nutzern und die Google Apps for Education sehr sehr lange kostenlos genutzt werden konnte. Die Education Version ist weiterhin kostenlos. Das führt natürlich dazu, dass ebenfalls sehr sehr viele Nutzer, die über eine eigene Domain verfügen, sich für eine kostenlose Google Apps Standard Version entschieden haben, die auch nach der Abkündigung der Version weiterhin genutzt werden darf. Die einzige Einschränkung sind die maximalen Benutzer pro Domain.

So kommt es zum Beispiel dazu, dass alleine ich als einzelne Person in den vergangenen Jahren neun (9) Google Apps Standard Accounts registriert habe. Die meisten habe ich immer noch. Davon nutze ich derzeit zwei (Standard, Business) aktiv und bezahle für einen (Business).

Die Google Apps Marktanteile müssen daher wie folgt herunter gebrochen werden:

  • Google Apps Nutzer.
  • Nicht aktive Google Apps Nutzer.
  • Aktive Google Apps Nutzer die nicht bezahlen.
  • Aktive Google Apps Nutzer die bezahlen.

Wird dieses Verhältnis nun gewichtet und auf die Marktanteile in Bezug auf den Umsatz angewendet, würde Microsoft deutlich besser abschneiden. Warum?

Am Ende des Tages geht es ums harte Geld. Microsoft hat von Beginn an nichts zu verschenken. Zwar kann Office 365 für kurze Zeit kostenlos getestet werden. Anschließend fällt aber die Entscheidung für einen kostenpflichtigen Tarif oder nicht. Das bedeutet, dass davon auszugehen ist, dass jeder Office 365 Kunde, der sich nicht mehr in der Testphase befindet, gleichzeitig ein aktiver und zahlender Nutzer ist. Sicherlich erhält Google von den nicht zahlenden aktiven Nutzern Einblicke über deren Verhalten und kann ein bisschen Werbung platzieren. Bleibt aber die Frage offen, wie viel das wirklich ausmacht.

Das heißt nicht, dass Google Apps keine große Verbreitung hat. Aber es zeigt, dass die Strategie von Google zumindest in eine Richtung aufgeht. Accounts verschenken, um darüber Marktanteile zu erhalten zahlt sich (logischerweise) aus. Zudem zeigt es, dass Marktanteile nicht gleichzeitig Profitabilität bedeuten. Die meisten Menschen nehmen gerne etwas an was sie kostenlos bekommen - das Internet-Prinzip. Dass auch Google langsam damit beginnen muss seine Kundenbasis zu monetarisieren lässt sich durch die Abkündigung der kostenlosen Standardversion erkennen. Die kritische Masse scheint erreicht worden zu sein.

Microsoft war mit Office 365 im Vergleich zu Google Apps erst spät am Markt und muss erst einmal kräftig aufholen. Hinzu kommt, dass Microsoft (scheinbar) nichts zu verschenken hat. Ausgehend davon, dass die Zahlen von UserActivion valide sind, kann ein weiterer Grund durchaus darin bestehen, dass die Webseiten und das Angebot von Office 365 - im Vergleich zu Google Apps - viel zu undurchsichtig und kompliziert sind. (Tipp: Einfach mal die Webseiten besuchen.)

Google kopiert das Microsoft Prinzip

Abschließend lässt sich auf Basis der UserActivion Zahlen sagen, dass Google auf dem Besten Weg ist, dass Microsoft-Prinzip auf sich selbst anzuwenden. Microsofts Weg in die Unternehmen ging damals über die Heimanwender von Windows, Office und Outlook Produkten. Die Strategie ging auf. Wer auch am Abend mit den bekannten Programmen aus Redmond arbeitet, hat es tagsüber bei der Arbeit leichter, da er sich damit auskennt. Auch die Empfehlungen für ein Produkt von Microsoft durch die Mitarbeiter war dadurch vorprogrammiert. Dasselbe galt für die Windows Server. Wenn ein Windows Betriebssystem so einfach zu bedienen und zu konfigurieren ist, dann kann ein Server schließlich nicht viel komplizierter sein. Damit konnten auch die Entscheider ins Boot geholt werden.
Ein ähnliches Prinzip lässt sich bei Google erkennen. Google Apps ist nichts anderes als ein Best of der Google Services für Enduser, GMail, GDocs usw. verpackt in einer Suite. Die Verbreitung dieser Services ist mittlerweile ebenfalls relativ hoch, wodurch davon auszugehen ist, dass die meisten IT-Entscheider damit vertraut sind. Es bleibt daher weiter spannend zu sehen, wie sich die echten(!) Marktanteile zwischen Google Apps und Office 365 entwickeln.



Die eigene Community Cloud! – PRISM Break für Profis oder die es werden wollen

Wie kommen wir aus der Cloud heraus ohne ihre Komfortzone zu verlieren. Diese Fragen ließt man in den letzten Tagen regelmäßig. Ich bin der Meinung, dass man sich nicht zwangsläufig aus der Cloud zurückziehen muss, sondern einfach versuchen sollte, mehr Kontrolle zurückzugewinnen. Dieser Beitrag liefert Ansätze für eine professionelle PRISM Break Cloud Strategie und empfiehlt Lösungen und Anbieter die dafür in Betracht gezogen werden sollten. Darüber hinaus habe ich in diesem Zusammenhang meine Gedanken zur Community Cloud eingebracht, die ich schon seit Anfang diesen Jahres mit mir herumtrage, aber noch nicht dazu gekommen bin nieder zu schreiben. Denn die Community Cloud wird in meinen Augen immer mehr an Bedeutung gewinnen. Der Bedarf und vor allem das Verständnis hierfür muss nur geweckt werden. Tenor: "Aufbau einer eigenen echten(!) Hosted Private Cloud, betrieben von einer Gemeinschaft die sich vertraut." Das ist sowohl für Unternehmen, Organisationen, Bürogemeinschaften und regelmäßige Projektpartner interessant.

Gründe für eine Community Cloud

Was ist eine Community Cloud?

Innerhalb einer Community Cloud schließen sich Unternehmen einer gleichen Branche zusammen und fassen ihren eigenen Private Clouds zu einer Community Cloud zusammen, die nur exklusiv diesen Mitgliedern zugänglich ist. Community Clouds bieten sich an, wenn Unternehmen dieselben Anforderungen und Aufgaben haben und die Infrastruktur auf ähnliche Weise nutzen wollen. Der Vorteil einer Community Cloud besteht in der Reduzierung des Kapazitätsbedarfs und somit einer verbesserten Ressourcenallokation auf Grund der gemeinsamen Nutzung von Ressourcen. Dies führt zu einer Kostenreduzierung und verringert den allgemeinen Overhead. Abgesehen von der darunterliegenden Infrastruktur können alle Mitglieder der Community Cloud ebenfalls dieselben Services und Applikationen gemeinsam nutzen.

Ein sehr gutes Beispiel für eine Community Cloud ist das ENX Netzwerk, ein Zusammenschluss der "europäischen Automobilindustrie für den sicheren Austausch kritischer Entwicklungs-, Einkaufs-, und Produktionssteuerungsdaten." Das ENX bietet den angeschlossenen Automobilherstellern- und Lieferanten unternehmensübergreifende Managed Security Services und einen einheitlichen Service Level des darunter liegenden Netzwerkes. Gleichzeitig ist das ENX Netzwerk für die angeschlossenen Nutzer so offen und flexibel gestaltet wie das öffentliche Internet.

Die Bedeutung der Community Cloud wird zunehmen

Bereits das Ergebnis einer BITKOM Studie im Februar 2013 hat gezeigt, dass im Jahr 2012 immerhin 34 Prozent der deutschen Unternehmen auf eine Private Cloud setzen und 29 Prozent planen, diese Cloud-Form in Zukunft einzusetzen. Der Grund dafür liegt in der Angst vor einem Datenverlust in der Public Cloud begründet. Das sagten zumindest 79 Prozent.

Während eines Vortrags bei einem Unternehmen dessen Namen ich nicht nennen darf und mit Folien die nicht öffentlich zugänglich sind, habe ich in meinen zukünftigen Cloud-Trends die Treiber für die steigende Bedeutung von Community Clouds aufgezeigt.

Ich habe dabei die drei Treiber als "höhere Zukunftssicherheit", "größeres Vertrauen" und "weniger Abhängigkeit/ mehr Kontrolle" charakterisiert. Es sind exakt die Themen, die auch in aktuellen Diskussionen immer wieder aufkommen. Damals, im März 2013, habe ich die "höhere Zukunftssicherheit" am Beispiel der Schließung vom Google Reader festgemacht. Da die Nutzer sich nicht sicher sein können, wie lange ein Cloud Service überhaupt überlebt. Als Beispiel für "größeres Vertrauen" mussten die mittlerweile bestätigten Berichte, dass Amazon AWS eine Cloud für die CIA bauen soll, herhalten. Schließlich sollte man schon stutzig werden, wenn ein Marktführer mit einem Geheimdienst zusammenarbeitet - wie wir mittlerweile alle feststellen durften... Den Grund für "(weniger) Abhängigkeit" habe ich aus dem Zeit-Artikel "Das autarke Dorf", der im selben Zeitraum erschienen ist und bei dem es darum geht, dass ein kleines Dorf in Brandenburg sich unabhängig von den Energiekonzernen gemacht hat und dort sogar ein eigenes Stromnetz besitzt. Cloud Computing = Utility Computing = Stromnetz...

Maximale Zentralität >> Semi-Dezentralität

Allein auf Grund dieser drei Treiber, plus den aktuellen Diskussionen, sehe ich ein wachsendes Potential für die Community Cloud, die derzeit noch keine große Verbreitung hat. In diesem Zusammenhang sehe ich zudem einen Wechsel von einer zurzeit stark ausgeprägten Zentralität zu einer Semi-Dezentralität.

Die meisten Unternehmen und Organisationen sehen in der Public Cloud einen großen Vorteil und wollen in ihren Genuss kommen, um Kosten zu reduzieren, ihre IT zu konsolidieren und gleichermaßen mehr Skalierbarkeit und Flexibilität erhalten. Auf der anderen Seite sind Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle wichtige Artefakte, die niemand gerne aufgeben möchte.

Die Community Cloud ist der Mittelweg, um beides zu erreichen. Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle durch den Einfluss, was in der Community Cloud passiert und die Vorteile einer Public Cloud, durch das Partizipieren von einer echten Cloud Infrastruktur.

Wie wäre es mit einer Hosted Community Cloud? Mehr unten.

Der Cloud Computing Stack

Cloud Computing setzt sich grundlegend aus Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS) zusammen. Je nach Bedarf und Anwendungsfall ist es nicht ganz einfach eine äquivalente Ersatzlösung für die eigene Cloud zu finden. Für den Aufbau einer eigenen professionellen Cloud-Basis stehen aber mittlerweile ausreichend Lösungen zur Verfügung.

Viel Wert sollte hier in jedem Fall auf die grundlegende Infrastruktur - Infrastructure-as-a-Service - gelegt werden, da diese für die Skalierbarkeit und Verfügbarkeit der gesamten Cloud-Umgebung zuständig ist. Wer hier meint, dass ein einfacher virtueller Server oder ein physikalischer Host ausreicht, handelt fahrlässig und wird früher oder später Probleme bekommen.

Mein ausdrücklicher Rat: Unten drunter unbedingt eine IaaS-Lösung bauen und mit ausreichend Hardware (siehe die empfohlenen Setups hier auf CloudUser oder in den jeweiligen Communities der Projekte) ausstatten, um für Skalierbarkeit und Fehlertoleranz zu sorgen. Weiterhin bedenken, dass jeder virtuelle Server der gestartet wird, physikalische Hardware benötigt um betrieben zu werden. Aus diesem Grund ausreichend physikalische Ressourcen berücksichtigen.

Professionelle Infrastrukturlösungen und Services

Diese Liste führt nur Lösungen auf, die Basisfunktionen für eine eigene professionelle Cloud liefern.

Infrastructure-as-a-Service

OpenStack
OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Mehr unter OpenStack – Ein Überblick.

Eucalyptus
Bei Eucalyptus handelt es sich um eine Open Source Software Infrastruktur zum Aufbau von skalierbaren Cloud Computing Umgebungen für spezielle Clustersysteme oder einfachen miteinander verbundenen Arbeitsplatzrechnern. Eucalyptus wurde als ein Forschungsprojekt am Computer Science department an der University of California Santa Barbara entwickelt und wird mittlerweile von der Eucalyptus Systems Inc. vermarktet. Die Software wird aber weiterhin als Open Source Projekt gepflegt und weiterentwickelt. Die Eucalyptus Systems Inc. bietet darüber hinaus lediglich weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an. Eucalyptus ist ein Klon der grundlegenden Funktionen der Amazon Web Services Infrastruktur für die Private Cloud. Auf Basis einer exklusiven Partnerschaft wird das Service-Portfolio stetig angeglichen.

Mehr unter Eucalyptus – Eine Open Source Infrastruktur für die eigene Cloud.

openQRM
openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen. Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können. Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von “P-to-V”, “V-to-P” und “V-to-V”.

Mehr unter openQRM – Die Cloud Computing Plattform für Rechenzentren.

Hier gibt es eine konkrete Anleitung zum Aufbau einer Hosted Private Cloud mit openQRM.

Platform-as-a-Service

Red Hat OpenShift
Das Origin Projekt dient der Verbesserung der OpenShift Plattform, indem ständig Code Optimierungen in den PaaS einfließen. Dieser läuft aktuell auf der Infrastruktur der Amazon Web Services und steht im direkten Wettbewerb zu VMwares Cloud Foundry. Der Origin Quellcode steht auf GitHub bereits zum Download bereit und ermöglicht Entwicklern eine OpenShift Installation auf dem eigenen Laptop oder einem Server im Intranet oder Rechenzentrum zu nutzen.

Mehr unter OpenShift Origin.

WSO2 Stratos
WSO2 Stratos ist ein Open-Source Polyglot PaaS mit einer Unterstützung verschiedener Programmiersprachen, mit dem ein application Platform-as-a-Service (aPaaS) realisiert werden kann. Der Kern bildet die WSO2 Stratos PaaS Foundation, die speziell auf die Cloud ausgelegt ist und unter anderem Funktionen für Multi-Tenancy, Skalierung, Self-Service Bereitstellung, Metering, Abrechnung und Ressource-Pooling bietet.

Mehr unter WSO2 Stratos.

cloudControl Application Life Cycle Engine
Die Application Lifecycle Engine ist als Middleware zwischen der grundlegenden Infrastruktur und der eigentlichen Applikationen zu verstehen (PaaS Konzept) und bietet eine vollständige Laufzeitumgebung für Anwendungen. Damit erhalten Entwickler die Möglichkeit, sich auf die Entwicklung ihrer Applikation zu konzentrieren und können unbequeme Prozesse und die Bereitstellung übernehmen lassen. Die Application Lifecycle Engine ermöglicht es großen Unternehmen einen eigenen Private PaaS in einer selbstverwalteten Infrastruktur zu betreiben, um sich damit die Vorteile der Cloud auch in die eigenen vier Wände zu holen. Die Plattform setzt dazu auf offene Standards und verspricht damit einen Vendor-Lock-in zu vermeiden. cloudControl spannt zudem eine hybride Brücke, indem bereits auf cloudControls Public PaaS entwickelte Anwendungen im Private PaaS und umgekehrt betrieben werden können. Für den Betrieb der Application Lifecycle Engine wird OpenStack als IaaS-Lösung vorausgesetzt.

Mehr unter Application Lifecycle Engine: cloudControl veröffentlicht Private Platform-as-a-Service.

Software-as-a-Service

Open-Xchange
Open-Xchange ist für alle interessant, die Google Apps oder Microsoft Office 365 nicht trauen, lieber einen Anbieter mit einem Rechenzentrum in Deutschland haben möchten oder doch lieber alles selbst machen. Eine hohe Verbreitung hat bzw. bekommt Open-Xchange durch eine kommerzielle White-Label Lizenz an Hosting- und Telekommunikationsanbieter, die ihren Kunden OX App Suite damit als Software-as-a-Service (SaaS) anbieten können. Weiterhin richtet sich die Lösung an Systemintegratoren und VARs, die OX App Suite als Managed Service oder für Inhouse-Installationen nutzen wollen.

Mehr unter Open-Xchange: Die gehostete Alternative zu Google Apps und Microsoft Office 365.

TeamDrive
TeamDrive ist eine Filesharing und Synchronisations-Lösung für Unternehmen, die ihre sensiblen Daten nicht bei externen Cloud-Services speichern wollen und es ihren Teams zudem ermöglichen möchten, Daten oder Dokumente zu synchronisieren. Dazu überwacht TeamDrive beliebige Ordner auf einem PC oder Notebook, die man mit eingeladenen Anwendern gemeinsam nutzen und bearbeiten kann. Damit stehen Daten jederzeit, auch offline zur Verfügung. Eine automatische Synchronisation, Backups und Versionierung von Dokumenten schützen die Anwender vor Datenverlust. Mit der Möglichkeit die TeamDrive Registration- und Hosting-Server im eigenen Rechenzentrum zu betreiben, lässt sich TeamDrive in vorhandene IT-Infrastrukturen integrieren. Dafür stehen alle notwendigen APIs zur Verfügung.

Mehr unter TeamDrive: Dropbox für Unternehmen.

ownCloud
ownCloud ist eine Open-Source Filesync- und –sharing-Lösung für Unternehmen und Organisationen, die ihre Daten weiterhin selbst unter Kontrolle behalten möchten und nicht auf externe Cloud-Storages zurückgreifen wollen. Der Kern der Anwendung besteht aus dem ownCloud Server über welchen sich die Software zusammen mit den ownCloud-Clients nahtlos in die existierende IT-Infrastruktur integriert und die Weiternutzung bereits vorhandener IT-Management-Tools ermöglicht. ownCloud dient als lokales Verzeichnis, bei dem unterschiedliche lokale Speicher gemountet werden. Dadurch stehen die entsprechenden Dateien allen Mitarbeitern auf allen Geräten zur Verfügung. Neben einem lokalen Storage können ebenfalls Verzeichnisse über NFS und CIFS angebunden werden.

Mehr unter Sicherheitsvergleich: TeamDrive vs. ownCloud.

SugarCRM
SugarCRM ist eine Open-Source Customer-Relationship-Management Lösung und basiert auf der Skriptsprache PHP. Als Datenbanksystem können neben MySQL und der dazu binärkompatiblen MariaDB auch Microsoft SQL Server verwendet werden.

Mehr unter SugarCRM Community Edition.

Alles selber machen

Nachdem man sich für entsprechende Alternativen entschieden hat, geht es erst richtig los. Entweder man betreibt alles in einer eigenen Private Cloud oder lagert bestimmte Teile aus.

Der Betrieb im eigenen Rechenzentrum ist eine Variante. Dabei gilt bei dem Betrieb jedoch mindestens(!) eines zu beachten. Ein Server reicht für die Ansprüche an ein Hochverfügbarkeits- oder gar Cloud-Szenario nicht aus. Hier sollte man sich zunächst darauf konzentrieren, eine Cloud Infrastruktur auf Basis von openQRM, OpenStack oder Eucalyptus aufzubauen, auf der dann der restliche PaaS- bzw. SaaS-Stack betrieben wird. Vernachlässigen sollte man ebenfalls nicht, das Kollaborationsumgebungen und anderweitige Cloud-Lösungen von ihrem Zugriff abhängen. Sei es nun über den Webbrowser oder das mobile Endgerät. Warum macht z.B. ein Cloud-Storage Sinn? Weil ich u.a. von überall aus darauf zugreifen kann. Das bedeutet der Überall-Zugriff auf die Cloud Infrastruktur ist zwingend erforderlich, was auch Auswirkungen auf die Bandbreite der jeweiligen Internetanbindung, bevorzugt den Upload, hat.

Weiterhin darf der Betrieb, die Wartung und alles was mit IT-Infrastrukturen zusammenhängt nicht vernachlässigt werden. Das ist nicht einfach!

Public IaaS aus Deutschland als Basis

Weiterhin besteht die Möglichkeit, die Infrastruktur bei einem Webhoster z.B. aus Deutschland oder Island zu betreiben. Aber Vorsicht, um die Verfügbarkeit von Public Cloud-Services zu erhalten, reicht es bei weitem nicht aus, sich einfach nur einen virtuellen Server aufzusetzen. Da sollte man sich eher Gedanken über die Hochverfügbarkeit machen, welche die Software selbst nicht mitbringen. Wir reden an dieser Stelle einfach nur von Software. Für Hochverfügbarkeit sorgen dann wiederum IaaS Lösungen wie openQRM, Eucalyptus oder auch OpenStack. Aber bitte nicht vergessen: IaaS bedeutet Infrastruktur = u.a. Hardware für die entsprechende Virtualisierung. Zudem reicht ein Server bei weitem nicht, um die Verfügbarkeit und Eigenschaften einer Cloud zu erreichen. Eucalyptus bspw. empfiehlt für den professionellen Einsatz mindestens fünf physikalische Systeme.

ProfitBricks als deutsche IaaS-Basis

Wer auf den komplexen Aufbau der Infrastruktur für die Skalierbarkeit und Hochverfügbarkeit der Cloud verzichten möchte, kann auch zu einem deutschen IaaS Anbieter gehen. Hier ist z.B. ProfitBricks zu empfehlen. Bei ProfitBricks ist sichergestellt, dass man Zugriff auf eine echte Cloud-Infrastruktur in einem deutschen Rechenzentrum erhält.

ProfitBricks liefert nach Bedarf skalierbare virtuelle Server, die granular mit Cores, Arbeitsspeicher und Block Storage (für den eigenen Cloud Storage) ausgestattet werden können. In diesem Fall muss man sich selbst nur um das Design der virtuellen Infrastruktur - wird über eine graphische Weboberfläche, dem Data Center Designer, vorgenommen - kümmern. Der Vorteil zu einem gewöhnlichen Webhoster - die maximale Skalierbarkeit und Hochverfügbarkeit. Das ist insbesondere für eine Community Cloud besonders wichtig.

Anschließend muss auf der fertigen virtuellen Infrastruktur nur noch die entsprechende Software installiert und den Bedürfnissen nach angepasst werden. Die eigene Community Cloud kann man sich in diesem Fall sogar für ein "Taschengeld" leisten - und das trotz eines Höchstmaß an Skalierbarkeit, Hochverfügbarkeit und einem Überall-Zugriff. Die Sicherung/ Verschlüsselung der Datenverbindungen darf natürlich nicht vergessen werden.

Es sei angemerkt, dass es natürlich auch noch ein paar andere Cloud IaaS Anbieter aus Deutschland gibt. Jedoch ist ProfitBricks der einzige Public Cloud Anbieter, der seine Infrastruktur mit einer maximalen Granularität abrechnet und zudem noch ein echter Performer (Geschwindigkeit) mit einem 24h Support ist. Weiterhin sind noch domainFactory mit der JiffyBox und Internet4You mit internet4YOU NOW! genannt.

Hosted Community Cloud in Betracht ziehen

Wie man sieht, stehen mittlerweile einige Lösungen bereit, die als Basis für die eigene professionelle Cloud genutzt werden können. Dabei sollte man jedoch immer ein Auge auf die grundlegende Infrastruktur richten, die das Rückgrat der gesamten Cloud bildet. In diesem Zusammenhang darf man allerdings auch nicht den Aufwand unterschätzen, den es bedeutet, eine professionelle Cloud-Umgebung aufzubauen, ordnungsgemäß zu betreiben und zu warten. Weiterhin sind die Kosten für die notwendigen physikalischen Ressourcen zu kalkulieren.

Aus diesem Grund macht es für viele kleinere und mittlere Unternehmen, aber auch Bürogemeinschaften, Co-Working Spaces oder regelmäßige Projektpartnerschaften Sinn, den Community Cloud Gedanken in Betracht zu ziehen, um in den Genuss der Public Cloud (Shared Umgebung) zu kommen aber weiterhin Einfluss auf die Zukunftssicherheit, das Vertrauen, die Abhängigkeit und Kontrolle der Umgebung zu haben und Kostenvorteile u.a. durch Ressourcenallokation zu erzielen. Hierzu sollte man sich zudem überlegen, ein Team aufzubauen, dass sich exklusiv um den Aufbau, Betrieb, die Administration und Wartung der Community Cloud kümmert. Vergleiche dazu das ENX-Netzwerk. Dafür ist kein eigenes Rechenzentrum oder eine Co-Location erforderlich. Ein IaaS-Anbieter kann dazu als ideale Basis für eine Hosted Community Cloud dienen.



Prism – Der Albtraum der US Tech-Industrie

Als Lenker eines US-Tech Konzerns hat man mit Sicherheit schon bessere Tage erlebt. Was da derzeit am Himmel heraufzieht sollte den Strategen bei Google, Amazon & Co. Sorgenfalten auf die Stirn treiben. Die Enthüllungen rund um Prism haben ohnehin schon einen riesigen Schaden in Sachen Image und Vertrauen bei amerikanischen IT-Majors angerichtet. Was alleine schon schlimm genug wäre, bedenkt man, dass gerade beim Thema Cloud Computing diese Faktoren sehr schwer wiegen. Continue reading “Prism – Der Albtraum der US Tech-Industrie” »



Google erweitert die Compute Engine um Load Balancer Funktionalität. Aber wo bleibt die Innovationsmaschine?

In einem Blogpost hat Google weitere Erneuerungen an seiner Cloud Platform bekanntgeben. Neben der Erweiterung und Verbesserung des Google Cloud Datastore und der Ankündigung der Google App Engine 1.8.3, hat das Infrastructure-as-a-Service (IaaS) Angebot Google Compute Engine nun einen Load Balancing Service erhalten.

Neues vom Google Cloud Datastore

Um die Produktivität von Entwicklern weiter zu erhöhen, hat Google seinen Cloud Datastore um mehrere Funktionalitäten erweitert. Dazu gehören die Google Query Language (GQL). Die GQL ist eine SQL-ähnliche Sprache und richtet sich speziell an datenintensive Applikationen, um Entities und Keys aus dem Cloud Datastore abzufragen. Weiterhin lassen sich über die Abfrage von Metadaten weitere Statistiken von den darunterliegenden Daten erhalten. Google sieht darin einen Vorteil, um bspw. eigene interne Administrationskonsolen zu entwickeln, eigene Analysen vorzunehmen oder eine Anwendung zu debuggen. Zudem wurden Verbesserungen an dem lokalen SDK vorgenommen. Dazu gehören Erweiterungen am Kommandozeilen Tool sowie eine Unterstützung für Entwickler, die Windows einsetzen. Nachdem der Cloud Datastore in seiner ersten Version die Sprachen Java, Python und Node.js unterstützt hat, wurde nun auch Ruby hinzugefügt.

Google App Engine 1.8.3

Die Erneuerungen der Google App Engine Version 1.8.3 richten sich überwiegend an die PHP Laufzeitumgebung. Weiterhin wurde die Integration mit dem Google Cloud Storage, der nach Aussagen von Google an Beliebtheit gewinnt, verstärkt. Ab sofort können über Funktionen wie opendir() oder writedir() direkt auf die Buckets des Cloud Storage zugegriffen werden. Weiterhin können über is_readable() und is_file() weitere stat()-ing Informationen abgefragt werden. Ebenfalls lassen sich nun Metadaten an die Dateien im Cloud Storage anhängen. Zudem wurden anhand eines durch memcache realisierten „Optimistic Reading Cache“ Verbesserungen im Hinblick auf die Performance vorgenommen. Insbesondere die Geschwindigkeit von Anwendungen, welche regelmäßig von derselben Datei im Cloud Storage lesen, soll sich damit erhöhen.

Load Balancing mit der Compute Engine

Die Google Compute Engine wurde um eine Layer 3 Load Balancing Funktionalität erweitert, mit der sich nun auch auf Googles IaaS Angebot skalierbare und fehlertolerante Web-Applikationen entwickeln lassen. Mit der Load Balancing Funktion lässt sich der eingehende TCP/UDP Traffic über unterschiedliche Compute Engine Maschinen (virtuelle Maschinen) innerhalb derselben Region verteilen. Zudem kann damit sichergestellt werden, dass keine fehlerhaften virtuellen Maschinen eingesetzt werden, um HTTP-Anfragen zu beantworten und Lastspitzen ausgeglichen werden. Die Konfiguration des Load Balancer erfolgt entweder per Kommandozeile oder über die REST-API. Die Load Balancer Funktion kann noch bis Ende 2013 kostenlos genutzt werden, anschließend wird der Service kostenpflichtig.

Google holt viel zu langsam auf

Zwei wichtige Erneuerungen stechen bei den Neuigkeiten zur Google Cloud Platform hervor. Zum einen die neue Load Balancing Funktion der Compute Engine, zum anderen die bessere Integration der App Engine mit dem Google Cloud Storage.

Die Load Balancing Erweiterung kommt zugegebenermaßen viel zu spät. Schließlich handelt es sich dabei um eine der essentiellen Funktionen eines Cloud Infrastruktur Angebots, um dafür zu sorgen, skalierbare und hochverfügbare Systeme zu entwickeln und welche alle anderen bestehenden Anbieter am Markt bereits im Portfolio haben.

Die erweiterte Integration des Cloud Storage mit der Google App Engine ist insofern wichtig, um Entwicklern mehr S3-ähnliche Funktionen aus dem PaaS heraus zu bieten und damit mehr Möglichkeiten im Hinblick auf den Zugriff und die Verarbeitung von Daten in einem zentralen und skalierbaren Speicherort zu bieten.

Unterm Strich kann man sagen, dass Google sein IaaS Portfolio weiter stetig ausbaut. Was dabei allerdings auffällt, ist die sehr langsame Geschwindigkeit. Von der Innovationsmaschine Google, die man aus vielen anderen Bereichen des Unternehmens kennt, ist gar nichts zu erkennen. Google erweckt den Eindruck, dass es IaaS anbieten muss, um nicht allzu viele Entwickler an die Amazon Web Services und andere Anbieter zu verlieren, die Compute Engine aber nicht hoch priorisiert hat. Dadurch wirkt das Angebot sehr stiefmütterlich behandelt. Das zeigt z.B. die sehr späte Erweiterung um das Load Balancing. Ansonsten dürfte man von einem Unternehmen wie Google erwarten, mehr Ehrgeiz und Geschwindigkeit in den Ausbau des Angebots zu investieren. Schließlich sind bei keinem anderen Unternehmen, mit Ausnahme von Amazon, mehr Erfahrungen im Bereich hochskalierbarer Infrastrukturen vorhanden. Dies sollte sich relativ schnell in ein öffentliches Angebot umwandeln lassen, zumal Google gerne damit wirbt, das Kunden dieselbe Infrastruktur nutzen können, auf der ebenfalls sämtliche Google Services betrieben werden. Abgesehen von der App Engine, die jedoch im PaaS-Markt einzuordnen ist, muss sich die Google Compute Engine weiterhin hinten anstellen, was auch noch eine längere Zeit der Fall sein wird, wenn nicht die Geschwindigkeit forciert wird und weitere essentielle Services ausgerollt werden.



Cloud Computing benötigt professionelle, unabhängige und vertrauenswürdige Zertifizierungen

Ich hatte vor über einem Jahr bereits über denn Sinn und Unsinn von Cloud Siegeln, Zertifikaten, Verbänden und Initiativen geschrieben. Ich bin damals schon zu dem Ergebnis gekommen, dass wir vertrauenswürdige Zertifizierungen benötigen. Allerdings sah der deutsche Markt eher schwach aus und wurde neben EuroCloud von weiteren Interessenvertretung wie der "Initiative Cloud Services Made in Germany" oder "Deutsche Wolke" vertreten. Aber es gibt mittlerweile einen vielversprechenden unabhängigen Neuling.

Ergebnisse aus dem letzten Jahr

"Cloud Services Made in Germany" und "Deutsche Wolke"

Was Initiativen im Allgemeinen gemeinsam haben ist, dass Sie mit diversen Versprechen versuchen, so viele Anbieter von Cloud Computing Services wie möglich in die eigenen Reihen zu lotsen. Vor allem "Cloud Services Made in Germany" springt auf das vermeintliche Qualitätsmerkmal Made in Germany auf und verspricht dabei "Mehr Rechtssicherheit bei der Auswahl von Cloud-basierten Diensten...".

Und exakt so positionieren sich "Cloud Services Made in Germany" und "Deutsche Wolke". Mit schwachen Bewertungskriterien machen sich beide sehr attraktiv für Anbieter aus Deutschland, die mit dem "Aufkleber" wiederum auf ihren Webseiten Werbung machen können. Jedoch wird in den Kriterien in keinster Weise auf die wirkliche Qualität eines Service eingegangen. Darf sich der Service wirklich Cloud Service nennen? Wie ist das Abrechnungsmodell? Sorgt der Anbieter für eine Cloud Computing konforme Skalierbarkeit und Hochverfügbarkeit? Und viele weitere Fragen, die essentiell wichtig sind, um die Qualität eines Cloud Service zu bewerten!

Beide Initiativen haben in Ihrer Form auf jeden Fall eine Berechtigung. Sollten allerdings nicht als ein Qualitätskriterium für einen guten Cloud-Service genutzt werden. Stattdessen gehören Sie in die Kategorie "Patriotismus: Hallo Welt, schaut mal wir Deutschen können auch Cloud."

EuroCloud und Cloud-EcoSystem

Neben beiden Initiativen gibt es noch die Vereine EuroCloud und Cloud-EcoSystem, welche beide mit Gütesiegel und Zertifikat werben. EuroCloud hat dafür seinen SaaS Star Audit im Angebot. Der SaaS Star Audit richtet sich, wie der Name schon sagt, ausschließlich an Software-as-a-Service Anbieter. Je nach Wunsch und Geldbeutel kann sich dieser vom EuroCloud Verband mit einem bis fünf Sternen auszeichnen lassen, wobei der Anbieter ebenfalls Mitglied des EuroCloud sein muss. Die Anzahl der Sterne sagt wiederum auch etwas über den Umfang der Prüfung aus. Werden bei einem Stern lediglich "Vertrag & Compliance" und ein bisschen "Betrieb Infrastruktur" überprüft, werden bei fünf Sternen ebenfalls, Prozesse und Sicherheit intensiver überprüft.

Das Cloud-EcoSystem hingegen hat mit "Cloud-Experte" sein Qualitäts-Zertifikat für Saas & Cloud Computing Berater sowie sein "Trust in Cloud" für Cloud Computing Anbieter. Ein "Cloud-Experte" nach dem Cloud-EcoSystem e.V. soll Anbietern wie auch Anwendern eine Entscheidungshilfe bieten können. Dabei kann ein Experte neben dem Schreiben und Erstellen von Fachartikeln und Checklisten ebenfalls Qualitätskontrollen vornehmen. Außerdem soll sich ein Kunde darauf verlassen können, dass der Berater über bestimmte Eigenschaften eines Kriterienkatalogs für “Cloud-Experten” verfügt. So soll jeder “Cloud-Experte” über tiefes Fachwissen und Basis Qualifikationen sowie vorhandene Referenzen verfügen und auf Wunsch seine selbst erstellten Unterlagen bereitstellen. Im Grunde geht es laut dem Cloud-EcoSystem e.V. also darum, das Cloud-EcoSystem zu gestalten und zu präsentieren.
Das „Trust in Cloud“-Zertifikat soll als Entscheidungshilfe für Unternehmen und Anwender dienen und sich als ein Qualitäts-Zertifikat für SaaS und Cloud-Lösungen etablieren. Auf Basis des Zertifikats sollen Nutzer die Möglichkeit erhalten Cloud-Lösungen objektiv zu vergleichen und an Hand aufbereiteter Informationen zu einer sicheren Entscheidung kommen. Die Zertifizierung basiert auf einem Katalog mit 30 Fragen, der in 6 Kategorien á 5 Fragen unterteilt ist. Die Fragen müssen durch den Prüfling mit Ja oder Nein beantwortet werden und zudem nachgewiesen werden. Beantwortet der Cloud Anbieter eine Frage mit Ja, erhält er dafür eine “Cloud”. Die Checkliste umfasst die Kategorien Referenzen, Datensicherheit, Qualität der Bereitstellung, Entscheidungssicherheit, Vertragsbedingungen, Serviceorientierung und Cloud-Architektur.

Sowohl EuroCloud als auch das Cloud-EcoSystem gehen den richtigen Weg und versuchen Anbieter anhand selbst aufgestellter Kriterien zu bewerten. Zwei Punkte gilt es dabei jedoch zu hinterfragen. Zunächst handelt es sich um Vereine, das bedeutet, man muss als Anbieter Mitglied werden. Es sei berechtigterweise gefragt, welcher Verein sein Mitglied durch eine Prüfung durchfallen lässt - Unabhängigkeit? Weiterhin stellen beide ihre eigenen Anforderungskataloge auf, die nicht miteinander vergleichbar sind. Nur weil ein Anbieter von zwei verschiedenen Vereinen ein "Gütesiegel" hat, das nach unterschiedlichen Kriterien bewertet, bedeutet das noch lange nicht, dass der Cloud-Service auch echte Qualität liefert - Vertraulichkeit.

Die Profis steigen in den Ring: TÜV Rheinland

Unbeachtet von allen Organisationen, die sich extra für die Cloud zusammengefunden haben, hat der TÜV Rheinland eine Cloud-Zertifizierung gestartet. Der TÜV selbst ist den meisten eher von der Prüfung und Abnahme von Krananlagen, Fahrgeschäften oder der Hauptuntersuchung beim Auto bekannt. Hat aber auch in der IT seit über 15 Jahren Erfahrungen in den Bereichen der Beratung und Zertifizierung im Hinblick auf Compliance, Risikomanagement und Informationssicherheit.

Der Cloud-Zertifizierungsprozess ist sehr umfangreich und hat seinen Preis. Ein erster Blick auf den Prüfungsprozess und den Anforderungskatalog zeigt jedoch, dass der TÜV Rheinland damit ein sehr mächtiges Werkzeug für die Prüfung von Cloud-Services und -Infrastrukturen entwickelt hat.

Beginnend mit einem "Cloud-Readiness Check" werden zunächst Sicherheit, Interoperabilität, Compliance und Datenschutz auf ihre Cloud-Tauglichkeit überprüft und darauf basierend ein Aktionsplan erstellt. Im Anschluss folgt die Überprüfung des "Cloud-Designs", bei dem das Konzept und die Lösung selbst unter die Lupe genommen werden. Hier werden unter anderem Themen wie die Architektur aber auch die Netzwerksicherheit, Zugriffskontrollen usw. überprüft. Anschließend wird die eigentliche Umsetzung der Cloud-Lösung betrachtet und Qualitätschecks vorgenommen. Danach erfolgt die Vorbereitung zur Zertifizierung und später die eigentliche Zertifizierung.

Der Cloud-Anforderungskatalog des TÜV-Rheinland umfasst fünf Hauptbereiche, die wiederum in zahlreiche Teilbausteine untergliedert sind. Dazu gehören Prozessorganisation, Aufbauorganisation, Datensicherheit, Compliance / Datenschutz und Prozesse. Alles in allem ein sehr tiefgehender Anforderungskatalog.

In einem genannten Referenzprojekt hat der TÜV Rheinland acht Wochen für die Zertifizierung eines international tätigen Infrastructure-as-a-Service Anbieter benötigt.

Unabhängige und vertrauenswürdige Cloud Zertifizierungen sind zwingend erforderlich

Die Qualität und der Nutzen von Zertifikaten und Gütesiegeln stehen und fallen mit den Unternehmen, die mit der Prüfung beauftragt sind sowie deren definierten Prüfkriterien. Schwache Anforderungskataloge treffen weder eine ehrliche Aussage, noch helfen Sie, die Qualitätsunterschiede von Cloud-Lösungen für den Nutzer klar darzustellen. Im Gegenteil, IT-Entscheider verlassen sich im Zweifelsfall auf diese vermeintlich geprüften Services, deren Qualität auf einem anderen Blatt steht. Hinzu kommt, dass es im Cloud Computing nicht mehr darum geht, eine Software oder einen Service einzusetzen, geschweige denn zu installieren. Es wird am Ende nur noch konsumiert und der Anbieter ist für alle anderen Prozesse verantwortlich, die der Kunde sonst selbst übernommen hätte.

Aus diesem Grund sind unabhängige, vertrauenswürdige, aber vor allem professionelle Zertifizierungen notwendig, um eine ehrliche Aussage über die Qualität und Eigenschaft eines Cloud-Service, seines Anbieters und aller nachgelagerten Prozesse wie Sicherheit, Infrastruktur, Verfügbarkeit usw. zu gewährleisten. Als Anbieter sollte man daher ehrlich zu sich selbst sein und sich am Ende für eine Zertifizierung entscheiden, die auf professionelle Kriterienkataloge setzt, welche nicht nur an der Oberfläche kratzen sondern tief in die Lösung eintauchen und damit eine glaubwürdige Aussage über die eigene Lösung treffen.



ProfitBricks eröffnet Preiskampf mit den Amazon Web Services für Infrastructure-as-a-Service

ProfitBricks macht ernst. Das Berliner Infrastructure-as-a-Service (IaaS) Startup geht mit einer harten Kante gegen die Amazon Web Services vor und reduziert seine Preise sowohl in den USA als auch in Europa um 50 Prozent. Weiterhin hat der IaaS-Anbieter einen Vergleich vorgelegt, der zeigt, dass die eigenen virtuellen Server eine mindestens doppelt so hohe Performance haben sollen als die der Amazon Web Services und Rackspace. Damit versucht sich ProfitBricks über den Preis als auch über die Leistung von den US-amerikanischen Top Anbietern zu diversifizieren.

Die Preise für Infrastructure-as-a-Services sind noch viel zu hoch

Einhergehend mit der Ankündigung zeigt sich CMO Andreas Gauger entsprechend angriffslustig. „Wir haben den Eindruck, dass die regelrecht als Marktbeherrscher auftretenden Cloud Unternehmen aus den USA ihre Marktmacht für zu hohe Preise missbrauchen. Sie muten den Unternehmen bewusst undurchsichtige Tarifmodelle zu und verkünden regelmäßig punktuelle Preissenkungen, um den Eindruck einer Preisdegression zu wecken“, so Gauger.

ProfitBricks hat sich daher das Ziel gesetzt, den IaaS-Markt über den Preis von hinten aufzurollen und technische Innovationen und damit für einen Anbieter enstehende Kosteneinsparungen auch direkt und merkbar an den Kunden durchzureichen.

Bis zu 45 Prozent günstiger als Amazon AWS

ProfitBricks positioniert sich sehr deutlich gegen Amazon AWS und zeigt zwei Preisvergleiche. Kostet eine M1 Medium Instanz mit 1 Core, 3,75 GB RAM und 250 GB Block Storage bei Amazon AWS 0,1291 Euro pro Stunde bzw. 93,15 Euro pro Monat, enstehen bei ProfitBricks hierfür Kosten von 0,0694 EUR pro Stunde bzw. 49,95 Euro pro Monat. Eine Einsparung von 45 Prozent.

Werden 1 Core, 8 GB RAM und 1.000 GB redundanter Storage benötigt, ist der Unterschied noch größer. Die Kosten für eine M1 XLarge Instanz mit 4 Cores, 15 GB RAM und 1.680 GB temporärem Storage inkl. 1.000 GB Block Storage belaufen sich bei Amazon pro Monat auf 372,62 Euro. Bei ProfitBricks würden für die exakt geforderten Anforderungen 130,22 Euro pro Monat entstehen. Dabei handelt es sich um eine Einsparung von 65 Prozent pro Server.

Diversifikation allein über den Preis ist schwierig

Sich als IaaS-Anbieter alleine über den Preis zu diversifizieren ist schwierig. Wir erinnern uns, Infrastruktur ist Commodity und vertikale Services sind die Zukunft der Cloud, mit denen der Kunde einen Mehrwert erhält.

Auf diesem Weg dem IaaS Platzhirsch die Stirn zu bieten ist mutig und wirkt sehr tollkühn. Allerdings sollte man eines nicht vergessen. Als Hosting-Experten der ersten Stunde werden Andreas Gauger und Achim Weiß die Zahlen rund um ihre Infrastruktur validiert haben und suchen mit dieser Aktion sicherlich nicht den kurzen Ruhm. Es bleibt daher abzuwarten wie Amazon AWS und die anderen IaaS-Anbieter auf diesen Schlag reagieren werden. Denn ProfitBricks zeigt mit dieser Preisreduzierung, dass Kunden Infrastruktur tatsächlich deutlich günstiger bekommen können, als es derzeit der Fall ist.

Etwas sollte man als IaaS-Nutzer bei dieser Preisdiskussion allerdings nicht aus den Augen verlieren. Neben den Preisen für Rechenleistung und Speicherplatz - die immer wieder hochgehalten werden - gibt es weitere Faktoren zu berücksichtigen, die den Preis bestimmen und welche immer erst am Ende des Monats wirklich in Erinnerung gerufen werden. Dazu gehören die Kosten für den Datentransfer in die Cloud hinein und aus der Cloud heraus sowie Kosten für anderweitige Services die um die Infrastruktur herum angeboten und pro API Aufruf berechnet werden. Da fehlt in mancher Hinsicht die Transparenz. Weiterhin ist ein Vergleich der unterschiedlichen IaaS-Anbieter nur schwierig darzustellen, da viele mit unterschiedlichen Einheiten, Konfigurationen und/oder Paketen arbeiten.