Tag: Cloud


Rackspace differenziert sein IaaS Cloud Angebot mit einem höherwertigen Support

Rackspace setzt derzeit alles daran, um im Kampf um Marktanteile im Infrastructure-as-a-Services (IaaS) Bereich gegen die Amazon Web Services zu Punkten. Nach den schlechten Ergebnissen im Q1/2013 kein leichtes Unterfangen. Als der Antreiber hinter der OpenStack Bewegung, versucht der ehemalige Managed-Hosting Anbieter das Thema Open-Source in der Cloud zu verankern und vermarktet OpenStack als das Linux der Cloud. Rackspace Herausforderung besteht jedoch nicht nur darin, sich gut gegen Amazon aufzustellen. Auch aus den eigenen OpenStack Reihen wachsen nach und nach mehr Mitbewerber, die alle dieselbe Technologie, API und Services auf Basis von OpenStack anbieten. Genannt seien hier nur große Namen wie HP, IBM oder Red Hat. Auf Grund dieses doch zum Teil sehr ähnlichen Angebots von Services - wobei es sich um ein hausgemachtes Problem handelt - ist es für Rackspace schwierig sich von dem Mitbewerb, auf der einen Seite die scheinbar übermächtigen Amazon Web Services aber auch Windows Azure und Google, auf der anderen Seite das eigene OpenStack Lager, zu differenzieren. Rackspace scheint sich nun auf seine altbewährten Stärken, dem "Fanatical Support", zu konzentrieren und möchte Unternehmen und Entwicklern intensiver bei der Nutzung der Rackspace Cloud Services helfen.

Hilfe auf dem Weg in die Cloud

Bereits als einfacher Managed-Hosting Anbieter hat Rackspace seine Kunden beim Infrastrukturmanagement unterstützt. Für seine OpenStack basierte Cloud Plattform wurde der Standard Support nun erweitert. Kunden sollen ab sofort auch Unterstützung auf Applikationsebene inkl. Debugging der Anwendung erhalten, die auf der Rackspace Cloud betrieben wird. Das bedeutet, dass die Interaktion mit den Kunden deutlich verstärkt werden soll, indem nicht nur die Grundlagen, sondern spezifisches Entwickler Know How vermittelt wird. Das geht sogar soweit, dass Rackspace Ingenieure bei Wunsch den Quellcode der Applikation analysieren und Verbesserungsvorschläge für eine effektivere Nutzung auf der Rackspace Cloud und insbesondere mit den Rackspace APIs und SDKs machen oder sogar bei der vollständigen Entwicklung helfen. Entwicklern soll es damit einfacher gemacht werden, zu verstehen, wie ihre eigene native Applikation auf der Rackspace Cloud bzw. OpenStack funktioniert.

Support zur Differenzierung

Nun mag man denken: Support zur Differenzierung? In Zeiten des Self-Service und der Automatisierung in der Cloud? Ja genau, das ist gar nicht so abwegig und ein gar nicht so unkluger Schachzug. Die Not macht erfinderisch. Rackspace hat schon immer viel Wert auf seinen Support gelegt und genießt hier einen guten Ruf.

Weiterhin sollte man bedenken, dass, trotz des Self-Service und dem damit einhergehenden einfachen Bezug von Ressourcen für den Aufbau einer virtuellen Infrastruktur respektive dem darauf entwickeln einer eigenen Cloud-fähigen Applikation, Cloud Computing nicht einfach ist! Ich habe das erst kürzlich in dem Artikel "Cloud Computing ist nicht einfach!" beschrieben und Netflix als sehr positives Beispiel genannt. Es gibt nur wenige Nutzer-Unternehmen, die Cloud Computing so durchdrungen haben wie Netflix, die sich mit ihrer Simian Army wie dem Chaos Monkey oder dem Chaos Gorilla Test-Software für einen skalierbaren und hochverfügbaren Betrieb in der Cloud geschrieben haben. Wenn man jedoch schaut, was für einen Aufwand Netflix dafür betreibt, mit dem auch Kosten verbunden sind, ist Cloud Computing nicht auf die leichte Schulter zu nehmen, wenn man es ernsthaft einsetzen möchte.

Aus diesem Grund ist es nur ein logischer und für mich richtiger Schritt von Rackspace, seinen Support weiter auszubauen und dort zu unterstützen, wo es bei der Cloud ankommt, der skalierbaren und verfügbaren Entwicklung von Applikationen, die auch die Eigenschaften der Cloud berücksichtigen. Ob das nun reicht, um gegenüber Amazon mit großen Schritten aufzuholen wage ich zu bezweifeln. Aber innerhalb der Anbieter, die ebenfalls auf OpenStack setzen, ist es eine gute Möglichkeit sich von diesem Wettbewerb zu differenzieren.



Enterprise Cloud Portal: T-Systems konsolidiert sein Cloud-Portfolio

Mit seinem Enterprise Cloud Portal präsentiert die Deutsche Telekom Tochter T-Systems sein erstes Cloud-Service übergreifendes Angebot für Großkunden. Auf dem Portal können sich Unternehmen über die Cloud-Lösungen von T-Systems informieren, diese testen und direkt bestellen. Zu den derzeit angebotenen Services gehören Lösungen für das Mobile Device Management, Dynamic Services for Infrastructure und der Enterprise Marketplace. Ein Blick auf das Portal zeigt, dass auf die Kompatibilität mit Tablets großer Wert gelegt wurde.

An der IT-Abteilung vorbei

T-Systems möchte mit seinem Cloud-Portal auch nicht-technischen Nutzern in Großunternehmen den Zugang zu speziellen Cloud-Lösungen ermöglichen. Der Cloud-Anbieter bezieht sich dabei auf eine Studie von Gartner, die besagt, dass bis zum Jahr 2015 in etwa 35 Prozent der IT-Ausgaben, außerhalb der IT-Abteilungen ausgewählt und verwaltet werden. Genannt seien hier zum Beispiel die Bereiche Marketing, Einkauf und das Rechnungswesen.

Mobile Device Management

Das Mobile Device Management aus der Cloud soll Unternehmen bei der Administration mobiler Endgeräte mit unterschiedlichen Betriebssystemen, z.B. iOS und Android, über eine standardisierte Web-Plattform helfen. Darüber lassen sich etwa Sicherheitseinstellungen vornehmen, Zugriffsrechte auf Funktionen sowie Applikationen regeln oder bei Verlust des Endgeräts die Daten per Fernzugriff löschen. Ein Test des Mobile Device Management ist in den ersten vier Wochen für bis zu drei mobile Endgeräte kostenlos.

Dynamic Services for Infrastructure

Für Infrastructure-as-a-Service (IaaS) stehen zwei Angebote bereit: Zum einen die "Dynamic Services for Infrastructure" (DSI) aus einer Hosted Private Cloud. Zum anderen die "DSI with vCloud Datacenter Services" als eine hybride Variante. Das Management der Ressourcen übernimmt der Kunde selbst über ein web-basiertes Portal beziehungsweise über seine eigene VMware Management Software. Übersichtliche Preismodelle sollen die Kosten für die Infrastruktur transparent machen. So kostet z.B. im Paket "Small" ein Server aus der Hosted Private Cloud ab 9 Cent pro Stunde. Bei der hybriden Lösung liegt der Paketpreis für ein Virtual Datacenter in der kleinsten Ausführung bei genau 999,84 Euro pro Monat.

Enterprise Marketplace

Der Enterprise Marketplace umfasst unter anderem weitere IaaS-Lösungen inkl. Betriebssysteme für Linux und Windows Server, Platform-as-a-Service (PaaS) Lösungen, u.a. Tomcat und Microsoft SQL Server sowie eine stetig steigende Zahl von Software-as-a-Service (SaaS) Angeboten wie Doculife, CA Nimsoft, TAXOR, TIS, WeSustain, Metasonic, ARAS, Tibco Tibbr, Sugar CRM, Microsoft Enterprise Search und Microsoft Lync. Darüber hinaus sollen Unternehmen damit die Möglichkeit erhalten, nicht nur eine Vielfalt an Anwendungen hochsicher in bedarfsgerechten Formaten zu beziehen, sondern auch eigene Anwendungen migrieren und hosten zu lassen. Die volle Verfügbarkeit des Enterprise Marketplace ist für diesen Sommer geplant. Derzeit steht auf dem Cloud Portal bereits eine Vorschau zur Verfügung.

Kommentar

Mit dem Enterprise Cloud Portal fasst T-Systems sein gesamtes Cloud-Portfolio unter einem einzigen Dach zusammen. Ich hatte in einem Artikel für die Computerwoche: "Das Cloud-Portfolio von T-Systems" im Jahr 2011 analysiert. Zu dem Zeitpunkt bestand das Angebot jedoch noch aus einzelnen unabhängigen Services. Allerdings bin ich bereits damals schon zu dem Ergebnis gekommen, dass T-Systems über ein sehr gut durchdachtes und abgerundetes Cloud-Portfolio verfügt.

Das zeigt sich nun auch im konsolidierten Enterprise Cloud Portal. Von SaaS über PaaS bis IaaS und weiteren Lösungen für mobile Endgeräte ist alles dabei. T-Systems verfügt damit als einer der wenigen Anbieter über einen vollständigen Cloud-Stack und das nun sogar noch gebündelt in einem einzigen Portal.

Insbesondere in dem Enterprise Marketplace steckt viel Potential. Auf der diesjährigen CeBIT konnte ich einen ersten Blick darauf werfen, der sich meiner Einschätzung nach zu diesem Zeitpunkt noch in einem Alpha-Status befand. Einige grundlegende und zwingend notwendige Funktionen für ein IaaS Angebot, genannt seien nur automatische Skalierbarkeit und Hochverfügbarkeit, fehlten noch. Aber das war im März und ich gehe davon aus, dass T-Systems hier schon weitere Fortschritte gemacht hat. Zudem habe ich bereits aus einer sicheren Quelle erfahren, dass T-Systems/ Telekom ihre Cloud-Infrastruktur sukzessive auf OpenStack umstellen wird, was auch dem Enterprise Marketplace einen weiteren Schub hinsichtlich Kompatibilität geben wird.

Was T-Systems als Vorteil für nicht-technische Nutzer in Unternehmen sieht, sollte bei IT-Verantwortlichen Sorgenfalten verursachen. Zwar bin ich auch auf dem Standpunkt, dass sich die IT-Abteilungen zu einem Service-Broker entwickeln werden und sogar müssen. Allerdings halte ich es für recht bedenklich, wenn jede Abteilung einfach loslaufen darf und sich nach belieben IT-Services extern einkauft. Die Schuld liegt natürlich bei den IT-Abteilungen selbst, da diese sich über die Jahre hinweg einen schlechten Ruf aufgebaut haben und als langsam und nicht innovativ gelten. Darüber habe ich hier bereits vor zwei Jahren ausführlich philosophiert (Cloud Computing und die Schatten-IT).

Eine gewisse Kontrollinstanz in der Form eines Service-Broker ist weiterhin notwendig, denn sonst kommt es zu einem unkontrollierten Wildwuchs von externen Services, über die man den Überblick verlieren wird. Das lässt sich selbstverständlich kontrollieren, wenn man die Services über einen einzigen Anbieter bezieht. Und das ist genau das Ziel von T-Systems und seinem umfangreichen Enterprise Cloud Portal. Ein Kunde soll explizit und abteilungsübergreifend die Services aus der T-Systems Cloud beziehen, um damit den Wildwuchs zu vermeiden und den Überblick behalten. Die Frage ist, ob sich das bei den Kunden intern auch so durchsetzen lässt. Denn auch andere Anbieter haben hübsche Services.

Am Ende möchte ich noch auf ein Thema eingehen, was im Endkunden-Umfeld derzeit für Aufregung sorgt, Unternehmenskunden aber einen großen Vorteil bietet. Das End-to-End Angebot von Services. T-Systems ist auf Grund seiner Situation, Tochter von der Deutschen Telekom zu sein, einer der wenigen Cloud-Anbieter, der ein Service-Level von den Services auf Applikations- oder sogar virtueller Maschinen Ebene im Rechenzentrum, inkl. der Datenleitung anbieten kann. Das ermöglicht es den Kunden einen ununterbrochenen Quality-of-Service (QoS) sowie ein umfangreiches Service Level Agreement (SLA) zu erhalten, was viele andere Cloud-Anbieter nicht leisten können.



Cloud Computing ist nicht einfach!

Cloud Computing verspricht vermeintlich einfach zu sein. Hier und da einen virtuellen Server starten und fertig ist die eigene virtuelle Cloud Infrastruktur. Wer nun meint, dass ich mit der Aussage recht habe, der liegt dermaßen falsch. Virtuelle Server sind nur ein kleiner Bestandteil einer virtuellen Infrastruktur bei einem Cloud Anbieter. Ein paar virtuelle Maschinen machen noch lange keine Cloud. Die Komplexität liegt in dem, wie die Architektur der Applikation geschaffen ist. Und somit in der Intelligenz, die der Architekt und der Softwareentwickler ihr vereinleibt. Das dies manchmal nicht so umgesetzt wird, haben uns die einen oder anderen Cloud Nutzer nicht nur einmal eindrucksvoll gezeigt. Regelmäßig fallen immer die selben Verdächtigen aus, wenn deren Cloud Anbieter mal wieder mit sich selbst zu kämpfen hat. Cloud Computing ist nicht einfach! Ich meine hiermit nicht simples Software-as-a-Service (SaaS). Ich spreche von Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS) und hier sogar noch granular von der Königsklasse namentlich Skalierbarkeit und Hochverfügbarkeit. Und genau das sollte man Abseits des Marketing der Cloud Anbieter verstehen und uneingeschränkt berücksichtigen, wenn man Cloud Computing erfolgreich einsetzen möchte.

Software-defined Scalability und Software-defined High-Availability

Derzeit kursieren wieder neue Begriffe durch die IT-Stratosphäre. Software-defined Networking (SDN) und auch Software-defined Datacenter (SDD). Ein SDN führt eine weitere Abstraktionsebene oberhalb der Netzwerkkomponenten ein. Typischerweise besitzt jeder Router und Switch seine eigene lokale Software, über die er per Programmierung mit Intelligenz versorgt wird. Der Netzwerkadministrator sagt dem Router somit bspw. welches Paket unter welchen Bedingungen wohin geleitet werden soll oder auch nicht. Innerhalb eines SDN entfällt die Aufgabe jeder einzelnen Komponente für sich eine lokale Intelligenz einzuverleiben. Die Intelligenz wandert eine Ebene höher in eine Managementschicht, in der das gesamte Netzwerk designed wird und die einzelnen Regeln für jede Komponente zentral festgelegt wird. Ist das Design fertiggestellt, wird es über die Netzwerkkomponenten ausgerollt und das Netzwerk ist konfiguriert. Mit SDN soll es daher möglich sein ein vollständiges Netzwerkdesign "per Knopfdruck" zu verändern, ohne jede einzelne Komponente direkt anfassen zu müssen.

Die Idee des SDN Konzepts muss bei der Nutzung einer Cloud-Infrastruktur ebenfalls zwingend in Betracht gezogen werden. Denn der Einsatz eines PaaS aber noch viel mehr eines IaaS bedeutet sehr viel Eigenverantwortung. Mehr als man auf dem ersten Blick denken mag. Eine oder zwei virtuelle Maschinen zu starten bedeutet nicht, dass man eine virtuelle Cloud Infrastruktur nutzt. Es sind und bleiben zwei virtuelle Server. Ein IaaS Anbieter stellt darüber hinaus nur die Komponenten, wie die genannten virtuellen Maschinen, Speicherplatz, weitere Services und zusätzlich APIs bereit, mit denen die Infrastruktur genutzt werden kann. Unterm Strich lässt sich vereinfacht sagen, dass ein IaaS Anbieter seinen Kunden nur die Ressourcen und entsprechenden Werkzeuge zur Verfügung stellt, um damit auf seiner Cloud Infrastruktur eine eigene virtuelle Infrastruktur respektive ein eigenes virtuelles Rechenzentrum aufzubauen.

Man muss daher per Software (die eigene Applikation) selbst dafür sorgen, dass die Cloud Infrastruktur bei Bedarf skaliert (Software-defined Scalability, SDS) und im Falle eines Ausfalls einer Cloud Infrastruktur-Komponente berücksichtigen, dass entsprechend eine Ersatzkomponente (z.B. virtuelle Maschine) gestartet wird und die Ausgefallene damit ersetzt wird (Software-defined High-Availability, SDHA). Die Software sorgt also für die Skalierbarkeit und Hochverfügbarkeit der genutzten virtuellen Cloud Infrastruktur, damit die Web-Applikation selbst skaliert und ausfallsicher ist und den Charakter der jeweiligen Cloud eines Anbieters nutzt und das Maximum aus ihr schöpft.

Wie eine Cloud Computing Infrastruktur quasi in Perfektion genutzt wird zeigt Netflix eindrucksvoll.

Cloud Computing ist nicht einfach! Begreif's doch endlich, ...

Quelle: Adrian Cockcroft

Netflix das Paradebeispiel

Netflix ist mit Abstand der größte Cloud Service weltweit. Der Video-Streaming Dienst ist während Spitzenzeiten mittlerweile für ein Drittel des gesamten Internetverkehrs verantwortlich. Diese Nutzeranfragen gilt es selbstverständlich performant und zu jedem Zeitpunkt zu beantworten. Dazu setzt Netflix schon seit seinem Start im Jahr 2009 auf Cloud Technologien und hat im November 2012 seinen vollständigen Technologie-Stack und die darauf basierende Infrastruktur in die Cloud zu den Amazon Web Services verlagert. Hier laufen rund 1.000 virtuelle auf Linux basierende Tomcat Java Server und NGINX Web-Server. Hinzu kommen weitere Services wie Amazon Simple Storage Service (S3) und die NoSQL Datenbank Cassandra in Verbindung mit Memcached sowie ein verteiltes Memory Object Caching.

Das ist jedoch nur die eine Seite der Medaille. Viel wichtiger ist die Nutzung mehrerer Availability Zones in der Amazon Cloud. Netflix nutzt insgesamt drei Availability Zones, um die Verfügbarkeit und Geschwindigkeit des eigenen Service zu erhöhen. Tritt in einer Availability Zone ein Problem auf, ist die Architektur der Netflix-Applikation so ausgelegt, dass der Service durch die anderen beiden weiterlaufen kann. Dabei hat Netflix sich nicht auf die reinen Marketing-Versprechen von Amazon verlassen, sondern mit dem Chaos Gorilla selbst eine eigene Software entwickelt, mit der die Stabilität der virtuellen Server Amazon Elastic Compute Cloud (EC2) getestet wird. Kurzum wird dabei der Ausfall einer kompletten EC2 Region bzw. Availability Zone simuliert, um sicherzustellen, dass der Netflix-Service im Ernstfall weiterhin funktioniert. Eine der größten Herausforderungen besteht dabei darin, dass im Falle eines Fehlers in einer Amazon Zone, das Domain Name System (DNS) automatisch neu konfiguriert wird, damit die Netflix Kunden von dem Ausfall nichts mitbekommen. Die unterschiedlichen APIs der DNS-Anbieter machen die Aufgabe hier allerdings nicht einfacher. Zudem sind die meisten so entwickelt worden, dass die Einstellungen noch manuell vorgenommen werden müssen, was es nicht einfacher macht, dies zu automatisieren.

Unterm Strich ist zu sagen, dass Netflix für den Fehlerfall vorausschauend plant und sich nicht auf die Cloud verlässt. Denn irgendwas läuft auch mal in der Cloud schief, wie in jedem gewöhnlichen Rechenzentrum auch. Mann muss nur darauf vorbereitet sein. Wer sich mehr dafür interessiert, was Netflix macht um diesen Zustand zu erreichen sollte "Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur" lesen.

Die Einfachheit zählt

Vielleicht verlange ich noch zu viel. Schließlich ist Cloud Computing in seiner Form ein relativ junges Konzept. Dennoch zeigt Netflix eindrucksvoll das es funktioniert. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud simpler werden muss, um auch die versprochenen Kostenvorteile zu erzielen. Denn wenn man Cloud Computing richtig nutzt, ist es zwangsläufig nicht günstiger. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

Das erfreuliche ist, dass ich erste Startups am Horizont sehe, die sich der Problematik annehmen und den einfachen Bezug von fertigen Cloud Ressourcen, ohne als Nutzer selbst auf Skalierbarkeit und Hochverfügbarkeit achten zu müssen, zu ihrer Aufgabe gemacht haben.



Eucalyptus Cloud 3.3 nähert sich immer weiter an Amazon AWS an und integriert Open-Source Tools von Netflix

Ich hatte es bereits nach der Bekanntmachung von Netflix, einige seiner Tools als Open-Source zur Verfügung zu stellen, geschrieben. Nun ist es passiert. Eucalyptus hat in seinem neuen 3.3 Release genau diese Netflix Tools integriert und bietet damit nun erstmalig mehr Funktionalität hinsichtlich Verfügbarkeit und Management für Applikationen innerhalb einer Private Cloud-Infrastruktur an. Weiterhin stehen neue Amazon Web Services (AWS) nahe Funktionen bereit.

Neue Funktionen in Eucalyptus 3.3

Eucalyptus 3.3 wurde neben den Netflix Tools um AWS-kompatible Funktionen wie Auto Scaling, Load Balancing und CloudWatch erweitert. Mit Auto Scaling lassen sich Regeln erstellen, um Workloads automatisch mit weiteren virtuellen Maschinen zu unterstützen, wenn eine bestimmte Lastgrenze erreicht ist. Dabei soll der Mechanismus exakt derselbe sein wie auf der Public Cloud Infrastruktur der Amazon Web Services. Weiterhin ist es nun möglich, Workloads automatisch zu AWS zu sklarieren

Chaos Monkey, Asgard und Edda

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht Instanzen (virtuelle Maschinen) pro Guppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Bei Asgard handelt es sich um eine Web-Oberfläche, mit der das Deployment von Applikationen gesteuert und eine Cloud verwaltet werden kann. Netflix selbst nutzt Asgard, um seine virtuelle Infrastruktur auf den Amazon Web Services zu steuern.

Edda ist ein Service, den Netflix nutzt, um kontinuierlich seine benötigten AWS Ressourcen über die AWS APIs abzufragen. Mit Edda lässt sich über die aktiven Ressourcen suchen und der Status herausfinden. Der Hintergrund für Edda ist, dass virtuelle Instanzen in der Cloud ständig in Bewegung sind. Das bedeutet, dass sie ausfallen können und dafür neue gestartet werden müssen. Ebenso verhält es sich mit IP-Adressen, die von unterschiedlichen Anwendungen wiederwendet werden können. Hier gilt es den Überblick zu behalten, wobei Edda unterstützt.

Ursprünglich hat Netflix diese Tools für die AWS Cloud-Infrastruktur geschrieben. Durch das Open-Source Release und die Eucalyptus Adaption, können sie nun ebenfalls in einer Private Cloud genutzt werden.

Kooperation: Eucalyptus und Amazon Web Services

Im März 2012 hatten die Amazon Web Services und Eucalyptus eine Kooperation angekündigt, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen. Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Die ersten Früchte hat diese Kooperation mit dem Eucalyptus Release 3.3 nun getragen. Eucalyptus nähert sich stetig immer näher an die Funktionen der Amazon Web Services an. Meine Theorie, dass Amazon für den Bau der CIA Private Cloud möglicherweise Eucalyptus nutzt, ist daher nicht ganz unberechtigt.

Übernahme nicht unwahrscheinlich

CEO Marten Mickos scheint seinem Ziel ein Stück näher zu kommen. Während eines Gespräches im Juni 2012 erzählte er mir, dass seine erste Amtshandlung als neuer Eucalyptus CEO darin bestand, zum Telefonhörer zu greifen, Amazon anzurufen und das Interesse an einer Zusammenarbeit zu bekunden.

Wie ich es bereits in dem Artikel "Netflix veröffentlicht weitere Monkeys als Open-Source – Eucalyptus Cloud wird es freuen" geschrieben habe, hat Netflix mit der Veröffentlichung seiner Monkeys Eucalyptus damit kräftig in die Arme gespielt. Dies wird nicht zuletzt die Kooperation der Amazon Web Services und Eucalyptus weiter stärken, sondern Eucalyptus für Amazon als Übernahmeobjekt immer attraktiver machen.

Warum ich dieser Meinung bin, habe ich ausführlich unter "Amazon kauft Eucalyptus Cloud – Es ist nur eine Frage der Zeit" beschrieben.



Microsoft baut wahrscheinlich ein Cloud Computing Rechenzentrum in Deutschland

Zunächst, ich habe diese Information von keinem Microsoft Mitarbeiter, wodurch es sich nicht um eine bestätigte Meldung handelt. Allerdings haben mir drei Personen unabhängig voneinander davon berichtet, dass Microsoft plant, mindestens ein Rechenzentrum für seine Cloud Services u.a. Windows Azure und Microsoft Office 365 in Deutschland zu bauen. Daher sollte man davon ausgehen, dass ein wenig Wahrheit hinter dieser Information steckt. Wenn Microsoft dies bestätigen würde, dürfte man nur sagen Chapeau Microsoft! Das ist genau der richtige Weg.

Es passt in die Strategie

Microsofts aktuelle Strategie lautet "CLOUD First", das ist kein Geheimnis und wurde mir von Microsofts Seite mehrfach bestätigt. Unter anderem aus dem Bereich Dynamics CRM, das durch die Cloud stetig wächst. Bei Microsoft gilt seit der Einführung von Dynamics CRM Online im Jahr 2011 "Cloud first!" und das scheint sich zu bewähren. Die Cloud Lösung hat bei den Kunden mittlerweile eine hohe Akzeptanz erreicht, wodurch Microsoft 30% mehr Kunden für Dynamics CRM gewinnen konnte. Dabei setzen 60% aller Neukunden auf die Cloud Lösung.

Ähnlich sieht es in vielen anderen Unternehmensbereichen aus. Genannt seien nur Windows Azure, das stetig ausgebaut wird, oder Office 365. Aus diesem Grund ist und wäre der Bau mindestens eines Rechenzentrums in Deutschland der nächste logische Schritt, um auch uns Deutschen hinsichtlich Vertrauen weiter entgegen zu kommen.

Rechenzentrum in Deutschland: Ein enormer Wettbewerbsvorteil

Microsoft versorgt den europäischen Markt derzeit über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das stößt bei vielen Deutschen, vornehmlich Datenschützern und mittelständischen Unternehmen, auf Unbehagen. Das Speichern von Daten außerhalb von Deutschland und ein Vertrag nach maximal europäischen Recht wird nicht gerne gesehen. Jedoch sollte und darf der Wirtschaftsstandort Deutschland nicht vernachlässigt werden. Für die US-amerikanischen Unternehmen mag Deutschland zwar ein kleines Land sein, aber die Wirtschaftskraft zu unterschätzen wäre fatal.

Trifft die Information also tatsächlich zu, dass Microsoft ein Cloud Rechenzentrum in Deutschland baut, wäre das ein enormer Wettbewerbsvorteil gegenüber anderen Anbietern wie den Amazon Web Services oder Google. Insbesondere im stark umkämpften Markt für Unternehmenskunden, in denen Amazon AWS und Google sich schwer tun und wo Microsoft bereits die beste Ausgangslage, auf Grund einer bestehenden breiten Kundenbasis, hat, würde Microsoft damit einen großen Schritt nach Vorne machen.

Darüber hinaus - sollte das Rechenzentrum gebaut werden, wovon ich strategisch gesehen sehr stark ausgehe, werden Amazon und Google nicht mehr drum herum kommen, jeweils ein eigenes Rechenzentrum in Deutschland zu bauen. Wenn auch beide und insbesondere Amazon technologisch weiterhin die Vorreiter im Cloud Computing Markt sind, ist der Standortvorteil mit einem Rechenzentrum in Deutschland nicht zu vernachlässigen, um aktiv damit zu beginnen, die Bedenken den deutschen Unternehmen zu nehmen.

Denn, Cloud Computing ist die Zukunft! Es müssen nur die rechtlichen und datenschutztechnischen Themen dem jeweiligen Länderniveau angepasst und die Bedürfnisse der Kunden berücksichtigt werden. Technologien und Services dürfen und müssen sogar standardisiert werden! Aber Verträge und organisatorische Themen gehören auf Augenhöhe geführt.



Windows Azure Infrastruktur Services – Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Das Microsoft, als eines der weltweit führenden IT-Unternehmen, irgendwann einmal mit einem "Online-Shop" und einem "Suchmaschinenanbieter" um Marktanteile kämpfen muss, hätte in Redmond wahrscheinlich auch niemand jemals zu träumen gewagt. Jedoch ist das die Realität. Amazon ist mit seinen Amazon Web Services (AWS) mit Abstand der Innovationsmotor im Cloud Computing Markt. Und auch Google holt stetig auf. Google hat speziell im Platform-as-a-Service (PaaS) Markt mit der App Engine und dem Software-as-a-Service (SaaS) Markt mit Google Apps bereits gut positionierte Produkte. Amazon ist hingegen im Bereich Infrastructure-as-a-Service (IaaS) der absolute Marktführer. Und hier greift nun auch Microsoft an. Nachdem Windows Azure zu Beginn als reiner PaaS am Markt positioniert wurde, sind sukzessive IaaS Komponenten hinzugefügt worden. Mit seinem neuen Release hat Microsoft nun offiziell die Windows Azure Infrastruktur Services ausgerollt. Für viele kommt dieser Schritt zu spät, da bereits große Marktanteile in diesem Bereich an AWS abgeflossen sind. Allerdings, wo es zunächst nachteilig ausschaut, verbergen sich auch einige Vorteile, die von den meisten übersehen werden.

Windows Azure Infrastruktur Services im Überblick

Grundsätzlich sind die Azure Infrastruktur Services nichts Neues. In einer öffentlichen Release Preview wurden diese bereits im Juni 2012 vorgestellt. Nach Aussage von Microsoft wurden seitdem "... mehr als 1,4 Millionen virtuelle Maschinen erstellt und mit mehreren hundert Millionen Prozessorstunden genutzt." Zudem sollen heute schon mehr als 50 Prozent der Fortune 500 Unternehmen Windows Azure nutzen und dabei insgesamt mehr als vier Billionen Daten und Informationen auf Windows Azure verwalten. Die Kapazitäten für Compute- und Storage-Lösungen verdoppeln sich in etwa alle sechs bis neun Monate. Laut Microsoft melden sich inzwischen täglich fast 1.000 neue Kunden für Windows Azure an.

Mit dem Release der Windows Azure Infrastruktur Services hat Microsoft seinen Cloud Computing Stack nun auch offiziell vervollständigt. Neben dem Betrieb von virtuellen Maschinen umfasst das Update die dazugehörigen Netzwerkkomponenten. Weiterhin bietet Microsoft nun auch Support für virtuelle Maschinen und auch die gängigsten Microsoft Server Workloads wie zum Beispiel Microsoft BizTalk oder SQL Server 2012. Neben Windows wird auf den virtuellen Maschinen auch das Linux Betriebssystem vollwertig unterstützt. Die Windows Azure Virtual Networks sollen zudem einen echten Hybridbetrieb ermöglichen.

Neue Instanzen und aktualisierte SLAs

Neben neuen virtuellen Instanzen mit zum Beispiel mehr Speicherkapazität von 28GB und 56GB, stehen auch vorbereitete virtuelle Images, z.B. vom BizTalk Server und SQL Server zur Verfügung. Vorbereitete Linux-Images, u.a. CentOS, Ubuntu und Suse Linux Enterprise Server (SLES), werden von kommerziellen Händlern bereitgestellt. Weiterhin stehen zahlreiche Open-Source-Anwendungen als vorbereitete Images im VM Depot auf Self-Service-Basis zur Verfügung. Microsoft Server-Produkte einschließlich Microsoft Dynamics NAV 2013, SharePoint Server 2013, BizTalk Server 2013 wurden für die Ausführung auf den virtuellen Maschinen von Microsoft bereits getestet.

Weiterhin wurden die Service Level Agreements (SLAs) überarbeitet. Microsoft garantiert eine 99,95 prozentige Verfügbarkeit inkl. finanzieller Absicherung, wenn es zu einem Ausfall auf Microsofts Seite kommt. Neben einem SLA für die Cloud Services bietet Microsoft sieben weitere SLAs speziell für Speicher, SQL-Datenbank, SQL Reporting, Service Bus, Caching, CDN und die Medienservices.

7/24/365 Support

Ein Microsoft Support-Team steht jeden Tag rund um die Uhr zur Verfügung. Die Support-Pläne unterteilen sich in vier Stufen vom Entwicklersupport bis hin zum Premier Support.

Preissenkungen für virtuelle Maschinen und Cloud-Services

Wie Amazon AWS gibt auch Microsoft seine Ersparnisse durch den Economies of Scale an seine Kunden weiter. Dazu stehen ab sofort folgende neue Preise und Erweiterungen bereit:

  • Virtuelle Maschinen (Windows, Standardinstanzen) gibt es bis zum 31. Mai zu reduzierten Preisen. Die neuen allgemeinen Verfügbarkeitspreise gelten ab dem 1. Juni 2013. Für eine kleine Instanz gilt der neue Preis 0,0671 € pro Stunde.
  • Die Preise für virtuelle Maschinen (Linux) für Standardinstanzen wurden um 25 Prozent gesenkt. Ab dem 16. April 2013 werden die Preise für kleine, mittlere, große und sehr große Instanzen um 25 Prozent gesenkt. Der Preis für eine kleine Linux-Instanz beispielsweise wird von 0,0596 €pro Stunde auf 0,0447 € pro Stunde in allen Regionen gesenkt.
  • Die Preise für virtuelle Netzwerke starten bei 0,0373 € pro Stunde, gültig ab dem 1. Juni 2013. Bis zum 1. Juni können Kunden das virtuelle Netzwerk kostenlos nutzen.
  • Die Preise für Cloud-Services für Web- und Workerrollen wurden um 33 Prozent für Standardinstanzen gesenkt. Ab dem 16. April 2013 sinkt der Preis für kleine, mittlere, große und sehr große Instanzen um 33 Prozent. Der Preis für eine kleine Workerrolle beispielsweise wird von 0,0894 € pro Stunde auf 0,0596 € pro Stunde in allen Regionen gesenkt.

Nicht zu spät für den großen Teil vom Kuchen

Auch wenn Microsoft in dem mittlerweile sehr stark umkämpften Markt für Infrastructure-as-a-Service spät dran ist, bedeutet es nicht, dass der Zug abgefahren ist. In vielen Ländern beginnt gerade erst die Adaption des Cloud Computing. Darüber hinaus wird das große Geld bei den etablierten Unternehmenskunden verdient und erst dann bei den Startups dieser Welt. Das hat auch Amazon verstanden und entsprechende Maßnahmen eingeleitet.

Weiterhin nimmt die Bedeutung der Private Cloud und somit auch der Hybrid Cloud weltweit zu. Und hier sieht das Blatt dann bereits ganz anders aus. Microsoft hat mit seinem Windows Server 2012 ein gut platziertes Produkt für die Private Cloud, was sich nahtlos mit Windows Azure integrieren lässt. Hier kann Amazon AWS nur über eine mögliche Eucalyptus Acquisition schnell aktiv werden. Eine erste intensive Kooperation beider Unternehmen besteht bereits.

Allerdings, die Windows Azure Infrastruktur Services sind in erster Linie Public Cloud Services. Und hier muss man sagen, dass die Vielfalt des Service-Portfolios der Amazon Web Services noch deutlich größer ist als das von Windows Azure. Zum Beispiel fehlen Services wie Elastic IP oder CloudFormation. Dennoch, Microsoft ist mit seinem Portfolio derzeit der einzige Public Cloud Anbieter am Markt, der Amazon AWS ernsthaft gefährlich werden kann. Denn "Infrastruktur bedeutet mehr als nur Infrastruktur" und daher heißt es "die Infrastruktur nutzbar machen".

Siehe: Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich (wird aktualisiert)

Und was ist mit Google?

Google darf auf keinen Fall unterschätzt werden. Im Gegenteil, aus einem ersten Performance-Vergleich zwischen der Google Cloud Platform und Amazon AWS ging Google als Sieger hervor. Allerdings beschränkt sich das aktuelle Serviceportfolio der Google Cloud Platform im Kern auf Rechenleistung, Speicherplatz und Datenbanken. Weitere Mehrwertservices, die auf der Plattform aufsetzen, fehlen noch. Darüber hinaus ist Google derzeit als reiner Public Cloud Anbieter zu sehen. Im Private/ Hybrid Cloud Umfeld sind bisher keine Produkte zu finden. Hier müsste mit Kooperationen bzw. Akquisitionen nachgebessert werden, um auch in Zukunft die Bedürfnisse von konservativen Unternehmenskunden zu befriedigen. Zumal Google weiterhin ein nicht zu unterschätzendes Reputationsproblem hinsichtlich Datenschutz und Datensammelwut hat. Hier muss noch mehr Transparenz gezeigt werden.

Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Mit der offiziellen Veröffentlichung der Windows Azure Infrastruktur Services hat Microsoft damit begonnen zu den Amazon Web Services im Infrastructure-as-a-Service Markt aufzuschließen. Von einem Spiel auf Augenhöhe kann hier aber noch nicht die Rede sein. Denn etwas Neuartiges oder gar Innovationen lassen sich im neuen Azure Release nicht finden. Stattdessen wird lediglich versucht den Technologievorsprung von Amazon AWS mit der Erweiterung von Infrastruktur-Ressourcen aufzuholen, mehr aber nicht. Dabei darf man nicht den Innovationsgrad von Amazon unterschätzen, die in regelmäßigen Abständen ihre Cloud Plattform mit weiteren disruptiven Services und Funktionen ausbauen.

Dennoch, für das attraktive Umfeld für Unternehmenskunden ist Microsoft in einer guten Ausgangsposition und hat sein Portfolio mit den Azure Infrastruktur Services um eine weitere wichtige Komponente gegenüber Amazon erweitert. Darüber hinaus verfügt Microsoft bereits über eine sehr große on-Premise Kundenbasis, die nun in die Cloud überführt werden muss. Darunter renommierte und finanziell gut aufgestellte Unternehmen. Und das ist genau der Bereich in dem Amazon erst noch Vertrauen aufbauen muss. Zudem sollte man den stetig wachsenden Private Cloud Markt nicht vernachlässigen. Hier sehen die Karten auf beiden Seiten gleich ganz anders aus.

Das Microsoft im IaaS Bereich noch nicht auf Augenhöhe mit Amazon ist, bedeutet nicht, dass sie nicht erfolgreich sein werden. Es ist zwangsläufig nicht entscheidend, als erster am Markt zu sein und das beste Produkt zu haben, sondern seine bestehenden und potentiellen Kunden davon zu überzeugen, einen Mehrwert zu bieten. Und es wäre nicht das erste Mal, dass Microsoft dies schaffen würde.



Boxcryptor veröffentlicht Technical Preview der kommenden Version

Boxcryptor, das deutsche Startup zur Verschlüsselung von Daten auf bekannten Cloud Storage Services wie Dropbox, Google Drive und Microsoft SkyDrive hat erste technische Informationen zur neuen Boxcryptor Generation bekanntgegeben, dessen offizieller Release noch in diesem Quartal erfolgen soll.

Boxcryptor in a Nutshell

BoxCryptor integriert sich in einen Cloud Storage und synchronisiert die Daten verschlüsselt. Dazu wird zum Beispiel einfach unter dem Dropbox Ordner ein neuer Ordner beliebigen Namens angelegt. In diesem werden anschließend die Dateien und weitere Ordner abgelegt, die mit dem AES-256 Standard verschlüsselt in der Dropbox abgelegt werden. Derzeit unterstützt BoxCryptor DropBox, Google Drive, SugarSync und Microsoft SkyDrive.

Auf Grund einer breiten Plattformunterstützung, darunter Windows, Mac, Linux, Android und iOS wird der Vorteil der Ortsunabhängigkeit der Cloud ausgenutzt und es kann plattformübergreifend auf die Daten zugegriffen werden.

Mehr unter BoxCryptor: Datenverschlüsselung für Dropbox, Google Drive & Co.

Neuigkeiten der Technical Preview

Die offizielle neue Boxcryptor Version beinhaltet ein neues Schlüsselmanagement und einfachere und bessere Kollaborationsmöglichkeiten insbesondere für Teams im Geschäftsumfeld. Zu nennen sind u.a. die Festlegung von Richtlinien und eine zentralisierte Verwaltung. Aber auch private Nutzer können mit der neuen Version Zugriff auf verschlüsselte Dateien freigeben, ohne dem Partner das eigene Passwort mitteilen zu müssen. Die Verschlüsselung in der neuen Boxcryptor Version beruht dann auf RSA (4096 bit) und AES (256 bit).

Folgende Features sind bereits in der Technical Preview für Windows vorhanden:

  • Sichere Zugriffsfreigabe: Das private Boxcryptor Passwort muss nicht mehr geteilt werden, um geteilte Dateien entschlüsseln zu können. Das private Passwort bleibt immer geheim und wird niemals übertragen. Wichtig hierbei: Boxcryptor hat auch nach wie vor zero knowledge.
  • Einfacherer Zugriff auf Dateien: Es gibt keinen speziellen Boxcryptor Ordner und mehrere Laufwerke mehr wie in den 1.x Versionen. Vielmehr gibt es nur noch ein Boxcryptor Laufwerk über das auf alle verschlüsselten Ordner zugegriffen werden kann.
  • Gruppenfunktion: Mit der Gruppenfunktion kann schnell und einfach der Zugriff auf Dateien für eine Gruppe ermöglicht werden. Des weiteren können Gruppen auch neu erstellt werden bzw. Gruppenmitglieder hinzugefügt und entfernt werden. Diese Funktion wird es später allerdings nur in der Business-Version geben.

Auch für Android ist eine erste Technical Preview verfügbar. Diese beinhaltet allerdings nur Grundfunktionen wie den Up- und Download zu Dropbox (hier können auch mehrere Konten parallel eingerichtet werden) sowie die lokale Speicherung auf dem Gerät selbst.

Kommentar

Boxcryptor gehört zu den wenigen deutschen Startups im Cloud Computing Markt, bei denen man von einer echten Innovation sprechen kann. Was Robert Freudenreich und sein Team mit ihrer Lösung bisher auf die Beine gestellt haben, trifft genau die Sorgen und Bedürfnisse der Anwender, um Daten unabhängig verschlüsselt von einem Cloud Anbieter in dessen Cloud Storage zu speichern. Boxcryptor schafft damit einen echten Mehrwert im Bereich der Cloud Storage Services, was meiner Einschätzung nach dazu führen wird, dass die ersten Übernahmeangebote nicht mehr lange auf sich warten lassen.



Die Cloud steht für die maximale flexible Vernetzung der Welt und unserer Gesellschaft

Redet man von der Cloud, fallen einem direkt die Schlagworte Skalierbarkeit, Verfügbarkeit und Flexibilität ein. Mit einem Blick auf die jüngsten und zukünftigen Entwicklungen, lässt sich damit aber ebenfalls ein anderer Zusammenhang feststellen, den ich bereits während meines Vortrags auf dem Webmontag Frankfurt vorgestellt habe. Von einem anderen Blickwinkel betrachtet steht die Cloud für die maximale flexible Vernetzung vieler unterschiedlicher Bereiche, die heutzutage so sonst gar nicht vorstellbar wären.

Die Cloud steht für die maximale flexible Vernetzung der Welt und unserer Gesellschaft

Die Cloud umhüllt das Internet

Eigentlich steht die Cloud sinnbildlich für das Internet. Das Wort Cloud ist aus der Illustration der Netzwerktechnik abgeleitet, in der das Internet immer als Wolke (Cloud) dargestellt wird. Das hängt damit zusammen, dass es sich beim Internet um ein globales, dezentralisiertes Netz handelt, welches aus vielen lokalen und nationalen Netzen besteht, die miteinander verbunden sind. Wie Daten innerhalb des Internets ausgetauscht werden, ist von außen nicht direkt sichtbar. Da auf sämtliche Daten und Anwendungen im Sinne des Cloud Computing über das Internet zugegriffen wird, steckt nun alles in der Wolke.

Betrachtet man nun aber die Entwicklung vieler IT-Trends aus der jüngeren Vergangenheit und das, was uns noch bevorsteht, ist die Cloud viel mehr als nur das Internet. Die Cloud ist im Grunde genommen der Mehrwert, von dem das Internet, wie wir es heute kennen und nutzen, lebt. Nehmen wir hier das Beispiel Smartphones. Ohne die Cloud hätten wir lange nicht so viel Spaß damit wie wir es heute haben. Wir wären nicht in der Lage miteinander ortsunabhängig zu chatten, uns mitzuteilen oder Dinge zu teilen. Ebenso speichern die meisten Apps, die wir auf unseren Smartphones nutzen, ihre Daten in der Cloud. Nehmen wir als ein weiteres Sub-Beispiel für das Smartphone den Bereich Augmented Reality. Also die Echtzeit-Darstellung von Mehrwert Informationen eines Objektes, das wir durch die Kamera des Smartphones sehen. Augmented Reality Apps speichern die Mehrwert-Information nämlich nicht auf dem lokalen Endgerät - dafür haben die Geräte viel zu wenig Speicherplatz - sondern laden die Daten bei Bedarf zur Laufzeit aus der Cloud. Diese Beispiele zeigen, dass erst die Cloud diese Entwicklung ermöglicht.

Die Cloud ist nicht das Internet

Die Cloud ist nicht das Internet. Die Cloud ist eine Schicht, die das Internet umhüllt und auf Basis ihrer Services für eine maximale flexible Vernetzung sorgt. Es sind die Services der Cloud- und weiterer Anbieter aus diesem riesigen Ökosystem, die zu immer mehr Services führen und für eine immer stärkere Vernetzung sorgen.

Und es geht immer weiter

Schauen wir ein kurzes Stück in die Zukunft, sehen wir den nächsten Mega-Trend schon auf uns zurollen, der sich auch bereits seit mehreren Jahren entwickelt und ohne die Cloud nicht möglich wäre. Das Internet of Things, bei dem alles mit jedem vernetzt ist und kommuniziert. In erster Instanz bedeutet das Internet of Things die Kommunikation von Maschine zu Maschine. Das Auto merkt z.B., dass man in 5 Minuten zu Hause ist und direkt den Kaffeevollautomaten einschaltet. Aber natürlich sprechen wir in diesem Zusammenhang auch von Service to Service Kommunikation, da schließlich auf den Maschinen auch Services laufen, welche die Informationen austauschen.
Ein weiterer sehr wichtiger Trend bzw. Markt sind die Smart-Grids (Das intelligente Stromnetz). Der Begriff Smart Grid bezeichnet die kommunikative Vernetzung und Steuerung von Stromerzeugern, Speicher, elektrischen Verbrauchern und Netzbetriebsmitteln in Energieübertragungs- und -verteilungsnetzen der Elektrizitätsversorgung. Damit soll eine Optimierung und Überwachung aller miteinander verbundenen Bestandteile ermöglicht werden. Das Ziel besteht in der Sicherstellung der Energieversorgung auf Basis eines effizienten und zuverlässigen Systembetriebs.

Am Ende sind es aber auch wir Menschen, die mit den Maschinen und Services kommunizieren, um eine bestimmte Aktion durchzuführen, denn das Smarthome ist schon lange keine Zukunftsidee mehr. Es hat auf Grund der Kosten jedoch noch keine große Verbreitung. Aber hier entwickelt sich auch auf Grund der Cloud ein neuer Markt, der günstigere und vor allem intelligentere Angebote hervorbringt. (Mehr dazu im Video.)

Unterm Strich muss man daher sagen, dass die Cloud als umfassendes IT-Konzept wahrscheinlich den größten Einfluss auf unsere Gesellschaft hat, wie kein anderer Trend zuvor.

Video: Webmontag Frankfurt

Cloud – Big Data – … oder wie finde ich einen Use Case from wmfra on Vimeo.



Die Amazon Web Services (AWS) nutzen möglicherweise Eucalyptus für den Bau der CIA Private Cloud

Es verdichten sich immer mehr die Gerüchte, dass Amazon für die CIA eine eigene Private Cloud für die Spionage bauen soll. Die erste Frage die sich dabei stellt ist natürlich warum für einen Geheimdienst? Die zweite, warum Amazon AWS als Public Cloud Anbieter, die Serviceanbieter und kein Softwareanbieter sind. Denkt man ein wenig weiter, kommt sofort Eucalyptus ins Spiel.

Der Amazon Deal mit der CIA

Laut der Federal Computer Week, haben die CIA und die Amazon Web Services (AWS) einen 600 Millionen Dollar schweren Vertrag mit einer Laufzeit von 10 Jahren abgeschlossen. Dabei geht es darum, dass Amazon AWS für die CIA eine Private Cloud auf der Infrastruktur der Regierung bauen soll. Viel mehr Informationen gibt es derzeit nicht.

Stellt sich dennoch die Frage, warum die CIA Amazon gefragt hat. Steckt hinter den $$$ noch mehr? Eines ist klar. Amazon gehört zu den wenigen Unternehmen, die über die Kenntnisse und Mitarbeiter verfügen, um sehr erfolgreich eine Cloud Infrastruktur zu betreiben. Trotz manch vermeidbarer Ausfälle, ist die Infrastruktur als äußerst robust und smart entwickelt einzuschätzen. Allerdings hat Amazon einen Nachteil. Sie sind Serviceanbieter und kein Softwareanbieter. Das bedeutet sie haben keine Erfahrung damit, wie man Software ausrollt, Kunden mit Updates usw. versorgt. Zudem werden sie wahrscheinlich bzw. hoffentlich nicht den selben Quellcode für die Cloud der CIA verwenden.

Hier könnte nun aber eine Kooperation ins Spiel kommen, die Amazon vor längerer Zeit mit Eucalyptus eingegangen ist und damit das Problem der nicht vorhandenen Software für on-Premise Clouds und die Erfahrung mit der Wartung usw. von Software für Kunden behebt.

Die Kooperation zwischen Amazon AWS und Eucalyptus

Kurz zusammengefasst handelt es sich bei Eucalyptus um einen eigenständigen Fork der Amazon Cloud, mit dem eine eigene Cloud mit den grundlegenden Eigenschaften und Funktionen der Amazon Cloud nachgebildet werden können.

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus haben im März 2012 angekündigt, in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen. Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Amazon Eucalyptus Private Cloud für die CIA

Diese Kooperation könnte nun erste Früchte für beide, Amazon als auch Eucalyptus, tragen. Durch die sehr nahe Ähnlichkeit von Eucalyptus zur Amazon Cloud, steht bereits eine fertige und direkt einsetzbare Cloud Software zur Verfügung, die Amazon kennt und sein weiteres Wissen mit einbringen kann. Services, die Eucalyptus noch nicht unterstützt, von der CIA aber benötigt werden, können successive nachgebaut werden.
Das könnte Eucalyptus wiederum bei der eigenen Weiterentwicklung helfen, indem entweder Kenntnisse aus deren Entwicklung oder gar Teile von Services in das generelle Produkt zurückfliessen.

PS:

Ich habe mit der nun scheinbar offiziellen Zusammenarbeit zwischen Amazon und der CIA so meine Probleme. Ein Stichwort heißt hier Vertrauen, was Amazon durch die Kooperation mit einem Geheimdienst für sich nicht weiter fördert.



Eine eigene Private Cloud macht doch finanziell überhaupt keinen Sinn?!

Diese Frage stellte mir ein Besucher auf der CeBIT nach meinem Vortrag/ Panel "Public vs. Private Cloud" auf der Webciety 2013. Wir haben uns anschließend über die Thematik ein wenig unterhalten. Ihm ging es dabei um die Frage, warum sich manche Unternehmen trotz der hohen Investitionen für eine Private Cloud entscheiden und wie sie diesen Kapitalaufwand messen und rechtfertigen.

Private Cloud ist ein finanzieller Kraftakt

Wer sich für den Aufbau einer echten Private Cloud entscheidet, sollte sich auch bewusst machen, das dies mehr bedeutet, als bspw. nur einen Terminalserver aufzubauen. Cloud Computing, auch in der Private Cloud, bedeutet u.a. Self-Service, Skalierbarkeit, Ressourcen-Pools, Automatisierung, granulare Abrechnung und on-Demand Bereitstellung der Ressourcen. Eine Grundlage der Cloud ist dabei die Virtualisierung. Für die Virtualisierung wird Hardware benötigt, aus welcher die virtuellen Ressourcen erstellt werden. Um eine nennenswerte Skalierbarkeit und vor allem Verfügbarkeit zu gewährleisten, muss hier entsprechend in Hardware investiert werden. Weitere Kostenpunkte sind die Software, welche die Cloud-Funktionalität liefert und die für das Pooling der Ressourcen, die automatische on-Demand Bereitstellung, den Self-Service, die Abrechnung usw. zuständig ist. Darüber hinaus benötigt man das Personal mit den entsprechenden Kenntnissen, das die Cloud-Infrastruktur aufbaut, wartet und betreibt. Man wird dadurch also sein eigener Cloud Anbieter.

Wenn man sich daher überlegt, welche finanziellen Aufwände gestemmt werden müssen, um die Eigenschaften einer eigenen Cloud zu realisieren, kommt man schnell zu dem Ergebnis, dass eine Private Cloud rein wirtschaftlich betrachtet keinen Sinn ergibt. Es sei denn man achtet nicht auf die Kosten und möchte sein Unternehmen in einem sehr privaten Rahmen damit agiler machen und z.B. die Zufriedenheit seiner Mitarbeiter erhöhen, ohne sich dabei in die Abhängigkeit eines Anbieters zu begeben und auf dessen Datenschutzniveau angewiesen zu sein.

Die KPIs des Cloud ROI müssen erweitert werden

Der erfolgreiche Einsatz von Cloud Computing lässt sich nicht immer in harten Zahlen ausdrücken. Mehr dazu habe ich in dem Artikel "Der Cloud Computing ROI: Kosten sagen nicht immer viel aus!" geschrieben.

Ich rate bewusst, bei der Bewertung des Cloud Computing nicht immer nur auf die reinen Kosten zu schauen, sondern weitere Faktoren mit einzubeziehen, die ein typischer Return on Investment (ROI) nicht kennt. Dessen KPIs (Key Performance Indicator) messen nur den finanziellen Input und den daraus resultierenden Output. Bei der Private Cloud wird der Output aber ständig negativ ausfallen, da direkt kein echter Wertbeitrag zu sehen ist. Es sei denn, man definiert sich einen. Das hat nichts mit Mogeln zu tun, sondern ist eine logische Schlussfolgerung, die sich aus der Flexibilität und Agilität des Cloud Computing ergibt.

Eine dieser KPIs und für mich eine der Entscheidendsten: "Die Zufriedenheit der Mitarbeiter". Diese sagt aus, wie glücklich meine Mitarbeiter mit der Nutzung und Bereitstellung der aktuellen IT-Infrastruktur sind. Ich behaupte diese KPI wird bei sehr vielen Unternehmen dunkelrot sein. Umsonst gibt es nicht so einen hohen Drang zur Schatten-IT.

Mit dem Aufbau einer Private Cloud lässt sich z.B. die Bereitstellung von Ressourcen stark beschleunigen. Server können damit anstatt in Tagen oder Wochen innerhalb von 5 Minuten zur Verfügung stehen. Insbesondere Entwickler fragen nach der on-Demand Bereitstellung von Ressourcen. Einfach mal direkt fragen. Leider fließt der Wert, der aussagt, dass ein Entwickler bzw. Mitarbeiter zufrieden arbeitet, niemals in den ROI ein. Das sollte er aber. Denn die Agilität, Flexibilität und Zufriedenheit sollten einen ebenso großen Stellenwert einnehmen wie die reinen Kosten.



Open-Xchange: Die gehostete Alternative zu Google Apps und Microsoft Office 365

Open-Xchange hat heute seine erste eigene Cloud-basierte Office-Suite vorgestellt. Die erste App "OX Text" aus der Office Productivity Suite soll planmäßig Anfang April bereitstehen. Damit lassen sich künftig Microsoft Word .docx- und OpenOffice/LibreOffice .odt-Dateien direkt im Browser bearbeiten. Die gemeinsame Arbeit an einem Dokument wird über ein Token gelöst, das herumgereicht wird. Das bedeutet, dass nicht parallel an einem Dokument gearbeitet werden kann, alle Änderungen bei allen Teilnehmern aber in Echtzeit angezeigt werden.

Sehr gut gelöst: Formatierungen bleiben erhalten

Hat man ein Dokument mit Microsoft Office erstellt und will es später mit OpenOffice oder auch Google Docs weiter bearbeiten steht man vor einem nicht zu unterschätzenden Problem. Meistens ist die vollständige Formatierung der DOC-Datei hinüber, sobald man sie in einem MS Office fremden Produkt öffnet. OX Text geht hier einen prinzipiell einfachen aber dennoch innovativen Weg. Es lassen sich .docx- und .odt-Dateien im Browser lesen und editieren, ohne das diese konvertiert werden. OX Text speichert nur die Änderungen und nicht das gesamte Dokument. Dadurch bleiben Formatierungen und Layout des ursprünglichen Dokumentes vollständig erhalten.

Alle Formatierungen des ursprünglichen Dokumentes bleiben während der Bearbeitung unangetastet. Auch Elemente, die OX Text nicht kennt und bearbeiten kann, wie z.B. WordArt-Effekte, werden nicht verändert. Der OX Text Editor bietet nur die Funktionen zur Bearbeitung an, die das Layout des Ausgangsdokumentes nicht kompromittieren. Dadurch stellt OX Text sicher, dass das Layout des ursprünglichen Dokumentes erhalten bleibt.

Parallel wird der OX Document Viewer veröffentlicht. Damit können Anwender Text- und .pdf-Dateien, Tabellenkalkulationen und Präsentationen im Browser lesen, ohne dass sie die entsprechenden Dateien dafür auf ihr Endgerät herunterladen müssen. Abgerundet wird der Funktionsumfang von OX Documents durch Online-Werkzeuge zur Bearbeitung von Tabellenkalkulationen und Präsentationen, OX Spreadsheet und OX Presentation, die noch in diesem Jahr fertig werden sollen.

OX Documents = OpenOffice in der Cloud

Ich warte schon lange auf ein OpenOffice aus der Cloud. Nun ist es im Prinzip soweit. Open-Xchange selbst bezeichnet OX Documents als Web-Nachfolger von OpenOffice, da es von Mitgliedern des ehemaligen OpenOffice-Teams in Hamburg entwickelt wird und die seit einem Jahr Bestandteil der OX-Entwicklungsmannschaft sind.

Eigenständig oder in der Suite

OX Documents ist als eigenständiges Produkt oder als Erweiterung von OX App Suite erhältlich. Der von Open-Xchange im Februar veröffentlichente browser-basierte Desktop OX App Suite umfasst Apps zur Bearbeitung von E-Mails, Terminen, und Kontakten, die um Nachrichten und Informationen aus sozialen Netzwerken wie Facebook, LinkedIn, XING und Twitter ergänzt werden können. Komplettiert wird der Funktionsumfang von OX App Suite mit einer Dateiverwaltung für Bilder-, Audio-, Video- und Office-Dateien.

Für OX App Suite hat Open-Xchange eine komplett neue, web-basierte Benutzeroberfläche entwickelt. Anwender können OX App Suite sofort und mit jedem Endgerät nutzen, das einen Browser hat - ohne dass sie dazu Lizenzen kaufen oder Software installieren müssen. Bei Verlust oder Defekt eines Gerätes sind alle Dateien zentral gesichert.

Unterschiedliche Endgeräte eine Lösung

Auf Basis des “Responsive Design” passt sich OX App Suite automatisch an die unterschiedlichen Display-Größen von PC, Laptop, Tablet und Smartphone an, was auf jedem Gerät eine bestmögliche Benutzbarkeit ermöglicht. Und durch
konsequente Nutzung des “Local Storage” aktueller Browser mittels HTML5 und Javascript steht OX App Suite der Performance traditioneller Client-Server-Software in nichts nach.

Cloud und Lokal

OX App Suite und OX Documents sind Online- und Offline-fähig. Das heißt, dass angefangene E-Mails und Dokumente auch dann nicht verloren gehen, wenn die Internetverbindung – beispielsweise im Zug – abbricht. Bei der nächsten Verbindung werden die Änderungen automatisch übertragen.

Kommentar: Google Apps und Microsoft Office 365 sollten sich warm anziehen

Ich hatte auf der CeBIT die Gelegenheit ausführlich, inkl. Showcase der neuen Funktionen, mit Open-Xchange CEO Rafael Laguna zu sprechen. Daher kann ich alle oben genannten Möglichkeiten bestätigen.

Besonders überzeugt hat mich der Umgang mit der Formatierung importierter Dokumente und die Möglichkeiten des Workflows sämtlicher Dokumente. Im ersten Moment klingt diese neue Funktion sehr simple. Wenn man jedoch überlegt, dass alle Lösungen am Markt Probleme damit haben, Microsoft Office Dateien sauber zu verarbeiten, ist das keine Magie. Das hängt grundsätzlich damit zusammen, dass Microsoft Office x Funktionen und Formatierungen abbildet. Um ein Dokumente 1:1 zu laden, bearbeiten und wieder speichern zu können, müssen also exakt diese Funktionen nachprogrammiert werden. Das rentiert sich im Normalfall jedoch nicht. Open-Xchange hat sich dafür entschieden, ausgewählte Standard-Funktionen zu unterstützen und alles was nicht bekannt ist, wie z.B. WordArt oder spezielle Formatierungen durch einen Platzhalter zu ersetzen, der nicht verändert werden kann.

Was Google Docs von anderen Cloud Kollaborationslösungen abhebt, ist die Möglichkeit, mit mehreren Leuten parallel an einem Dokument zu bearbeiten. Open-Xchange hat sich hier gegen das parallele Bearbeiten und für die Token-Methode entschieden, da eine Umfrage innerhalb der Zielgruppe zu dem Ergebnis gekommen ist, dass daran kein Interesse besteht. Ich finde das ein wenig schade, da ich mit der parallelen Bearbeitung von Dokumenten in Projekten bisher sehr gute Erfahrungen gemacht habe. Das Dokument ist sehr viel schneller fertiggestellt.

Gut gelöst ist auch der Workflow mit Dokumenten. Bekommt man z.B. eine Datei per E-Mail, lässt sich diese von dort direkt öffnen, bearbeiten und nach dem Speichern wieder direkt verändert an den ursprünglichen Absender zurückschicken. Open-Xchange erlaubt dazu das Verschicken der physischen Datei als auch nur einen Link zu dieser Datei.

Lagunas Argumentation, dass proprietäre Dateiformate der falsche Weg sind, weil sie eine Zusammenarbeit erschweren und die Anwender zudem wieder an die Nutzung einer bestimmten Applikationen ketten, kann ich nur bedingt zustimmen. Richtig ist, dass proprietäre Dateiformate den Nutzer dazu zwingen, eine bestimmte Anwendung zu nutzen. Jedoch werden wir das noch eine ganze Weile benötigen. Denn aktuell sind wir noch weit davon entfernt, dass der Browser das Betriebssystem wird und wir darüber alle unsere Daten bearbeiten und speichern. Es wird immer eine hybride Form geben müssen, wodurch auch Daten auf ein lokales System heruntergeladen werden. Das geht in der Regel nur mit einem bestimmten Dateiformat, dass in irgendeiner Form proprietär ist. Sei es nun aus der Open-Source Welt oder von Anbietern wie Microsoft. Schließlich muss Open-Xchange seine Daten auch in einem Datenformat freigeben, wenn der Anwender wechseln möchte.

Open-Xchange ist eine ernsthafte Alternative

Nicht nur an der Integration zwischen E-Mail und Docs App sieht man, dass sich Open-Xchange von einer E-Mail Lösung zu einer ernsthaften Kollaborationslösung und Alternative zu Platzhirschen wie Google Apps und Microsoft Office 365 entwickeln wird. Neben dem stetig wachsenden Funktionsumfang bietet Open-Xchange zudem mittlerweile ein sehr schickes Look and Feel, was man für die tägliche Arbeit nicht unterschätzen sollte.

Open-Xchange ist für alle interessant, die Google Apps oder Microsoft Office 365 nicht trauen, lieber einen Anbieter mit einem Rechenzentrum in Deutschland haben möchten oder doch lieber alles selbst machen. Eine hohe Verbreitung hat bzw. bekommt Open-Xchange durch eine kommerzielle White-Label Lizenz an Hosting- und Telekommunikationsanbieter, die ihren Kunden OX App Suite damit als Software-as-a-Service (SaaS) anbieten können. Weiterhin richtet sich die Lösung an Systemintegratoren und VARs, die OX App Suite als Managed Service oder für Inhouse-Installationen nutzen wollen.

Welche Verfügbarkeit ist erwünscht

Um Open-Xchange einzusetzen stehen drei Varianten zur Verfügung.

Als Software-as-a-Service (SaaS) von einem Webhoster

Dabei handelt sich um die eleganteste und einfachste Möglichkeit. Die meisten großen deutschen Webhoster setzen als White-Label im Hintergrund auf Open-Xchange. Hat man dort bereits einen Tarif inkl. Webmail, stehen die Chancen gut, dass man derzeit schon eine ältere Version von Open-Xchange nutzt. Der grundsätzliche Vorteil, Open-Xchange über einen Webhoster zu nutzen ist der Umstand, sich nicht selbst um den Betrieb, die Wartung und Aktualisierung der Software und der dafür benötigten Infrastruktur zu kümmern. Außerdem stehen die Server bereits im Internet, was den überall Zugriff auf die Daten erleichtert.

Selbst bei einem Webhoster betreiben

Natürlich kann man Open-Xchange auch selbst bei einem Webhoster auf einem Server betreiben. Aber Vorsicht, um die Verfügbarkeit von Google Apps oder Microsoft Office 365 zu erhalten, reicht es bei weitem nicht aus, sich einfach nur einen virtuellen Server aufzusetzen. Da sollte man sich eher Gedanken über die Hochverfügbarkeit machen, die Open-Xchange selbst nicht mitliefert. OX ist an dieser Stelle einfach nur ein Stück Software. Für Hochverfügbarkeit sorgen dann wiederum Infrastructure-as-a-Service (IaaS) Lösungen wie openQRM oder auch OpenStack. Aber bitte nicht vergessen: IaaS bedeutet Infrastruktur = u.a. Hardware die für die entsprechende Virtualisierung. Zudem reicht ein Server bei weitem nicht, um die Verfügbarkeit und Eigenschaften einer Cloud zu erreichen.

Privat auf eigenen Servern

Auch die Installation im eigenen Rechenzentrum ist eine Variante. Dabei gilt jedoch dasselbe wie bei dem Betrieb beim Webhoster. Ein Server reicht für die Ansprüche an ein Hochverfügbarkeits- oder gar Cloud-Szenario nicht aus. Auch hier sollte man sich dann darauf konzentrieren, zunächst eine Cloud Infrastruktur auf Basis von openQRM oder OpenStack aufzubauen, auf der dann Open-Xchange betrieben wird. Vernachlässigen sollte man aber auch nicht, dass Open-Xchange eine Kollaborationsumgebung ist. Das bedeutet der überall Zugriff auf die OX Installation ist zwingend erforderlich, was auch Auswirkungen auf die Bandbreite der jeweiligen Internetanbindung, bevorzugt den Upload, hat.



Wie zukunftssicher ist das Google Cloud Portfolio?

Google ist bekannt dafür, "mal eben" einen neuen Service auf den Markt zu schmeißen. Dafür steht die Unternehmenskultur. Sie fördert die Kreativität innerhalb des Unternehmens und sorgt für Innovationen. Am Ende des Tages muss aber auch bei Google der Spielplatz aufgeräumt werden. Das führte in der jüngsten Vergangenheit zu unzähligen Schließungen bekannter und weniger bekannter Services. Neuestes populäres Opfer ist der Google Reader. Dieser soll nun zum 01. Juli 2013 eingestellt werden. Da stellt sich natürlich die Frage, wie anfällig Googles Cloud Services für eine Portfolio Bereinigung sind. Der Finger auf dem Schließen-Button scheint zumindest sehr locker zu sitzen.

Langfristigkeit vs. Popularität

Google stampft den Google Reader ein, da dessen Popularität, nach eigenen Angaben, in der Vergangenheit stark eingebrochen ist. Das Google hier scheinbar nicht ganz richtig liegt, zeigt eine aktuelle Petition gegen dessen Schließung. Immerhin haben sich hier in kürzester Zeit 20.000+ dagegen ausgesprochen.

Manchmal erweckt Google bei mir den Eindruck, ein großes Kind zu sein. Es findet viele Dinge auf einmal spannend (20 Prozent Regel), spielt damit, investiert Zeit und verliert dann das Interesse und die Lust, wenn die Spielkameraden scheinbar auch nicht mehr damit spielen möchten. Die Konzentrationsphase ist nur bei einigen wenigen Produkten wirklich hoch. (Unternehmerisch natürlich richtig.)

Unternehmen sehen das nicht gerne

Google unternimmt derzeit große Anstrengungen sich im Unternehmensumfeld breit zu machen. Hinsichtlich bestehender Anbieter wie Microsoft oder IBM keine leichte Aufgabe. Googles Trumpfkarte ist, dass sie in der Cloud geboren sind und die Regeln aus dem Effeff kennen. Schließlich haben sie diese quasi selbst mit entwickelt.

Dennoch sei die Frage gestattet. Warum soll ein Unternehmen auf Google Cloud Services, wie Google Apps oder die Google Cloud Platform setzen, wenn Services, die scheinbar nicht ausreichend gut genutzt werden, plötzlich geschlossen werden? Auch wenn Google die genannten Cloud Lösungen mittlerweile monetarisiert hat, diese Frage behält ihre Berechtigung. Denn durch die Monetarisierung bekommt der einzelne Service plötzlich eine neue KPI, den Umsatz!

Google darf davon ausgehen, dass Unternehmen nicht davon begeistert sein werden, wenn sie plötzlich eine E-Mail bekommen, dass der von ihnen genutzte Service auf Grund sinkender Attraktivität und Umsatzzahlen in drei Monaten geschlossen wird.

Für Unternehmen ist diese Art des Produktmanagements nicht attraktiv und Google muss lernen, dass Unternehmen anders behandelt werden müssen als Privatnutzer. Auch wenn die Consumerization weiter fortschreitet.

Das Portfolio bereinigen ist gut, aber...

Keine Frage, es ist sinnvoll sein Portfolio stetig zu säubern. Das ist auch vielen anderen Anbietern zu empfehlen. Allerdings scheinen diese im Sinne ihrer Kunden zu handeln und bieten für ihre Produkte und Services eine langfristige Roadmap an. Hingegen scheint der Finger auf dem "Service Schließen-Button" bei Google relativ locker zu sitzen.

Ich glaube kaum, dass Unternehmen zu einer Petition gegen die Schließung eines Google Services zusammenkommen werden. Zwar hört man immer wieder gerne von "Too big to fail", aber so groß ist Google dann auch wieder nicht.



Cloud-Desktop: Der Browser wird das Betriebssystem

Die Vielzahl unterschiedlicher Software-as-a-Service Applikationen und weiterer Cloud-Services nimmt stetig zu. Das führt neben einem schwierigen Überblick ebenfalls zu einer höheren Komplexität. Ein Trend sind Cloud Marketplaces, die einen Katalog verschiedener Services kategorisieren und damit ein Gesamtportfolio ergeben. Was diesen Marketplaces derzeit jedoch noch fehlt, ist die Integration der vorhanden Services und Applikationen. Das führt dazu, dass nicht auf einer gemeinsamen Datenbasis gearbeitet wird und wie aus vielen on-Premise Infrastrukturen bekannt, Daten- und Applikationssilos entstehen.

Stand der Dinge

Die Problematik der Cloud Datensilos besteht nicht nur in den Cloud Marketplaces. So werden auch Integrationsmöglichkeiten von z.B. einer CRM SaaS Lösung mit einer Office Suite beworben. In der Praxis ist die Umsetzung jedoch eher bescheiden gelöst. Irgendwie sind die Systeme zwar verbunden. Im Endeffekt arbeitet man aber auf unterschiedlichen Systemen, auf getrennten Daten und muss sich auch bei beiden separat anmelden.

Es fehlt der Cloud derzeit also die Integration unterschiedlicher und voneinander unabhängiger Services für die Arbeit auf einer gemeinsamen Datenbasis.

Integration ist zwingend erforderlich

Spricht man von Integration meint man Schnittstellen und Daten. Ich hatte vor längerer Zeit mal angedeutet, dass Cloud Computing für Unternehmen die Chance bedeuten kann, mit ihren historisch gewachsenen Insellösungen aufzuräumen. Unternehmen mit Insellösungen haben es durch die Cloud nun einfacher ein Einzelsystem dieser Insellösung gegen einen Cloud Service auszutauschen, um darüber sukzessive ein vollständig integriertes (Gesamt)-System von mehreren Cloud Services zu erhalten. Die Praxis ist an dieser Stelle zwar noch nicht so weit, es gibt aber erste Bestrebungen dieses zu ändern. Und das ist unumgänglich, um die Vielfalt unterschiedlicher Cloud Services zu nutzen. Ein entscheidender Punkt hierbei ist der Zugriff der jeweiligen Cloud Services auf einen gemeinsamen Datenbestand. Das bedeutet, dass jede Anwendung in einen quasi zentralen Speicher ihre Daten ständig ablegt und von dort auch wieder aufrufen muss.

Für den Integrationslayer ist zwangsläufig aber keine zentrale und persistente Datenbasis erforderlich. Eine Möglichkeit besteht auch darin, die Daten in Echtzeit aus den integrierten Systemen zu laden. Diese werden anschließend aufbereitet und auf einer einheitlichen Oberfläche dargestellt. So kann zum Beispiel auch ein beliebiger Cloud-Storage eingebunden werden, auf dem Daten (Bilder, Videos, usw.) abgelegt sind. Das bedeutet jedoch, dass alle Cloud Services, die Teil dieses Ökosystems werden wollen ihre APIs nach Außen öffnen müssen, um die Daten laden und zurückspeichern zu können.

Der Browser wird das Betriebssystem

Unabhängig davon wie die Integration im Einzelnen gelöst wird. Der Browser wird das "one face to the customer", also zum zentralen Interface, wenn der Benutzer auf das Internet zugreift. Die von mir vor kurzem beschriebenen Desktop-as-a-Services (DaaS) sind dabei nur ein Zwischenschritt zum eigentlichen Endzustand. Zwar stellen DaaS vollwertige Arbeitsumgebungen inkl. klassischen Applikationen über die Cloud bereit. Jedoch läuft der DaaS normalerweise im Browser. Das bedeutet, man startet zunächst seinen Rechner, dann den Browser um erneut ein Betriebssystem zu starten. Würde ein Unternehmen somit auf Software-as-a-Service Lösungen als auch DaaS setzen, enstehen wieder die Daten- und Applikationssilos.

Das Ziel besteht daher in der Entwicklung einer Art "Über Cloud", über die per Single Sign-On auf sämtliche Services in der Cloud - die Teil des Ganzen sein möchten - unter einer einheitlichen Oberfläche zugegriffen wird. Das ist wohlgemerkt kein neues Konzept und wird bereits erfolgreich umgesetzt. Jedoch nur auf einer sehr proprietären Basis mit Services von einem einzelnen Unternehmen. Sollen hier externe Services eingebunden werden, scheitert dieser Ansatz bisher.

Diese "Über Cloud" kann entweder als Public Cloud Service oder als private Lösung bereitstehen. Die private Lösung hätte den Vorteil, dass die IT-Abteilungen sie wie einen Service-Broker bzw. wie ein Serviceportal inkl. Applikationsfirewall für die Mitarbeiter nutzen können und darüber ein wenig Kontrolle über Business-Applikationen erhalten.

Das Szenario würde bedeuten, dass ein Mitarbeiter sich an der "Über Cloud" anmeldet und alle für ihn relevanten Business-Anwendungen sieht. Anhand der Anmeldung an der "Über Cloud" ist er direkt an alle anderen Anwendungen angemeldet.

Die "Über Cloud" sollte dabei wie ein Plugin-System aufgebaut werden, mit der sich jedes Unternehmen für seine Zwecke eine ganz persönliche Productivity Cloud zusammenstellen kann. Durch das Plugin-System lassen sich unterschiedliche Apps/ Services einbinden, wenn deren API dies zulässt. Entweder werden die Daten innerhalb einer gemeinsamen Oberfläche dargestellt. Die Daten also zur Laufzeit geladen und nach Veränderungen zurückgespeichert oder die jeweiligen Services in "Tabs" organisiert. Wichtig ist nur, dass die Daten in einer Art zentralen Zugriff stehen. So würde sich bspw. auch jeder beliebige Cloud Storage nutzen, da dieser nur angedockt wird. Wo die Daten liegen bestimmt damit das Unternehmen selbst.

Der Browser wird das Betriebssystem werden, jedoch müssen dafür noch die richtigen und unabhängigen Plattformen geschaffen werden.



Enterprise App Store – Aber bitte aus der Cloud: Virtual Private Enterprise App Store

Enterprise App Stores sind im kommen. Die zunehmende Verbreitung mobiler Endgeräte und Applikationen in Kombination mit Cloud-Services werden dazu führen, dass Unternehmen eigene App Stores einführen werden, um ein wenig Kontrolle über die genutzten Applikationen ihrer Mitarbeiter und deren Kosten zurückzugewinnen.

Enterprise App Store

Apps aus öffentlichen Apps Stores führen zu Problemen bei der IT-Sicherheit. Neben Bring your own Device (BYOD) gilt es ebenfalls Lösungen für Bring your own Application (BYOA) zu finden, um damit einen Überblick und Kontrolle zu haben, welche App von welchem Mitarbeiter für geschäftliche Zwecke eingesetzt wird, um das bekannte Scheunentor geschlossen zu halten.

Eine Lösung, um die Kontrolle zurückzuholen sind sogenannte "Enterprise App Stores", also unternehmensweite Kataloge von Applikationen, die mobile, sowie Desktop und Web-Applikationen aus einem zentralen, durch das Unternehmen administrierten Store bereitstellen. So sollen insbesondere mobile Anwendungen schneller und komfortabler ausgerollt und ein standardisierter Support für viele Endgeräte geboten werden. Aber auch weitere Applikationen sowie spezielle Unternehmensanwendungen müssen verwaltet werden können, wodurch Stores benötigt werden, die alles unter einem Dach vereinen.

Aber, und das ist ein entscheidender Punkt, vor allem die Mitarbeiter müssen mit dem App Store zufrieden sein. Das bringtendie Konzepte BYOD und BYOA mit sich. Es müssen auch die Apps im Angebot sein, die der Mitarbeiter auch (privat) nutzen möchte (BYOA) und von dem Gerät unterstützt werden, dass er im Einsatz hat (BYOD). Hinzu kommt, dass auf den App Store zu jeder Zeit und von jedem Ort aus zugegriffen werden muss und der Mitarbeiter sich nicht erst im firmeneigenen Netz befinden darf.

Nachteile eines lokalen Enterprise App Store

Sind wir ehrlich, welches Unternehmen hat Zeit, Lust und vor allem das Kapital für den Aufbau und die Wartung einer eigenen Enterprise App Store Infrastruktur? Darüber hinaus lässt sich kostengünstig und bequem kein sicherer Überall-Zugriff auf diesen App Store gewährleisten. Und wer möchte es seinen Mitarbeitern zudem antun, ständig ins Büro fahren zu müssen, um eine neue App zu installieren bzw. ein Update herunterzuladen? Wir reden hier also von Kosten und Aufwand, die in keinem Verhältnis zu dem eigentlichen Nutzen stehen. Außerdem ist die ganze Thematik viel komplexer als sie im ersten Moment erscheint.

Ein lokaler Enterprise App Store macht keinen Sinn

Nicht nur die oben genannten Gründen sagen aus, dass ein lokaler Enterprise Apps Store überhaupt keinen Sinn macht. Der App Store darf daher minimal in gehosteter Form zum Einsatz kommen. Das bedeutet, ein App Store Anbieter sorgt für den Betrieb und die Wartung einer dedizierten Plattform und bietet damit einen zentralen Zugriffspunkt zu jeder Zeit und von jedem Ort auf die Apps. Wo wir bei der nächsten Herausforderungen angekommen sind, den Apps.

Apps, Apps, Apps

Der Erfolg eines Apps Store steht und fällt mit der Menge an (qualitativ hochwertigen) Apps. Stehen diese nicht ausreichend bereit, wird der Store von den Nutzern irgendwann nicht mehr genutzt und Alternativen werden gesucht. Der App Store muss also dazu einladen, dass Anwender diesen aktiv nutzen und regelmäßig durchstöbern, neue Anwendungen entdecken und ihre Kollegen darauf aufmerksam machen. Die Herausforderung besteht somit darin, den Enterprise App Store attraktiv zu machen und vor allem attraktiv zu halten und dieses steht und fällt mit den darin vorhandenen Apps. Das lässt die Frage aufkommen, ob ein lokaler bzw. ein gehosteter Enterprise App Store überhaupt in der Lage sind, das zu erfüllen. Im Normalfall nicht, da beide auf den Input durch den Kunden angewiesen sind und keine Anbindung an öffentliche App Stores haben.

Virtual Private Enterprise App Store

Modell: Virtual Private Enterprise App Store

Virtual Private Enterprise App Store

Alle genannten Gründe führen zu einer Enterprise App Store Variante die gleichzeitig gehosted ist und ein Maximum an verfügbaren Apps bietet, die für Mitarbeiter attraktiv genug sind, um den App Store zu nutzen. Weiterhin sollen eigene Unternehmensapplikationen darin bereitgestellt werden können.

Das größte Angebot an Apps bieten die öffentlichen App Stores bekannter Anbieter, die über Cloud-Infrastrukturen bereitgestellt werden. Nachteil dieser Stores ist wie der Name bereits sagt, dass sie im öffentlichen Zugriff sind und jeder darauf anbieten kann was er möchte, sei dies nun gut oder schlecht. Es gibt Anbieter, die einen sehr harten Prozess verfolgen, bis die App letztendlich im Store landet. Andere wiederum überlassen die Qualitätssicherung derzeit noch vollständig der Community.

Dennoch sollte man das Potential dieser Public App Stores nicht unterschätzen und sich vor Augen führen, was es in Bezug auf Kosten für die gesamte App Stores Infrastruktur und den mobilen überall Zugriff auf diesen Store bedeutet und welche Komplexität zu bewältigen ist, den Store aufzubauen und zu betreiben.

Eine möglich Variante ist der "Virtual Private Enterprise App Store (VPEAS)*". Dabei handelt es sich um einen virtuellen abgetrennten Bereich (siehe Graphik) innerhalb eines Public App Stores, in dem Unternehmen ihren eigenen privaten App Store betreiben können, ohne dabei vorab in eine eigene Infrastruktur für den App Store selbst sowie in Netzwerkinfrastruktur investieren zu müssen. Sämtliche Public Apps können als Teilmenge zu einem VPEAS gehören. Spezielle Unternehmensanwendungen lassen sich als privat markieren und somit nur den eigenen Mitarbeitern bereitstellen. Um sicherzustellen, dass über den VPEAS nur Public Apps genutzt werden können, die als sicher eingestuft werden, müssen mit dem App Store Anbieter entsprechende Policies festgelegt werden. Die Authentifizierung erfolgt über ein spezielles Firmen Konto/ Profil für den Mitarbeiter auf dem lokalen Device. Anhand dessen können ebenfalls Regelungen getroffen werden, welche Apps ein Mitarbeiter nutzen darf oder nicht. Allerdings sollte hier vorab mit den App Power Usern zusammengearbeitet werden, um zu verstehen, welche Apps für die Mitarbeiter einen Wert haben.

* Bezeichnung gewählt von renebuest research.



Top-Trend: Webbasierte GUIs für Cloud IaaS

Viele Administratoren sind keine Entwickler und wissen dadurch zwangsläufig nicht, wie sie die APIs aktueller Infrastructure-as-a-Service (IaaS) Anbieter nutzen sollen, um sich programmatisch eine komplexe Cloud-Infrastruktur aufzubauen. Die nächste Generation von Cloud Angeboten, speziell im Bereich IaaS, muss und wird einfacher zu bedienen sein. Wir werden in Zukunft immer mehr Cloud Angebote sehen, die neben einer API zusätzlich eine graphischen Weboberflächen bieten, mit der sich Cloud-Infrastrukturen "zusammenklicken" lassen, ohne Kenntnisse von der darunter liegenden API besitzen zu müssen.

Webbasierte GUIs für Cloud Infrastrukturen

Vorreiter ist das deutsche Unternehmen openQRM-Enterprise, das seit 2009 zusätzlich zu seiner Open-Source Cloud Infrastruktur Lösung openQRM, für den Aufbau eigener Public und Private Clouds, ebenfalls den sogenannten "Visual Infrastructure Designer" mitliefert.

openQRM Visual Infrastructure Designer

openQRM Visual Infrastructure Designer


openQRM Visual Infrastructure Designer

Seit Mai 2012 bietet ProfitBricks, ebenfalls aus Deutschland, seine Infrastructure-as-a-Service Lösung an. Auch ProfitBricks hat als erster Public Cloud Anbieter am Markt eine webbasierte GUI für den Aufbau einer eigenen Cloud-Infrastruktur, den "Data Center Designer".

ProfitBricks Data Center Designer

ProfitBricks Data Center Designer

Beide Web-GUIs, sowohl der "Visual Infrastructure Designer" als auch der "Data Center Designer" helfen Cloud Administratoren bei dem Aufbau und der Verwaltung gewöhnlicher bis komplexer Cloud Infrastrukturen.

Open-Source Cloud Lösungen wie Eucalyptus, OpenStack oder CloudStack als auch Public IaaS Anbieter wie Amazon Web Services, Windows Azure oder Rackspace bieten solche Oberflächen nicht, wodurch Administratoren hier vollständig auf die APIs angewiesen sind.

Top-Trend mit Potential nach oben

Der "Visual Infrastructure Designer" von openQRM als auch der "Data Center Designer" von ProfitBricks schöpfen zwar noch nicht ihr volles Potential aus, zeigen aber sehr gut, in welche Richtung sich der Aufbau und das Management von Cloud-Infrastrukturen entwickeln wird. Neben einer umfangreichen und gut dokumentierten API gehören webbasierte graphische Managementoberflächen und Infrastruktur Designer-Tools zu den Top-Trends im Bereich Infrastructure-as-a-Service und gehören in Zukunft in jedes Portfolio eines IaaS Cloud Anbieters.



Jedes dritte deutsche Unternehmen nutzt die Cloud. Ehrlich? Glaube ich nicht!

Laut einer Umfrage des Bitkom unter 436 deutschen Unternehmen haben im Jahr 2012 bereits ein Drittel aller Befragten Cloud Computing genutzt. Das hört sich im ersten Moment viel an und zeigt, dass es in Deutschland Cloud-technisch weiter nach oben geht. Allerdings gehe ich davon aus, dass die Zahl geschönt ist. Nein, nicht durch den Bitkom selbst, sondern weil immer noch nicht klar ist, was Cloud Computing wirklich bedeutet und die meisten befragten Unternehmen schlichtweg mit Ja geantwortet haben, obwohl es sich gar nicht um Cloud handelt. Unterstützung bei meiner These bekomme ich dabei von Forrester Research.

Umfrage-Ergebnisse des Bitkom

Das nun jedes dritte Unternehmen in Deutschland auf Cloud setzt, bedeutet etwa ein Wachstum von 9 Prozent im Vergleich zu 2011. Hinzu kommt, dass 29 Prozent planen Cloud Lösungen einzusetzen. Ein weiteres Drittel sieht Cloud Computing überhaupt nicht auf der Agenda. Laut der Umfrage haben aktuell 65 Prozent der Großunternehmen ab 2.000 Mitarbeitern Cloud Lösungen im Einsatz. Der Mittelstand zwischen 100 bis 1.999 Mitarbeitern kommt auf 45 Prozent. Kleinere Unternehmen mit 20 bis 99 Mitarbeitern decken ein Viertel ab.

Private Cloud wird bevorzugt

Dabei setzen 34 Prozent der befragten Unternehmen auf eigene Private Clouds. Im Vergleich zu 2011 sind das 7 Prozent mehr. 29 Prozent planen den Einsatz dieser Cloud-Form.

Wo wir zu meiner Behauptung kommen, dass die Aussage, das jedes dritte deutsche Unternehmen die Cloud nutzt, geschönt ist. Denn das was ich immer wieder höre und sehe, wird nun auch von Forrester Research, genauer James Staten, öffentlich dargelegt, der dies sogar als Cloud-Washing bezeichnet. 70 Prozent der "Private Clouds" sind keine Clouds.

70 Prozent der "Private Clouds" sind keine Clouds

Die Problematik besteht hauptsächlich darin, dass den meisten IT-Administratoren weiterhin das Verständnis dafür fehlt, was Cloud Computing, sei es nun Public oder Private Cloud, wirklich bedeutet. Wie James Staten schreibt, sind sich 70 Prozent befragter IT-Administratoren nicht darüber im klaren, was eine Private Cloud ist. Die meisten bezeichnen eine vollständig virtualisierte Umgebung bereits als Cloud, die überhaupt nicht über die Kerneigenschaften einer Cloud verfügt.

Virtualisierung ist kein Cloud Computing

Man muss das an dieser Stelle noch einmal verdeutlichen, dass die reine Virtualisierung einer Infrastruktur sie noch lange nicht zu einer Private Cloud macht. Virtualisierung ist eine Teilmenge des Cloud Computing und ein zentraler Bestandteil. Aber: Die Bereiche Self-Service, Skalierbarkeit, Ressourcen-Pools, Automatisierung, granulare Abrechnung, on-Demand Bereitstellung der Ressourcen usw. bietet keine gewöhnliche Virtualisierungslösung und liefert erst eine Cloud-Infrastruktur.

Erschreckenderweise ist auch mancher Anbieter so dreist und verkauft seine ehemaligen on-Premise Virtualisierungslösungen nun als Cloud. Das "Geständnis" habe ich von einem Mitarbeiter von einem sehr großen US-amerikanischen Anbieter, der nun auch auf Cloud macht. Der Kontext in dem persönlichen Gespräch war ungefähr "Wir haben auf unsere angepassten VMware Lösungen einfach Cloud drauf geschrieben, um schnell etwas "Cloud-fähiges" am Markt zu haben."

Deutsche Unternehmen glauben sie haben eine "Private Cloud"

Ähnlich sehe ich es auch bei den deutschen Unternehmen. Ich möchte dem Bitkom keine Vorwürfe machen. Schließlich muss er sich auf die korrekte Beantwortung der Fragen verlassen. Und was kann er dafür, wenn die Befragten aus Unwissenheit möglicherweise falsch antworten, indem sie behaupten eine Private Cloud zu nutzen, obwohl es sich dabei maximal um eine virtualisierte Infrastruktur ohne Cloud Eigenschaften handelt.

Mit diesem Hintergrund sollte man die Ergebnisse dieser Bitkom-Umfrage kritisch sehen, relativieren und eingestehen, dass eben nicht jedes dritte deutsche Unternehmen Cloud Computing nutzt.

Update: 12.03.13

Nicht das hier der Eindruck vermittelt wird, dass ich meine Behauptungen aus der Luft greife. Gestern wurde mir ein "Terminal-Server" als Private Cloud "verkauft". Argument: Es gibt ja viele Definitionen von Cloud, an denen man sich bedienen kann.

Update: 13.03.13

Auch werden gerne "Exchange-Server mit OWA als "Private Mail-Cloud" bezeichnet.



Google macht erste ernsthafte Schritte ins Enterprise Umfeld

In einem Beitrag auf dem Google Enterprise Blog hat Google Support Pläne für seine Cloud Plattform Lösungen App Engine, Compute Engine, Cloud Storage, Cloud SQL und BigQuery angekündigt. Auch Google habe nach eigener Aussage mittlerweile verstanden, dass Google Groups oder Stack Overflow nicht immer die passenden Antworten liefern und die Unterstützung durch einen telefonischen Ansprechpartner erfordert. Ja, so schauts aus Google!

Support Pläne für die Google Cloud Platform

Google unterteilt seinen Support in vier Kategorien: Bronze, Silver, Gold und Platinum, die je folgende Leistungen beinhalten:

  • Bronze
    Preis: Kostenlos
    Leistung: Zugriff auf die Online-Dokumentation und Foren sowie Kontakt bzgl. Fragen zur Abrechnung.
  • Silver
    Preis: $150 pro Monat
    Leistung: Alle Leistungen von Bronze. Plus: E-Mail Support bzgl. Produkt-Funktionen, Best Practice und Fehlermeldungen.
  • Gold
    Preis: ab $400 pro Monat
    Leistung: Alle Leistungen von Silver. Plus: 24x7 Telefon-Support und Beratung zur Applikationsentwicklung sowie Best Practices oder Architekturunterstützung für einen bestimmten Use Case.
  • Platinum
    Preis: Auf Anfrage.
    Leistung: Alle Leistungen von Gold. Plus: Sehr individuelle Unterstützung. Direkter Kontakt zu einem Technical Account Manager.

Kommentar

Google scheint immer mehr zu verstehen, dass die "Alte Welt" nicht nur durch Foren und Communities unterstützt werden möchte. Insbesondere Unternehmen erwarten einen hochwertigen und persönlichen Support. Dass Google auch im Unternehmensumfeld weiter ankommen möchte, durfte ich bereits persönlich erfahren. Nach einer Formularanfrage zu einem Google Apps Problem erhielt ich wenige Minuten später einen Anruf von einem deutschen Google Mitarbeiter, der sich mit mir auseinandersetze. Das war ein positiver Aha-Effekt und ein Schlüsselerlebnis. Als ein sehr früher Google Apps Nutzer war ich noch Zeiten gewohnt, wo Support-Seiten auf Fehlerseiten liefen und ein telefonischer Kontakt nicht einmal in die USA möglich war.

Dennoch, Google ist derzeit nicht auf Augenhöhe mit den Amazon Web Services (AWS) oder Microsoft Windows Azure zu sehen und ist eher auf Platz drei zu finden. Zwar gehört Google neben den beiden genannten plus Salesforce zu den aktuellen Cloud Playern am Markt, allerdings ist das Portfolio der Google Cloud Platform im Vergleich zu AWS und Azure sehr dünn. Mit der App Engine, Compute Engine, Cloud Storage, Cloud SQL, BigQuery, der Prediction API sowie der Translation API stehen immerhin insgesamt sieben für sich gekapselte Services zur Verfügung, die aber bei weitem nicht den Umfang von AWS bieten. Zudem sollte man wissen, dass sich die Google Compute Engine weiterhin in einer geschlossen Beta befindet und somit nicht zur aktiven Konkurrenz zählt.

Ich sehe bei Google weiterhin ein Akzeptanzproblem in Bezug auf die Glaubwürdigkeit und vor allem der Vertrauenswürdigkeit. Google ist und bleibt im Kern eine Suchmaschine, die sich über Werbung finanziert. Daher gilt Google nicht ohne Grund als Datenkrake, was zahlreiche Aktionen und Entscheidungen durch Googles Führungsetage selbst weiter untermauert. Google muss an dieser Stelle deutlich offener werden und zeigen, was mit den Daten passiert, die Unternehmen aber auch gewöhnliche Nutzer Google anvertrauen.



Big Data und Cloud Computing helfen nicht nur Obama

In meinem Gastbeitrag bei den Automatisierungs-Experten von arago bin ich vor zwei Wochen auf das Thema Big Data eingegangen und das Unternehmen aus dem US-Wahlkampf 2012 von Barack Obama lernen sollten, wie sie Echtzeit-Informationen in einen Vorsprung umwandeln. Neben Cloud Computing, Mobile und Social Media gehört Big Data zu den aktuellen Top-Themen im IT-Unternehmensumfeld. Dabei handelt es sich bei weitem nicht mehr nur um einen Trend sondern um die Realität. Und das mit einem weitreichenden Einfluss auf Unternehmen, ihre strategische Ausrichtung und der IT. Bekannte Technologien und Methoden haben mit der Analyse von Big Data ihre Grenzen erreicht und nur das Unternehmen, welches es schafft, aus den Datensilos einen Informationsvorsprung zu erzielen, wird dem Wettbewerb in Zukunft einen Schritt voraus sein.

Big Data: Kein Alter Wein in Schläuchen

Grundsätzlich ist die Idee hinter Big Data nichts Neues. Von Anfang bis Mitte der 1990er Jahre ging es bereits unter dem Begriff „Business Intelligence“ darum, anhand von Verfahren eine systematische Analysen von Daten vorzunehmen. Die Ergebnisse werden dazu verwendet, um neue Erkenntnisse zu gewinnen, die dabei helfen, die Ziele eines Unternehmens besser zu erreichen und strategische Entscheidungen zu treffen. Allerdings war die Datenbasis, die es zu analysieren galt, deutlich kleiner als heute und lies nur Analysen auf Daten aus der Vergangenheit zu, was zu unsicheren Prognosen für die Zukunft führte. Heute sammeln sämtliche Alltagsgegenstände jede Sekunde massive Datenmengen an Informationen. Dazu gehören Smartphones, Tablets, Autos, Stromzähler oder auch Kameras. Hinzu kommen Bereiche, die sich nicht in der unmittelbaren Umgebung eines Menschen befinden, wie vollautomatisierte Produktionslinien, Distributionslager, Messinstrumente, Flugzeuge und anderen Fortbewegungsmitteln. Und natürlich sind es wir Menschen, die Big Data mit unseren Verhalten im Internet nähren. Tweets auf Twitter, Kommentare auf Facebook, Suchanfragen mit Google, Stöbern mit Amazon und sogar die Vitalwerte während einer Jogging-Session liefern modernen Unternehmen heute unmengen an Daten, aus denen sich wiederum wertvolle Informationen gewinnen lassen.

Strukturierte und unstrukturierte Daten

Große Datensätze sind keine neue Erscheinung. Bereits seit Jahrzenten sammeln Handelsketten, Ölfirmen, Versicherungen oder Banken massiv Informationen über Warenbestände, Bohrdaten und Transaktionen. Weiterhin gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Bereichen von dem, was heute als Big Data bezeichnet wird. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, die Wettervorhersage und die Medizinbranche. Alle genannten Bereiche und Branchen haben mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen.

Doch nun wirkt sich die Problematik auch auf die "normalen" Branchen aus. Die heutigen Herausforderungen bestehen darin, dass Daten aus vielen unterschiedlichen Quellen stammen und zum Teil schnell, unverhersagbar und damit unstrukturiert aufkommen. Big Data soll daher insbesondere an den Stellen helfen, wo viele unterschiedliche Datenquellen miteinander kombiniert werden. Beispiele sind Tweets auf Twitter, das Surfverhalten oder Informationen über Abverkäufe, um auf dieser Basis neue Produkte und Dienstleistungen zu entwickeln. Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält. Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten beziehungsweise Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind. Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Warum Unternehmen sich für Big Data entscheiden

Doch wo kommen diese riesigen Datenmengen tatsächlich her und welche Motivation haben Unternehmen, sich mit der Thematik zu beschäftigen. Die Marktforscher der Experton Group haben versucht, die Fragen in Ihrer "Big Data 2012 – 2015" Client-Studie im Oktober 2012 zu klären. Demnach ist der wichtigste Treiber für den Einsatz von Big Data Technologien und Konzepten das rasante Datenwachstum inklusive dem dazugehörigen Qualitätsmanagement und der Automatisierung der Analysen und Reports. Die Themen Kundenbindung und Marketing nehmen circa ein Drittel der Unternehmen zum Anlass, um die Anaysen ihrer Datenbestände zu erneuern. Neue Datenbanktechnologien nennen 27 Prozent der Befragten Unternehmen als Motivation für neue Verfahren zur Datenalyse. Weiterhin zählen nahezu alle Eigenschaften von Big Data zu den Gründen für die Erweiterung des strategischen Datenmanagements. Das zeigt, dass Big Data bereits Realität ist, auch wenn es in vielen Fällen nicht unter diesem Begriff bekannt ist. Die Big Data Treiber selbst sind über alle Branchen und Unternehmensgrößen hinweg gleich. Der einzige Unterschied besteht in der Bedeutung und Intensität. Ein großer Unterschied bei der Unternehmensgröße besteht in der Verteilung der Daten und Informationen an die richtigen Mitarbeiter im Unternehmen. Hier sehen große Unternehmen ihre größten Herausforderungen. Wohingegen kleinere Unternehmen das Thema als sehr unkritisch einstufen.

Big Data: Ein Anwendungsfall für die Cloud

Die Öl-und Gasindustrie hat die Verarbeitung großer Datenmengen durch den Einsatz von traditionellen Storage-Lösungen (SAN und NAS) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

Big Data Verarbeitung gehört in die Cloud

Cloud Infrastrukturen helfen bei der Kostenreduzierung für die IT-Infrastruktur. Dadurch werden Unternehmen in die Lage versetzt, sich effizienter auf ihr Kerngeschäft zu konzentrieren und erhalten mehr Flexibilität und Agilität für den Einsatz neuer Lösungen. Damit wird ein Grundstein gelegt, sich auf die ständig verändernden Datenmengen einzustellen und für die notwendige Skalierbarkeit zu sorgen. Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit der Datenmenge

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Cloud Konzepte wie Infrastructure-as-a-Service (IaaS), vereinen beide Welten und nehmen dadurch eine einzigartige Position ein. Für diejenigen, die das SAN/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Eine passable Lösung kommt von Cloud Computing Pionier Amazon Web Services. Mit der AWS Data Pipeline steht bei Amazon ein Service (noch in der Betaphase) bereit, mit dem sich Daten automatisch zwischen verschiedenen Systemen verschieben und verarbeiten lassen. Die Systeme können sich dazu entweder direkt in der Amazon Cloud oder auf einem anderen System außerhalb befinden. Amazon macht damit die Handhabung der wachsenden Datenmengen auf verteilten System mit unterschiedlichen Formaten einfacher. Dazu lassen sich beliebig viele Pipelines erstellen, in denen die unterschiedlichen Datenquellen, Bedingungen, Ziele, Anweisungen und Zeitpläne definiert sind. Kurzum geht es darum, welche Daten von welchem System auf Basis welcher Bedingungen geladen, verarbeitet und die Ergebnisse anschließend wieder gespeichert werden. Die Pipelines selbst werden je nach Bedarf stündlich, täglich oder wöchentlich gestartet. Die Verarbeitung kann entweder direkt in der Amazon Cloud oder auf den Systemen im unternehmenseigenen Rechenezentrum stattfinden.

Big Data = Big Opportunities?

Nicht nur das Obama Beispiel zeigt, wie gewinnbringend die Verknüpfung von strukturierten und unstrukturierten Daten aus mobilen Endgeräten, Social Media Kanälen, der Cloud und vielen weiteren unterschiedlichen Quellen für ein Unternehmen sein kann. Allerdings muss man sich bei Big Data über eines im Klaren sein. Es geht letztendlich nicht um die Masse der Daten die gesammelt wird, sondern um deren Qualität und wofür die Daten letztendlich überhaupt genutzt werden sollen.

Entscheidend ist daher, ob und wie ein Unternehmen es schafft, aus den Massen an Daten, die durch menschliche und maschinelle Interaktionen entstehen, die qualitativ hochwertigsten Informationen zu analysieren und sich damit eine führende Position am Markt sichert. Qualifizierte Daten sind das neue Öl und werden in den Unternehmen, die den eigenen Vorteil darin erkennen, für den gewinnbringenden Antrieb sorgen.



AWS OpsWorks: Mehr PaaS-Funktionalität im Cloud-Portfolio von Amazon

Korrekterweise spricht man bei den Amazon Web Services (AWS) von einem Infrastructure-as-a-Service (IaaS). Bei AWS Elastic Beanstalk spalten sich die Lager, ob der Service zu den Platform-as-a-Services (PaaS) gezählt werden dürfe. Zumindest bietet AWS seit längerer Zeit diverse PaaS-Funktionalität in seinem Cloud-Portfolio und erweitert diese nun mit "AWS OpsWorks" (noch in der Beta).

Was ist AWS OpsWorks?

AWS OpsWorks ist eine Lösung für das flexible und automatisierte Applikationsmanagement. Es richtet sich an IT-Administratoren und DevOps Entwickler, die damit den vollständigen Lebenszyklus einer Anwendung inkl. Ressourcen-Provisionierung, Konfigurationsmanagement, Softwareupdates, Monitoring und Zugriffskontrolle verwalten können. AWS OpsWorks kann kostenlos genutzt werden. Kosten entstehen für die darunter eingesetzten virtuellen AWS Infrastrukturressourcen.

OpsWorks ermöglicht das Erstellen einer logischen Architektur, die Provisionierung der benötigten Ressourcen basierend auf der Architektur sowie das Bereitstellen der Applikation und die dafür benötigte Software und Pakete für eine bestimmte Konfiguration. OpsWorks sorgt dann für den Betrieb der Applikation und unterstützt deren Lebenszyklus inkl. Autoscaling und Softwareupdates.

AWS OpsWorks Details

AWS OpsWorks unterstützt unterschiedliche Applikations-Architekturen und arbeitet mit jeder Software zusammen, deren Installation skript-basiert verläuft. Basierend auf dem Chef Framework können bereits fertige eigene Rezepte oder welche aus der Community genutzt werden, um OpsWorks einzusetzen.

Ein Event-basiertes Konfigurationssystem hilft beim Lebenszyklus-Management einer Applikation. Dazu gehören anpassbare Deployments, Rollbacks, Patchmanagement, Autoscaling sowie Autohealing. So lässt sich z.B. ein Update über das Aktualisieren einer einzigen Konfigurationsdatei ausrollen. Zudem ist OpsWorks in der Lage, AWS Instanzen basierend auf einer selbst exakt spezifizierten Konfiguration zu hosten. Dazu gehört ebenfalls die Skalierung dieser Applikation anhand der jeweiligen Last auf der Anwendung oder einer zeitbasierten automatischen Skalierung sowie der Überwachung der Applikation und dem Austausch fehlerhafter Instanzen.

Mit OpsWorks lassen sich Applikationen in sogenannte "Layer" aufbauen. Layer definieren, wie ein Teil von Ressourcen, die zusammen verwaltet werden, konfiguriert werden sollen. Ein Beispiel könnte ein Web-Layer sein. Dieser beinhaltet EC2 Instanzen, EBS Volumes inkl. einer RAID Konfiguration und Mount Points sowie Elastic IP-Adressen. Für jeden Layer kann zudem eine Software-Konfiguration erstellt werden. Darin sind Installations-Skripte und Schritte für die Initialisierung enthalten. Wird nun eine Instanz zu einem Layer hinzugefügt, sorgt OpsWorks dafür, dass diese die entsprechenden Konfigurationen erhält. OpsWorks stellt vor-definierte Layer für Technologien wie Ruby, PHP, HAProxy, Memcached und MySQL bereit. Diese können angepasst und erweitert werden.

Technologie aus Deutschland

OpsWorks ist eine Erfindung aus Deutschland und basiert auf der Scalarium Technologie des Berliner Unternehmens Peritor. Scalarium wurde bereits 2012 von Amazon gekauft.

Kommentar

Bei AWS OpsWorks handelt es sich zwar um kein konkretes PaaS Angebot. Dieses liegt allerdings an der Building Blocks Philosophie der Amazon Web Services. Das bedeutet, dass die angebotenen Services so granular wie möglich bereitgestellt werden. Der Kunde hat anschließend die Möglichkeit, die Services für seinen Use Case so zu integrieren, wie er sie benötigt. Dafür wird natürlich dementsprechend viel Eigenleistung und Wissen benötigt, welches bei einem typischen PaaS für die Infrastruktur nicht erforderlich ist. Jedoch schließt AWS OpsWorks hinsichtlich der Convenience zu den PaaS am Markt immer weiter auf und bietet immer mehr PaaS-Funktionalität in der Amazon Cloud.

Über eines sollte man sich als Kunde dennoch bewusst sein. Und das gilt nicht nur für AWS OpsWorks, sondern für die Nutzung jedes AWS Service. Der Lock-in in die AWS-Infastruktur wird mit jedem Service den Amazon veröffentlicht immer größer. Das muss nichts Schlechtes bedeuten. Ein Lock-in ist zwangsläufig nichts Negatives und kann im Gegenteil sogar von Vorteil sein, solange die eigenen Anforderungen erfüllt werden und nicht zu große Kompromisse durch den Kunden selbst gemacht werden müssen.

Man muss sich als Kunde dies nur vor Augen halten und bereits vor dem Weg in die AWS Cloud, als auch in jede andere Cloud, über mögliche Exit-Strategien oder einen Multi-Cloud Ansatz nachdenken.



ProfitBricks unter der Haube: IaaS aus Deutschland – man darf gespannt sein

In der vergangenen Woche hatte ich ein Briefing mit ProfitBricks, um das Infrastructure-as-a-Service (IaaS) Angebot aus Deutschland besser kennenzulernen und konkrete Fragen zu stellen. Ich habe ProfitBricks in zwei Artikeln Nummer eins hier und Nummer zwei hier in der Vergangenheit bereits kritisch begutachtet. Zum einen, weil ich einfach nicht auf Marketingphrasen stehe, die viel mehr versprechen als eigentlich dahinter steckt und zum anderen, weil auch technische Versprechen eingehalten werden müssen.

Details zu ProfitBricks

ProfitBricks stellt sich als typischer Infrastructure-as-a-Service Anbieter auf. Über eine graphische Weboberfläche lassen sich maßgeschneiderte Server zu einem Rechenzentrum formen. Anhand von komplexen Vernetzungsstrukturen soll eine echte Isolation des Kundennetzwerks im virtuellen Rechenzentrum sichergestellt werden. Für Performance sorgt eine vermaschte redundante Vernetzung mit Infiniband sowie ein hochredundanter Storage (inkl. automatischem Backup) für die Verfügbarkeit der Daten.

Zudem verfügt ProfitBricks über ein eigenes Security-Team sowie langjährig erfahrene Systemadministratoren, die einen rund um die Uhr Support liefern.

Standorte

Rechenzentren bzw. Co-Location besitzt ProfitBricks in Deutschland (Karlsruhe) und in den USA (Las Vegas). Allerdings sind beide Rechenzentren in keinster Weise physikalisch oder virtuell miteinander verbunden, wodurch kein Datenaustausch zwischen Deutschland und den USA auf diesem Weg stattfinden kann.

Die Infrastruktur-Komponenten

Server lassen sich bei ProfitBricks mit Cores zwischen 1 und 48 Cores sowie 1 GB und 196 GB RAM ausstatten. Das Maximum liegt hier derzeit allerdings bei 60 Cores und 250 GB RAM pro Server, was man sich über den Support freischalten lassen kann. Storage gibt es zwischen 1 und 5000 GB. Allerdings kann dieser immer nur direkt einem Server zugewiesen werden. Es gibt somit keinen zentralen Speicher. Um dieses zu realisieren, muss man sich eine eigene zentrale Storage-Appliance bauen und den Speicher darüber verteilen.

Innerhalb eines selbst gestalteten Rechenzentrum (siehe unten) stehen zwei Zonen (ähnlich der Availability Zones von Amazon) zur Verfügung. Damit lassen sich z.B. zwei Server so konfigurieren, dass der eine von den Problemen in der Zone des zweiten Servers nichts mitbekommt.

Es gibt keine zentrale Firewall. Stattdessen können jeweils alle Netzwerkkarten eines Servers mit eigenen Regeln konfiguriert werden. Eine zentrale Firewall lässt sich hier z.B. durch den Aufbau einer eigenen Firewall-Appliance (Linux + IPTables oder eine fertige kommerzielle Firewall als ISO-Image) realisieren.

Ein Load Balancer steht zwar zur Verfügung, allerdings empfiehlt ProfitBricks an dieser Stelle lieber einen eigenen anhand einer Appliance zu bauen, da der ProfitBricks eigene u.a. über kein Monitoring verfügt.

Weitere eigene Mehrwertservices bietet ProfitBricks nicht an. Dies soll nach eigener Aussage auch nicht passieren. Stattdessen setzt der Anbieter auf ein Partnernetzwerk, das für die Infrastrukturplattform entsprechende Services anbieten soll.

Derzeit einmalig: Der Data Center Designer

Was mich bei ProfitBricks wirklich überzeugt hat ist der "Data Center Designer (DCD)". So einen hat in dieser Form derzeit noch kein IaaS Anbieter weltweit.

Anhand dieser graphischen Weboberfläche ist man in der Lage ein komplettes virtuelles Rechenzentrum individuell zusammenzustellen und per Mausklick die Konfiguration zu aktivieren oder beliebig zu ändern – egal ob es sich um Server, Storage, Loadbalancer, Firewalls oder die entsprechende Vernetzung handelt.

Ist ein Rechenzentrum fertig designed, lässt es sich speichern und deployen. Zuvor erhält man noch Informationen über einen Check durch das System. Hier wird geschaut, ob alles korrekt konfiguriert wurde - z.B. ob alle Server auch ein Bootlaufwerk mit entsprechenden Image haben. Anschließend werden die Gesamtkosten pro Monat für dieses virtuelle Rechenzentrum aufgeschlüsselt.

Allerdings hat der DCD derzeit noch eine Schwachstelle. Ist ein Rechenzentrum deployed, lässt sich über die Weboberfläche kein einzelner Server mehr aus dem Design entfernen bzw. diesen darüber stoppen. Dazu muss zunächst das vollständige Rechenzentrum wieder un-deployed werden. Dann wird der Server entfernt und das Rechenzentrum anschließend wieder deployed. Mittels der proprietären SOAP API, die unter anderem Java und C# unterstützt, soll ein einzelner Server jedoch entfernt werden können. Diese Web-Funktion soll, ebenso wie eine REST API, in Zukunft folgen.

Der Kunde ist größtenteils auf sich alleine gestellt

Zunächst bietet ProfitBricks einen deutschsprachigen Support, der entweder selbst jahrelang als Administrator gearbeitet hat oder an der Entwicklung des Systems beteiligt war. Der Support ist darüber hinaus kostenlos enthalten. Auch dann, wenn man die Plattform nur mit einem Testaccount evaluiert.

Ansonsten ist ProfitBricks ein gewöhnlicher Self-Service wie ihn andere IaaS Anbieter auch bieten. Das bedeutet, dass man sich über das Design seiner virtuellen Infrastruktur und wie eine Applikation auf der Infrastruktur skaliert und hochverfügbar bereitgestellt wird, selbst kümmern.

Bei weitere Fragen und Lösungsansätze, z.B. bei der Konfiguration einer separaten Firewall-Appliance oder eines eigenen Loadbalancer, helfen Partner.

Preise

Die Abrechnung erfolgt minutengenau pro Stunde. Die Kosten schlüsseln sich dabei wie folgt auf:

  • 1 Core = 0,04 EUR pro Stunde
  • (Windows Server plus 0,01 EUR pro Stunde)
  • 1 GB RAM = 0,09 EUR pro Stunde
  • 1 GB Speicher = 0,09 EUR pro 30 Tage
  • 1 GB Traffic = 0,06 EUR pro GB Traffic

Das Live Vertical Scaling

ProfitBricks unterstützt das sogenannte Live Vertical Scaling. Das bedeutet, dass sich weitere Ressourcen wie CPU und RAM im laufenden Betrieb zu einem virtuellen Server hinzufügen lassen. Diese Funktion muss für jeden Server separat aktiviert und der Server anschließend einmal neu gestartet werden.

Allerdings, und das habe ich hier angemerkt und hat mir ProfitBricks während des Briefings bestätigt, muss das Betriebssystem, die Datenbank, Software und die eigene Applikation das auch unterstützen. Die Systeme müssen erkennen, dass plötzlich mehr Kerne und RAM zur Verfügung stehen und diese nutzen. Und im umgekehrten Fall ebenfalls damit umgehen können, wenn die Ressourcen wieder herunterskalieren.

ProfitBricks ist interessant

ProfitBricks ist ein interessantes Infrastructure-as-a-Service Angebot. Insbesondere im sehr Cloud-kargen (IaaS) Deutschland mit einem Rechenzentrum in Deutschland. Besonders hervorzuheben ist der Data Center Designer (einziger USP), der derzeit weltweit einmalig ist und die entsprechende Convenience bietet, die andere IaaS-Anbieter vernachlässigen. Zwar harkt der Designer an der einen oder anderen Stelle noch (Bsp.: Server entfernen), aber das wird sich in einer zeitnahen neuen Version sicherlich ändern.

Unterm Strich ist ProfitBricks ein reiner Infrastructure-as-a-Service Anbieter, der seine Stärken im Infrastrukturbetrieb hat. Das ergab auch das Briefing. Daher irritiert mich ein Interview mit CEO Achim Weiß, welches ich vor ein paar Wochen gelesen hatte. Darin gab er als Zielkunden neben Unternehmen, ebenfalls Internet-Startups an. Das erachte ich derzeit jedoch als eine Utopie. Ohne ein Service-Portfolio wie es die Amazon Web Services bieten ist diese Zielgruppe nicht zu erreichen. Die Service Lücke kann und soll durch Service Partner geschlossen werden. Ein anderer aber durchaus legitimer Ansatz, wenn die Stärken in einem anderen Bereich liegen.