Tag: Cloud


Der Stellenwert der Community Cloud wird sich erhöhen

Wie kommen Unternehmen aus der Cloud heraus ohne ihre Komfortzone zu verlieren. Diese Fragen hören wir immer wieder. Ich bin der Meinung, dass man sich nicht zwangsläufig aus der Cloud zurückziehen muss, sondern einfach versuchen sollte, mehr Kontrolle zurückzugewinnen und die Ideen der Cloud für sich selbst zu nutzen. In diesem Zusammenhang sollte man die Community Cloud in Betracht ziehen, denn diese wird in meinen Augen immer mehr an Bedeutung gewinnen. Der Bedarf und vor allem das Verständnis hierfür muss nur geweckt werden. Tenor: “Aufbau einer eigenen Hosted Private Cloud, betrieben von einer Gemeinschaft die sich vertraut.” Das ist sowohl für Unternehmen, Organisationen, Bürogemeinschaften und regelmäßige Projektpartner interessant. Continue reading “Der Stellenwert der Community Cloud wird sich erhöhen” »



Integration und Cloud Computing: Komplexität steht im Gegensatz zu den Versprechen und Erwartungen

Cloud Computing Anbieter sollten sich der Realität stellen und ihren potentiellen Kunden die Wahrheit sagen! Die Integration im gesamten Cloud Stack sorgt für die größte Komplexität in der Cloud. ) Das beinhaltet ebenfalls die weiteren Kosten die kein Public Cloud Anbieter neben seinen on Demand und pay per use Versprechen transparent auf seinen Marketingfolien stehen hat. Ein Überblick.

Continue reading “Integration und Cloud Computing: Komplexität steht im Gegensatz zu den Versprechen und Erwartungen” »



Enterprise Cloud: IBM bringt sich in Position

Letzte Woche hat IBM angekündigt mehr als 1,2 Milliarden US-Dollar in den Ausbau seines globalen Cloud Angebots zu investieren. Hierzu sollen Cloud-Services aus weltweit 40 Rechenzentren in 15 Ländern bereitgestellt werden. Deutschland wird IBM aus einem Rechenzentrum in Ehningen versorgen. Dabei wird Softlayer, das IBM in 2013 übernommen hat, eine Schlüsselrolle spielen, dessen Kapazitäten sich in diesem Zuge verdoppeln sollen.

Investitionen sind ein deutliches Zeichen

Die 1,2 Milliarden US-Dollar sind nicht die ersten Investitionen, die IBM in den vergangenen Jahren in sein Cloud Business fließen lässt. Seit 2007 wurden über 7 Milliarden US-Dollar in die Expansion des Geschäftsfeldes investiert. Darunter 2 Milliarden US-Dollar für Softlayer. Hinzu kommen mehr als 15 weitere Akquisitionen die Cloud Computing Lösungen und Know-How in das Unternehmen gebracht haben. Die letzte große Ankündigung war die Summe von 1 Milliarde US-Dollar, die IBM in sein Cognitive Computing System Watson investieren wird, um es u.a. der breiten Masse als Service zur Verfügung zu stellen.

Diese Investitionen zeigen, dass es IBM mit der Cloud tatsächlich ernst meint und sie als eine Säule für seine zukünftige Unternehmensstrategie sieht. So sieht auch die Erwartungshaltung aus. IBM geht davon aus, dass der weltweite Cloud-Markt bis zum Jahr 2020 auf mehr als 200 Milliarden US-Dollar wachsen wird. Bis zum Jahr 2015 will IBM jährlich sieben Milliarden US-Dollar weltweit mit seinen Cloud-Lösungen erwirtschaften.

Softlayer Positionierung ist von entscheidender Bedeutung

Ein Besonderes Augenmerk will IBM auf die Softlayer Cloud legen. Hierzu sollen sich die Kapazitäten im Jahr 2014 verdoppeln. Laut IBM konnten durch den Zukauf des Cloud Computing Anbieter in 2013 fast 2.400 neue Kunden gewonnen werden. Mit Softlayer sollen die wichtigsten Märkte und Finanzzentren gezielt gestärkt werden. Weiterhin soll die Softlayer Cloud in Zukunft auch von der Watson Technologie profitieren.

Die Akquisition von Softlayer war ein wichtiger Schritt für IBMs Cloud-Strategie, um sich eine bessere Cloud-DNA einzuverleiben. Die IBM SmartCloud hat bis zum heutigen Tag enttäuscht. Das ergeben nicht nur Gespräche mit potentiellen Kunden die sich zum größten Teil negativ über das Angebot und die Nutzung geäußert haben.

Spannend wird die Erweiterung der Softlayer Cloud werden. Laut der offiziellen Softlayer Webseite werden derzeit an sieben Standorten weltweit mehr als 191.500 Server betrieben.

  • Dallas: 104,500+ Server
  • Seattle: 10,000+ Server
  • Washington: 16,000+ Server
  • Houston: 25,000+ Server
  • San Jose: 12,000+ Server
  • Amsterdam: 8,000+ Server
  • Singapore: 16,000+ Server

Das sind im Vergleich zu anderen Cloud Playern wie die Amazon Web Services (über 450.000), Microsoft (etwa 1.000.000) und Google allerdings nur Peanuts. Selbst nach einer Verdopplung im Jahr 2014 auf 383,300 Server.

IBMs weltweite Cloud Rechenzentren

Ein Teil der genannten 1,2 Milliarden US-Dollar sollen im Jahr 2014 genutzt werden, um insgesamt 15 neue Rechenzentren zu eröffnen. In der Summe sollen dann 40 Rechenzentren verteilt auf 15 Länder die weltweite Basis der IBM Cloud bilden. Die neuen Cloud-Rechenzentren werden in China, Hongkong, Japan, Indien, London, Kanada, Mexiko City, Washington D.C. und Dallas entstehen. Das deutsche Cloud-Rechenzentrum steht in Ehningen bei Stuttgart das Schweizer in Winterthur.

Auf der technischen Seite besteht jedes neue Cloud-Rechenzentrum aus mindestens vier sogenannten PODS (Points of Distribution). Eine eigenständige Einheit besteht aus 4.000 Servern. Jeder POD arbeitet unabhängig von den anderen PODs, um die Services bereitzustellen und soll eine garantierte Verfügbarkeit von 99,9 Prozent aufweisen. Kunden können sich für die Nutzung eines POD mit 99,9 Prozent Verfügbarkeit entscheiden oder eine Verteilung über mehrere PODs wählen, um damit das Verfügbarkeitsverhältnis zu erhöhen.

Der Footprint im Unternehmensumfeld

IBM will sich mit seinen Investitionen klar gegen die Amazon Web Services positionieren. Man muss jedoch eines unterscheiden. Amazon AWS (AWS) ist einzig und alleine in der Public Cloud vertreten und wird dieses laut Aussage von Andy Jassy auf der letzten re:Invent auch bleiben. AWS glaubt an die Public Cloud und es besteht kein Interesse auch in (Hosted) Private Cloud Infrastrukturen zu investieren. Ein Unternehmen, das bei AWS jedoch das nötige Kleingeld mitbringt erhält dort durchaus seine eigene private Region, die von AWS verwaltet wird (ähnlich AWS GovCloud).

Beim Wettbewerb zwischen IBM und AWS geht es in erster Linie nicht um den Vorsprung in der Public, Private oder sonst einer Art von Cloud-Form. Es geht um die Vormachtstellung bei den Unternehmenskunden. AWS ist mit Startups und Entwicklern groß geworden und versucht seit geraumer Zeit auch die Attraktivität bei den Unternehmen zu erhöhen. Das haben sie mit mehreren neuen Services auf der vergangenen re:Invent gezeigt. Dabei handelt es sich allerdings um einen Markt, auf dem IBM bereits seit Jahrzehnten vertreten ist und über eine gute und breite Kundenbasis sowie wertvolle Kontakte bei den Entscheidern verfügt. Das ist ein Vorteil der, trotz AWSs derzeitigen technischen Vorsprung, nicht zu unterschätzen ist. Ein weiterer Vorteil der für IBM zum Tragen kommt ist die große Basis an Partnern im Bezug auf die technische Unterstützung und dem Vertrieb. Denn der reine Self-Service, den eine Public Cloud bietet, passt nicht zum Großteil der Unternehmenskunden. Dennoch muss IBM zusammen mit der Softlayer Cloud bei den Unternehmen erst noch technisch überzeugen und den Kunden einen konkreten Nutzen für die Wertschöpfung aufzeigen um erfolgreich zu sein.

Was sich für IBM als ein Vorteil gegenüber anderen Cloud-Anbietern wie AWS erweisen wird, ist die lokale Präsenz mit Rechenzentren in mehreren Ländern. Insbesondere der deutsche Markt wird dies zu schätzen wissen, wenn ebenfalls das Angebot stimmt. Hier bleibt es spannend zu sehen, ob andere US Cloud-Anbieter nachziehen werden und ein Rechenzentrum in Deutschland eröffnen, um den Bedenken deutscher Unternehmen entgegenzukommen.

IBMs Investitionen zeigen, dass der Anbieter die Cloud als eine zukünftige tragende Säule sieht und in diesem Bereich ein tragfähiges Geschäft aufbauen will.



Ab in die Private Cloud. OpenStack ist keine Infrastrukturlösung für die Public Cloud!

OpenStack ist unbestritten der neue Star am Himmel für Open-Source Cloud-Infrastrukturen. Zahlreiche bekannte Größen, darunter Rackspace, RedHat, HP, Deutsche Telekom und IBM setzen auf die Software, um ihre Angebote aufzubauen. Aber ein Thema bleibt spannend. Alle reden davon, dem unangefochtenen Marktführer Amazon Web Services Marktanteile abzunehmen. Allen voran die genannten Public Cloud Anbieter, die sich für OpenStack entschieden haben. Keine Frage, im großen Cloud Computing Markt wird jeder seinen Platz finden. Aber ist OpenStack die richtige Technologie, um ein Marktführer in der Public Cloud zu werden oder reicht es am Ende "nur" für die Private Cloud (Hybrid Cloud)?

Rackspace erweitert sein Portfolio um Cloud Consulting-Services

Ich hatte bereits über das Diversifikationsproblem geschrieben und habe in diesem Zusammenhang OpenStack als den goldenen Käfig bezeichnet, da alle beteiligten Anbieter im selben Dilemma stecken und sich nicht voneinander unterscheiden. Denn stellt man alleine nur die beiden Top OpenStack Anbieter Rackspace und HP gegenüber, dann zeigt sich, dass die Portfolios in etwa zu 99 Prozent gleich sind.

Um die Gunst seiner Shareholder zu besänftigen hat Rackspace bereits erste neue Wege beschritten und seine Strategie verändert und damit selbst die Aufholjagd in der Public Cloud gestoppt. Laut Rackspace CTO John Engates fragen Kunden verstärkt um Hilfe, damit Rackspace mit seinen Kenntnissen beim Aufbau von Cloud Infrastrukturen hilft. Rackspace wird sich in Zukunft somit scheinbar etwas weniger auf das Hosting von Cloud Services konzentrieren und stattdessen mehr in Beratungsdienstleistungen von Cloud Infrastrukturen investieren. Dabei könnte es sich um einen klugen Schachzug handeln. Schließlich ist die Nachfrage nach Private Cloud Infrastrukturen ungebrochen und OpenStack wird hier eine führende Rolle einnehmen. Eine weitere Chance könnte hier mit der Hybrid Cloud bestehen, indem die Private Cloud Infrastrukturen mit Rackspaces Public Cloud verbunden werden.

Eigene Technologien sind ein Wettbewerbsvorteil

Eine weitere interessante Frage ist, ob eine Technologie, was OpenStack letztendlich nur ist, entscheidend für den Erfolg ist? Ein Blick auf führende Anbieter wie die Amazon Web Services, Microsoft Windows Azure und nun auch die Google Compute Engine sowie deren gefühlte Kronprinzen (CloudSigma, ProfitBricks) zeigen eines. Alle haben proprietäre Infrastrukturlösungen unter den IaaS-Angeboten aufgebaut. Zwar setzen soweit alle an der einen oder anderen Stelle auf eine Open-Source Lösung. Aber am Ende ist alles selbst entwickelt und integriert. Das führt zu der Schlussfolgerung, dass proprietäre Technologien ein Wettbewerbsvorteil sind, da schließlich nur ein einziger Anbieter davon profitiert. Oder war Amazon AWS doch "einfach nur der erste Anbieter am Markt" und hat deswegen diesen enormen Vorsprung?

Zahlen sprechen für OpenStack Private Clouds

Auf der offiziellen OpenStack Webseite werden Use Cases vorgestellt, wie OpenStack tatsächlich eingesetzt wird. Diese sind unterteilt in den Kategorien: On-Premise Private Cloud, Hosted Private Cloud, Hybrid Cloud und Public Cloud. Ein Blick auf die aktuelle Verteilung (Stand: 14.01.2014) für den OpenStack Einsatz kommt zum folgenden Ergebnis.

OpenStack-Deployments 01/14/2014

Demnach liegen On-Premise Private Cloud (55) Installation ganz klar an der Spitze mit einem weitem Abstand gefolgt von Hosted Private Cloud (19) und Public Cloud (17) Deployments. Es folgen die Hybrid Clouds (10) und nicht genauer spezifizierte Projekte (4).

Bei den Zahlen handelt es sich wohlgemerkt um die Deployments, die offiziell an OpenStack gemeldet wurden. Allerdings zeigen diese eine deutliche Tendenz wo die Zukunft von OpenStack liegt. In der Private Cloud. Wobei ich davon ausgehe, dass Hosted Private Cloud Deployments und Hybrid Clouds noch stärker zunehmen werden. Genauso wie OpenStack Installationen, die als Mittel zum Zweck dienen und die reine infrastrukturelle Grundlage für Web-Dienste bilden.



Egal ob Public oder Private, auf eine Cloud kann niemand mehr verzichten!

Im Jahr 2014 befinden wir uns endlich im Jahr der Cloud. Versprochen! Wie schon 2012 und 2013 wird sie auch in diesem Jahr den Durchbruch schaffen. Versprochen! Steht doch überall geschrieben. Legen wir den Sarkasmus mal ein wenig beiseite und schauen der Realität ins Auge, sieht die Wahrheit gar nicht so düster aus. Es kommt nur auf die Form der Cloud an. IDC und Gartner sprechen von Milliarden von Dollar, die in den kommenden Jahren in den weltweiten Public IaaS Markt investiert werden sollen. Crisp Research hat sich für 2013 den deutschen IaaS Markt angeschaut und kommt zu völlig gegensätzlichen Zahlen. In Public IaaS wurden in etwa 210 Millionen Euro, in Private Cloud Infrastrukturen hingegen mehrere Milliarden Euro investiert. Gegensätzlicher können sich zwei Märkte fast nicht verhalten. Aber das ist ok, das ist unsere deutsche Mentalität. Vorsichtig. Langsam. Erfolgreich. Eines sollten sich Unternehmen für 2014 und die kommenden Jahre jedoch auf die Agenda schreiben. Egal ob es nun um eine Public oder Private Cloud geht. Eines ist sicher, auf eine Cloud kann kein Unternehmen mehr verzichten! Garantiert! Warum? Weiterlesen.

Das Bereitstellungsmodell der IT hat sich verändert

Im Kern geht es bei einer Cloud um die Art und Weise wie IT-Ressourcen bereitgestellt werden. Das erfolgt on-Demand über einen Self-Service und nach einem Verrechnungsmodell, dass die Kosten nach dem tatsächlichen Verbrauch bestimmt.

Die oben genannten IT-Ressourcen, in Form von Applikationen (SaaS), Plattformen (Entwicklungsumgebungen; PaaS) und Infrastrukturen (virtuelle Server, Speicherplatz; IaaS), werden als Services bereitgestellt, die sich ein Nutzer bestellen kann. Das bedeutet im Umkehrschluss allerdings auch, dass bei einer gewöhnlichen Virtualisierung nicht aufgehört werden darf. Virtualisierung ist nur ein Mittel zum Zweck. Schließlich muss der Nutzer auch irgendwie an die Ressourcen gelangen. Zum Telefonhörer greifen, die IT-Abteilung anrufen und warten ist kein Zeichen davon, dass eine Cloud-Infrastruktur vorhanden ist. Ganz im Gegenteil.

Über welche Art von Cloud die Ressourcen nun bereitgestellt werden, das ist abhängig vom Use Case. Es gibt nicht die "Über Cloud", die alle Probleme auf einmal löst. Für eine Public Cloud existieren genügend Anwendungsfälle. Sogar für Themen oder Industrien, die im ersten Moment weit weg erscheinen. Unterm Strich handelt es sich in vielen Fällen um eine Frage der Daten. Und genau diese gilt es zu klassifizieren. Dann kann es zur Entscheidung kommen, dass nur eine Private Cloud in Frage kommt. In diesem Fall wird man als Unternehmen dann selbst zum Cloud-Anbieter (mit allen Höhen und Tiefen die ein Public Cloud Anbieter zu bewältigen hat), baut eine eigene Cloud-Infrastruktur auf und versorgt direkt seine internen Kunden. Oder man geht zu einem der Managed Cloud Anbieter, die innerhalb einer dedizierten Umgebung eine Private Cloud exklusiv nur für einen Kunden betreiben und zudem Professional Services im Portfolio haben, die Public Cloud Anbieter in der Regel nur über ein Partnernetzwerk bieten.

Es ist einzig und alleine entscheidend, dass Unternehmen sich einem Cloud-Modell zuwenden, denn ...

Mitarbeiter fordern Services on Demand

Mitarbeiter wollen Service(s) und sie wollen diese(n) jetzt und nicht in zwei Wochen oder drei Monaten. Und wenn sie nicht das bekommen was sie benötigen, dann finden sie einen Weg es zu bekommen. Ehrlich! Es existieren seit geraumer Zeit viele attraktive Alternativen auf dem IT-Markt, die nur ein paar Mausklicks und eine Kreditkartennummer entfernt sind die Bedürfnisse zu befriedigen. Das speziell im IaaS Bereich dann noch sehr viel Arbeit wartet, diese Falle ist den meisten nicht IT-lern erst einmal nicht bewusst. Aber Sie haben augenscheinlich das bekommen, was sie brauchten und wenn es nur der Wunsch nach Aufmerksamkeit war. Der Cloud-Anbieter hat schließlich sofort reagiert. Das Wunder des Self-Service!

IT-as-a-Service ist nicht nur irgendein Buzz-Word. Es ist die Realität. IT-Abteilungen sind dem Druck ausgesetzt, wie eine eigene Business Einheit geführt zu werden und selbst Produkte und Services für das eigene Unternehmen zu entwickeln oder zumindest nach den Bedürfnissen bereitzustellen. Sie müssen daher proaktiv reagieren. Und damit ist nicht das Anlegen von Handschellen gemeint, indem die Ports der Firewall geschlossen werden. Nein, hier geht es darum sich selbst zu hinterfragen.

Das dies funktioniert hat die Deutsche Bahn Tochter DB-Systel eindrucksvoll bewiesen, indem sie den Bereitstellungsprozess mit einer eigenen Private Cloud von 5 Tagen auf 5 Minuten(!) pro virtuellen Server reduziert hat.

Hybrid Cloud im Auge behalten

Bei den ständigen Diskussionen, ob nun eine Public oder Private Cloud in Frage kommt, sollte immer die Option einer Hybrid Cloud im Hinterkopf behalten werden.

Eine Hybrid Cloud ermöglicht einen eindeutigen Use Case für den Einsatz einer Public Cloud. Dabei können bestimmte Bereiche der IT-Infrastruktur (Rechenleistung und Speicherplatz) in einer Public Cloud Umgebung abgebildet werden. Der Rest und unternehmenskritische Bereiche bleiben innerhalb der selbstverwalteten on-Premise IT-Infrastruktur oder Private Cloud.

Darüber hinaus liefert das Hybrid Cloud Modell einen wertvollen Ansatz für das Architektur-Design, indem Teile der lokalen Infrastruktur, die hohe Kosten verursachen, aber gleichermaßen schwierig zu skalieren sind, mit Infrastrukturen kombiniert werden, die massiv skalierbar und bei Bedarf provisioniert werden können. Die Anwendungen und Daten werden auf der für den Einzelfall besten Plattform ausgerollt und die Verarbeitung zwischen beiden integriert.

Der Einsatz hybrider Szenarien bestätigt die Tatsache, dass nicht alle IT-Ressourcen in Public Cloud Umgebungen abgebildet werden sollten und für einige sogar niemals in Frage kommen. Werden Themen wie die Compliance, Geschwindigkeitsanforderungen und Sicherheitsbeschränkungen betrachtet, ist eine lokale Infrastruktur weiterhin notwendig. Die Erfahrungen aus dem hybriden Modell helfen dabei aber zu verstehen, welche Daten lokal bleiben sollten und welche innerhalb einer Public Cloud Umgebung verarbeitet werden können.



Warum Unternehmen ohne ihre IT-Abteilung auf dem Schlauch stehen

Cloud Computing und Bring your own Device (BYOD) treiben moderne IT-Lösungen in die Unternehmen. Vom gewöhnlichen Mitarbeiter, über die Fachabteilungen bis hin zu den Vorstandsmitgliedern werden ständig neue Cloud-Services und innovative Endgeräte mit in das Unternehmen gebracht und dort für die tägliche Arbeit eingesetzt. Insbesondere der schnelle Zugriff und die einfache Nutzung machen Cloud Lösungen und Consumer Produkte zu attraktiven Gelegenheiten. Was sich im ersten Moment nach einer praktikablen Idee anhört, ist in Wirklichkeit ein riesiges Problem für CIOs und IT-Manager. Denn Cloud Computing und BYOD haben zu einer neuen Form der Schatten-IT geführt. Dabei handelt es sich um den unkontrollierten Wildwuchs von IT-Lösungen, welche Mitarbeiter und Fachabteilungen ohne dem Wissen von IT-Abteilungen einsetzen. Die Zahlung läuft dabei in der Regel über Kreditkarten oder das Spesenkonto an der IT vorbei. Nach dem Motto: „Was ihr, liebe IT-Abteilungen, uns nicht schnell genug und in ausreichend guter Qualität liefern könnt, dass besorgen wir uns dann eigenmächtig.“. Das führt jedoch zu Situationen, in denen Unternehmensdaten z.B. auf privaten Dropbox Accounts gespeichert werden, wo diese, nicht nur auf Grund von Unternehmensrichtlinien, nichts zu suchen haben.

Kompetenzen, Lust und Zeit

Der einfache Zugriff auf Cloud Services im Allgemeinen hat erste Meinungen in den Markt getrieben, dass die IT-Abteilungen in dieser Dekade aussterben könnten und die Line of Business Manager (LOB) die IT-Fäden alleine in der Hand haben werden, um IT-Einkäufe vorzunehmen. Eine fatale Aussage. Fakt ist, die meisten LOBs haben nicht die Zeit, Lust und das Wissen, um solche Entscheidungen zu treffen.

Es stellt sich die Frage, welche Aufgaben und Verantwortungen ein LOB Manager noch übernehmen soll. Neben der strategischen Ausrichtung seines Bereiches, der Mitarbeiterführung und weiteren organisatorischen Themen, bleibt da noch ausreichend Motivation übrig, um sich zusätzlich auch noch um die “lästige” IT zu kümmern? Das ist zu bezweifeln.

Sicherlich existiert der eine oder andere LOB Manager, der sich den Herausforderungen gewachsen fühlt und darüber mehr Einfluss gewinnen möchte. Aber nur weil man sein iPhone nahezu perfekt versteht und eine SaaS Applikation bedienen kann, verfügt man bei weitem noch nicht über die Kompetenzen, um wichtige IT-Prozesse zu implementieren und einzukaufen.

Datensilos und Integration

Natürlich sind LOB Manager darüber informiert, was sie für ihren eigenen Bereich benötigen. Aber haben sie auch Kenntnisse darüber, welche Systeme und Schnittstellen noch zusammenspielen müssen? Es hört sich toll an, wenn der Marketing- und Vertriebsleiter jeder für sich und ungefragt eigene IT-Services einkaufen kann. Aber was passiert, wenn das Marketing auf die Vertriebsdaten und umgekehrt zugreifen will?

Dabei sollte nicht vergessen werden, dass Unternehmen seit vielen Jahren mit nicht optimal miteinander integrierten Insellösungen von Applikationen und Datensilos kämpfen. Cloud Services potenzieren dieses Problem um ein Vielfaches und Lösungen wie Dropbox sind nur die Spitze des Eisbergs.

IT-Abteilungen haben die Verantwortung

IT-Abteilungen benötigen wieder mehr Kontrolle. Nicht um den Status quo aufrechtzuerhalten, sondern weil jemand die Verantwortung und den Überblick über die zukünftige hybride IT-Infrastruktur haben muss. Gleichzeitig sind nur die IT-Abteilungen in der Lage, die verschiedenen IT-Prozesse im Unternehmen zu überwachen und einheitliche Schnittstellen für den bereichsübergreifenden Zugriff zu definieren. Denn wer darf am Ende den Scherbenhaufen wieder wegkehren, wenn jede Fachabteilung ihren ganz eigenen Weg geht? Richtig die IT-Abteilungen! Das sollten auch Anbieter von Cloud Services verstehen.

IT-Abteilungen müssen mit den LOBs wieder mehr zusammenarbeiten, um die fachlichen Anforderungen zu verstehen und umzusetzen. Das bedeutet aber, dass auch IT Abteilungen kommunikativer werden müssen.



Diversifizierung? Microsofts Cloud OS Partner Netzwerk mutiert zu einer "OpenStack Community"

Im ersten Moment ließt sich die Ankündigung zum neuen Microsoft Cloud OS Partner Network in der Tat interessant. Wer nicht direkt die Microsoft Public Cloud nutzen möchte, kann ab sofort einen von zahlreichen Partnern wählen und dort indirekt auf dieselben Microsoft Technologien zurückgreifen. Ebenfalls lässt sich eine Hybrid Cloud zwischen der Microsoft Cloud und den Partner Clouds oder dem eigenen Rechenzentrum aufspannen. Für Microsoft und dessen technologischer Verbreitung innerhalb der Cloud ist es tatsächlich ein kluger Schachzug. Für das sogenannte "Cloud OS Partner Network" kann die Aktion aber schön nach hinten losgehen.

Das Microsoft Cloud OS Partner Network

Das Cloud OS Netzwerk besteht aus mehr als 25 Cloud Service Provider weltweit, die sich nach Microsoft Angaben, auf hybride Cloud-Szenarien speziell mit der Microsoft Cloud Plattform konzentrieren. Hierzu setzen diese auf eine Kombination des Windows Server mit Hyper-V, System Center und dem Windows Azure Pack. Microsoft möchte damit seine Vision unterstreichen, sein Cloud OS als Basis für Kunden-Rechenzentren, Service-Provider Clouds und der Microsoft Public Cloud zu etablieren.

Hierzu bedient das Cloud OS Partner Netzwerk mehr als 90 verschiedene Märkte mit einer Kundenbasis von insgesamt drei Millionen Unternehmen weltweit. Insgesamt 2,4 Millionen Server und mehr als 425 Rechenzentren bilden die technologische Basis.

Zu dem Partner Netzwerk gehören unter anderem T-Systems, Fujitsu, Dimension Data, CSC und Capgemini.

Vorteile für Microsoft und die Kunden: Lokalität und Verbreitung

Für Microsoft ist das Cloud OS Partner Netzwerk ein kluger Schachzug, um gemessen an der Verbreitung von Microsoft Cloud Technologien, weltweit mehr Marktanteile zu bekommen. Hinzu kommt, dass es sehr gut in Microsofts bewährte Strategie passt, die Kunden überwiegend nicht direkt, sondern über ein Netzwerk von Partnern zu versorgen.

Auch den Kunden kommt das Partner Netzwerk prinzipiell entgegen. Unternehmen, die bisher aus Gründen der Datenlokalität, oder lokaler Richtlinien wie dem Datenschutz, die Microsoft Public Cloud (Windows Azure) gemieden haben, können sich nun einen Anbieter in ihrem eigenen Land suchen, ohne auf die gewünschte Technologie zu verzichten. Für Microsoft eröffnet sich damit ein weiterer Vorteil, nicht zwingend ein Rechenzentrum in jedem Land zu bauen und sich lediglich auf die Bisherigen oder strategisch Wichtigeren zu konzentrieren.

Microsoft kann sich damit ein wenig zurücklehnen und den unbequemen Vertrieb erneut das Partnernetzwerk übernehmen lassen. Einnahmen werden wie vor dem Cloud Zeitalter mit dem Lizenzverkauf an den Partnern generiert.

Nachteile für die Partner: Diversifizierung

Man kann an dem Partner Netzwerk vieles schönreden. Fakt ist, dass Microsoft mit dem Cloud OS Netzwerk eine vergleichbare Konkurrenzsituation schafft, wies sie sich in der OpenStack Community gebildet hat. Speziell in der Public Cloud existieren dort mit Rackspace und HP nur zwei "Top Anbieter", die im weltweiten Cloud Zirkus jedoch nur eine untergeordnete Rolle spielen. Insbesondere HP hat derzeit zu viel mit sich selbst zu kämpfen und konzentriert sich dadurch viel zu wenig auf Innovationen. Das Hauptproblem beider und all den anderen OpenStack Anbietern besteht jedoch darin, dass sie sich nicht voneinander unterscheiden. Stattdessen stehen die meisten Anbieter in direkter Konkurrenz zueinander und heben sich derzeit nicht nennenswert voneinander ab. Das ist dem Umstand geschuldet, dass alle auf exakt dieselbe technologische Basis setzen. Eine Analyse zur Situation der OpenStack Community befindet sich unter "Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle."

Die Situation für das Cloud OS Partner Netzwerk ist sogar noch ein wenig unbequemer. Anders als bei OpenStack ist Microsoft alleiniger Technologielieferant und bestimmt wo es lang geht. Das Partner Netzwerk muss schlucken was es vorgesetzt bekommt oder kann sich nur durch die Adaption weiterer fremder Technologiestacks behelfen, was zu einem Mehraufwand führt und für weitere Kosten hinsichtlich der Entwicklung und den Betrieb sorgt.

Abgesehen von den lokalen Märkten, stehen alle Cloud OS Service Provider in einem direkten Wettbewerb zueinander und haben ausschließlich auf Basis der Microsoft Technologien keine Möglichkeit sich anderweitig zu differenzieren. Ein Guter Support und Professional Services sind zwar enorm wichtig und ein Vorteil, aber kein USP in der Cloud.

Falls das Cloud OS Partner Netzwerk floppt wird Microsoft mit einem blauen Auge davon kommen. Den großen Schaden werden die Partner davontragen.

Technologie als Wettbewerbsvorteil

Betrachtet man die wirklich erfolgreichen Cloud Anbieter am Markt, wird deutlich, dass es sich dabei um diejenigen handelt, die ihre Cloud auf einem eigenen Technologiestack aufgebaut haben und sich damit technologisch von den restlichen Anbietern am Markt differenzieren. Dabei handelt es sich um Amazon, Google oder Microsoft und eben nicht Rackspace oder HP die beide auf OpenStack setzen.

Das sollten sich Cloud OS Partner wie Dimension Data, CSC oder Capgemini vor Augen halten. Insbesondere CSC und Dimension Data haben selbst große Ansprüche in der Cloud ein Wort mitreden zu wollen.



Hosted Private Platform-as-a-Service: Chancen und Möglichkeiten für ISVs und Unternehmen

Auch wenn Platform-as-a-Service (PaaS) immer wieder eine rosige Zukunft vorhergesagt wurde, so richtig kommt das Servicemodell nicht in Fahrt. In Gesprächen erfährt man dann, dass PaaS zwar gerne für die Entwicklung von Prototypen genutzt wird. Wenn es um den Produktivbetrieb geht, wird aber auf ein Infrastructure-as-a-Service (IaaS) Angebot gewechselt. Der Hauptgrund ist das Kontroll-Level. Dabei handelt es sich ebenfalls um das Hauptentscheidungskriterium für bzw. gegen einen PaaS. IaaS bietet einfach mehr Möglichkeiten, Einfluss auf die virtuelle Infrastruktur, Software und Services zu nehmen. Bei einem PaaS hingegen wird gegen eine standardisierte API programmiert, die nicht viele Freiheiten ermöglicht. Dabei bietet ein PaaS vor allem für ISVs (Independent Software Vendor) und Unternehmen einige Möglichkeiten, um ihre Entwickler bequem mit Ressourcen zu versorgen. Wer kein Vertrauen in einen Public PaaS hat, der kann mittlerweile auch auf gehostete sogenannte Hosted Private PaaS zurückgreifen.

Platform-as-a-Service

Platform-as-a-Service (PaaS) ist die mittlere Schicht des Cloud Computing Service-Models und geht einen Schritt weiter als Infrastructure-as-a-Service (IaaS). Ein PaaS ist dafür zuständig eine transparente Entwicklungsumgebung bereitzustellen. Dabei stellt der Anbieter eine Plattform zur Verfügung auf der (Web)-Anwendungen entwickelt, getestet und gehostet werden können. Die Anwendungen werden anschließend auf der Infrastruktur des Anbieters ausgeführt und nutzen dessen Ressourcen. Der vollständige Lebenszyklus einer Anwendung kann darüber verwaltet werden. Über APIs werden die Dienste auf der Plattform des jeweiligen Anbieters angesprochen. Der Vorteil besteht darin, dass vor allem kleine Unternehmen ihre Entwicklungsinfrastruktur auf ein Minimum beschränken können. Sie benötigen lediglich einen Computer, einen Web-Browser, evtl. eine lokale IDE, eine Datenverbindung und ihr Wissen, um Anwendungen zu entwickeln. Der Rest obliegt dem Anbieter, der für die Infrastruktur (Betriebssystem, Webserver, Laufzeitumgebungen etc.) verantwortlich ist.

Platform as a Service
Quelle: Cloud Computing mit der Microsoft Plattform, Microsoft Press PreView 1-2009

Hosted Private Platform-as-a-Service

Hosted Private Platform-as-a-Services (Hosted PaaS) überführen die Idee des Public PaaS in eine dedizierte und von einem Anbieter verwaltete Variante. Sie ist insbesondere für Unternehmen attraktiv, die einen Public Ansatz (Shared Infrastructure, Multi-Tenancy) meiden wollen, aber nicht die Ressourcen und das Wissen besitzen, um ihren Entwicklern einen echten PaaS in der eigenen IT-Infrastruktur bereitzustellen. In diesem Fall können sie auf Anbieter zurückgreifen, die ihnen einen exklusiven PaaS in einer für sie reservierten Umgebung zur Verfügung stellen. Der Vorteil besteht darin, dass der Kunde den Hosted Private PaaS genau so nutzen kann wie einen Public PaaS, aber das auf einer nicht geteilten Infrastruktur, die sich beim Anbieter im Rechenzentrum befindet.

Ein weiterer Vorteil eines Hosted PaaS besteht in den Professional Services, die der Anbieter direkt mitliefert, und die dem Kunden dabei helfen, seine Applikationen entweder auf den PaaS zu überführen oder dort neu zu entwickeln. Das Konzept ist exakt vergleichbar mit den Managed Clouds bzw. Business Clouds im IaaS Umfeld. Das ist sowohl für Unternehmen, aber auch für ISVs interessant, die bisher wenig bis keine Erfahrung bei der Entwicklung von Cloud Applikationen haben und Public Angeboten wie Amazon Elastic Beanstalk, Microsoft Windows Azure, Heroku oder Force.com nicht vertrauen.

Ein mögliches Zeichen dafür, dass Public PaaS in Deutschland nicht so richtig in Fahrt kommt ist, das der erste deutsche PaaS Anbieter cloudControl mit der Application Lifecycle Engine seinen Public PaaS in einen Private PaaS gekapselt hat, mit dem Unternehmen und Webhoster (White-Label) einen eigenen PaaS in einer selbstverwalteten Infrastruktur betreiben können. Zusätzlich lässt sich eine Brücke zu einem Hybrid PaaS aufspannen.

Der Managed IaaS Anbieter Pironet NDH ist der erste deutsche Anbieter, der auf den Hosted Private PaaS Zug aufgesprungen ist. Das Unternehmen aus Köln will damit ISVs und SaaS Anbieter eine Plattform inklusive Professional Services bieten, um deren Web-Applikationen aus einem deutschen Rechenzentrum heraus bereitzustellen. Neben .NET, PHP, Java, Perl, Python, Ruby, node.js oder Go bietet Pironet NDH ebenfalls die vollständige Windows Azure PaaS Unterstützung, wie sie von der Microsoft Windows Azure Public Cloud bekannt ist. Damit lassen sich auf für Azure entwickelte Applikationen ebenfalls innerhalb des deutschen Pironet NDH Rechenzentrums betreiben. Beide PaaS Angebote sind separat aufgebaut. Bei dem Polyglot PaaS (multi-language) kommt eine RedHat OpenShift Implementierung zum Einsatz. Der Azure PaaS basiert auf dem Microsoft Windows Azure Pack. Auch wenn sich Pironet NDH vorwiegend auf 1:1 Geschäftsbeziehungen konzentriert, werden im Q1/Q2 2014 ebenfalls Public PaaS Varianten folgen, die allerdings nur sekundär vermarket werden sollen.

Insbesondere bei traditionellen ISVs rennt Pironet NDH mit seinem Angebot offene Türen ein. Deren Kunden werden in Zukunft verstärkt nach Web-Applikationen fragen, was für den einen oder anderen ISV große Herausforderungen birgt. Diese werden unter anderem von den Professional Services profitieren, um bestehende und neue Applikationen schneller auf den Markt zu bringen.

Public Cloud Anbieter werden reagieren müssen

Der "Hosted Private" Trend kommt aus dem IaaS Bereich, in dem derzeit auch verstärkt Hosted Private Clouds in Form von Managed bzw. Business Clouds nachgefragt werden. Das aus gutem Grund. Insbesondere das Thema Datenschutz treibt ISVs und Unternehmen in die Arme von Anbietern dedizierter Lösungen. Zudem sind Kunden bereit, für eine höhere Sicherheit, Datenhoheit und Consulting mehr Kapital in Cloud-Angebote zu investieren.

Public Cloud Anbieter werden darauf reagieren müssen, um sich den Bedürfnissen der Kunden zu stellen. Mit Salesforce hat der erste große Public Cloud Player die Hosen heruntergelassen. Zunächst ein O-Ton von Joachim Schreiner, Salesforce Deutschland Geschäftsführer: "Private Clouds sind keine Clouds. Das ist nichts anderes als ein Application-Server-Provider-Vertrag, der auch schon im Jahr 2000 hätte abgeschlossen werden können, wenn die nötige Bandbreite verfügbar gewesen wäre." Das sieht Salesforce CEO Marc Benioff scheinbar ein wenig anders. Schließlich rollt der Rubel nur dann, wenn die Kunden zufrieden sind. Dafür hat Salesforce auf der Dreamforce 2013 seinen "Salesforce Superpod" vorgestellt. Dabei handelt es sich um eine Dedicated Cloud auf Basis von HPs Converged Infrastructure. Also im Grunde genommen nichts anderes als eine Hosted Private Cloud.



Cloud Computing Mythos: Es ist weniger Know-How erforderlich

Ich bin in einem Artikel, der die Vorteile des Cloud Computing hervorhebt, auf eine interessante Aussage gestossen. In einer Bildunterschrift heißt es "Es muss kein zusätzliches Know-how im Unternehmen aufgebaut werden." Das ist völlig falsch. Denn genau das Gegenteil ist der Fall. Es wird immer noch viel mehr Wissen benötigt, als von den Anbietern versprochen wird.

Das notwendige Wissen fehlt

Die Art und Menge des benötigten Wissens hängt von der Art des Service ab, der aus der Cloud genutzt wird. Für eine vermeintlich hochstandardisierte Software-as-a-Service (SaaS) Applikation wie E-Mail wird hinsichtlich des Service und seiner Eigenschaft deutlich weniger Wissen benötigt, als ein Service, der einen bestimmten Prozess abbildet.

Für die Nutzung von Infrastructure-as-a-Service (IaaS) oder Platform-as-a-Service (PaaS) verhält es sich jedoch ganz anders. Zwar übernimmt der Anbieter in diesem Fall den Aufbau, Betrieb und die Wartung der physikalischen Infrastruktur. Die Verantwortung für die virtuelle Infrastruktur (IaaS) obliegt jedoch dem Kunden. Der Anbieter selbst – über kostenpflichtigen Support – oder zertifizierte Systemintegratoren helfen hier beim Aufbau und Betrieb. Genau so verhält es sich bei dem Betrieb einer eigenen Applikation auf einer Cloud-Infrastruktur. Der Cloud Anbieter selbst ist dafür nicht verantwortlich, sondern stellt lediglich die Infrastruktur sowie Mittel und Wege in Form von APIs, Weboberflächen und ggf. weiteren Mehrwertservices zur Verfügung, um den Kunden die Entwicklung zu erleichtern. In diesem Zusammenhang muss auch verstanden werden, dass je nach Cloud-Skalierung – Scale-out vs. Scale-up – die Applikation vollständig anders für die Cloud entwickelt werden muss – nämlich über mehrere Systeme hinweg automatisch skalierbar verteilt (Scale-out) – als es in einer nicht Cloud-Umgebung der Fall ist. Dieses architekturelle Wissen fehlt in den meisten Unternehmen an allen Ecken und Enden, was auch dem Fakt geschuldet ist, dass Hochschulen und Universitäten diese Art des programmatischen Denkens bisher nicht vermittelt haben.

Cloud Computing ist derzeit noch komplexer als es auf dem ersten Blick erscheint. Das Paradebeispiel hierfür ist Netflix. Der US-amerikanische Video-on-Demand Anbieter betreibt seine Plattform innerhalb einer Public Cloud Infrastruktur (Amazon AWS) und hat neben einem umfangreichen Produktivsystem, welches den skalierbaren und performanten Betrieb sicherstellt, ebenfalls eine umfangreiche Test-Suite – die Netflix Symian Army – entwickelt, die nur dafür zuständig ist, den einwandfreien Betrieb des Produktivsystems sicherzustellen – u.a. werden laufend willkürlich virtuelle Maschinen bewusst abgeschossen und das Produktivsystem muss dennoch weiterhin einwandfrei funktionieren.

Bedarf an Managed Cloud steigt

Die Komplexität lässt sich durch das Deploymentmodell zwar weniger verringern, die Verantwortung und das notwendige Know-How jedoch verschieben. Innerhalb einer Public Cloud regiert der Self-Service. Das bedeutet, dass der Kunde zunächst zu 100 Prozent auf sich selbst gestellt ist und die alleinige Verantwortung für die Entwicklung und den Betrieb seiner Applikation trägt.

Dieses haben viele Unternehmen erkannt und gestehen sich ein, dass sie entweder nicht über das notwendige Wissen, Personal und weitere Ressourcen verfügen, um erfolgreich eine Public Cloud (IaaS) zu nutzen. Stattdessen bevorzugen bzw. erwarten sie Hilfe von den Cloud Anbietern. In diesen Fällen handelt es sich allerdings nicht um Public Cloud Anbieter, sondern um Managed Cloud/ Business Cloud Anbieter, die neben Infrastruktur ebenfalls mit Professional Services helfen.

Mehr zum Thema Managed Cloud kann unter "Die Bedeutung der Managed Cloud für Unternehmen" nachgelesen werden.



Dropbox Alternativen für die Unternehmens-IT

Die Popularität einfach bedienbarer Cloud-Storage-Dienste wie Dropbox bereitet IT-Verantwortlichen Kopfzerbrechen. Dabei bietet der Markt inzwischen auch Enterprise-taugliche Lösungen. Dieser Artikel stellt Cloud-Services für den professionellen Einsatz vor.

Dieser Artikel ist exklusiv im IDG-Netzwerk erschienen und kann unter "Cloud Storage treibt die Schatten-IT: Dropbox Alternativen für Unternehmen" gelesen werden.



Meine Cloud Computing Vorhersagen für 2014

Das Jahr 2013 neigt sich dem Ende und es ist wieder einmal an der Zeit in die Glaskugel für das kommende Jahr zu schauen. Hierzu habe ich mir zehn Themen herausgegriffen von denen ich glaube, dass Sie im Cloud Bereich relevant sein werden.

1. Die AWS vs. OpenStack API Diskussion wird niemals enden

Diese Vorhersage gilt übrigens auch für die Jahre 2015, 2016 usw. Sie hört sich im ersten Moment lustig an. Allerdings nerven diese Diskussionen langsam. OpenStack hat ganz andere Probleme, als sich ständig mit den Amazon Web Services (AWS) vergleichen zu lassen. Zumal die Unruhen, die ständig von außen hinein getragen werden, nicht weiterhelfen. Wenn die OpenStack API zu 100% kompatibel mit der AWS API sein soll, dann kann sich OpenStack gleich in Eucalyptus umbenennen!

Die OpenStack Community muss ihren eigenen Weg finden und es den Service Providern ermöglichen, abseits vom Branchenprimus AWS, eigene Angebote aufbauen zu können. Allerdings liegt diese Mammutaufgabe wiederum nur in den Händen der Anbieter. Schließlich handelt es sich bei OpenStack nur um einen großen Baukasten von Lösungen für den Aufbau von Cloud Computing Infrastrukturen. Was am Ende (Geschäftsmodell) dabei herauskommt, ist nicht die Aufgabe der OpenStack Community.

Mehr unter "Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle."

2. Die Sicherheit erhält mehr Gewicht

Unabhängig von dem jüngsten NSA Skandal wurde schon immer die Sicherheit und das Vertrauen von (Public) Cloud Anbietern in Frage gestellt. Dabei sind (Public) Cloud Anbieter sicherheitstechnisch besser aufgestellt, als es die meisten Unternehmen weltweit sein können. Das liegt zum einen an den Ressourcen (Hardware, Software, Rechenzentrum und Personal) die in das Thema Sicherheit investiert werden. Zum anderen aber insbesondere daran, dass es sich dabei um ihr Kerngeschäft handelt, den reibungslosen und sicheren Betrieb sicherzustellen.

Vertrauen ist die Grundlage einer jeden Beziehung. Das gilt sowohl im privaten als auch im geschäftlichen Umfeld. Das hart erarbeitete Vertrauen der letzten Jahre wird derzeit auf die Probe gestellt und die Anbieter tun gut daran, sich weiter zu öffnen. "Security through obscurity" ist ein veraltetes Konzept. Die Kunden benötigen und wollen mehr Klarheit darüber, was mit ihren Daten passiert. Das wird sich je nach Region der Erde unterscheiden. Aber zumindest in Europa werden die Kunden ihren Anbieter deutlich härter auf die Probe stellen.

Mehr unter "Wie schützen Unternehmen ihre Daten gegen die Überwachung in der Cloud?"

3. Die Private Cloud bleibt attraktiv

Die Private Cloud ist finanziell und hinsichtlich der Ressourcenallokation (Skalierbarkeit, Flexibilität) nicht die attraktivste Form der Cloud. Dennoch wird sie, ungeachtet der Prognosen mancher Marktforscher, nicht ihre Bedeutung verlieren. Im Gegenteil, hier wird die Sensibilität der Entscheider trotz des Kostendrucks unterschätzt, welche die Kontrolle und Hoheit über die Daten und Systeme behalten wollen. Das spiegelt sich auch in aktuellen Zahlen von Crisp Research wieder. Demnach wurden in Deutschland im Jahr 2013 nur etwa 210 Millionen Euro für Public Infrastructure-as-a-Service (IaaS) ausgegeben. Hingegen lagen die Investitionen für Private Cloud Infrastrukturen bei 2,3 Milliarden Euro.

Eine aktuelle Studie von Forrester zeigt zudem:

"From [...] over 2,300 IT hardware buyers, [...] about 55% plan to build an internal private cloud within the next 12 months."

Das heißt nun nicht, dass Deutschland das Land der Private Clouds werden muss. Schließlich geht es immer um den spezifischen Workload und Use Case, der in einer Private oder Public Cloud abgebildet wird. Es zeigt aber einen deutlichen Trend hin zu einer weiteren Form wie Cloud Computing in Zukunft genutzt wird.

4. Willkommen Hosted Private Cloud

Nachdem ebenfalls Salesforce auf den Zug aufgesprungen ist, wird klar, dass Unternehmenskunden sich mit der Nutzung einer reinen Public Cloud nicht anfreunden können. In Kooperation mit HP hat Salesforce eine dedizierte Variante seiner Cloud Angebote angekündigt - "Salesforce Superpod".

Dieser extreme Wandel in Salesforce Strategie bestätigt unsere Untersuchung des europäischen Cloud Markts. Unternehmen sind interessiert an Cloud Computing und dessen Eigenschaften (Skalierbarkeit, Flexibilität oder Pay per use). Allerdings gestehen sie sich selbst ein, dass sie nicht über das Wissen und die Zeit verfügen oder es einfach nicht (mehr) zu ihrem Kerngeschäft gehört, IT-Systeme zu betreiben und dies stattdessen von dem Cloud-Anbieter übernehmen lassen. Es geht also um eine flexible Art von Managed Services. Darauf sind Public Cloud Anbieter nicht vorbereitet, da ihr Geschäft darin besteht, hochstandardisierte Infrastrukturen, Plattformen, Applikationen und Services bereitzustellen.

Hier besteht die Chance für Anbieter von Business Clouds. Also Cloud Anbieter, die kein Public Cloud Modell fahren, sondern anhand von Managed Services den Kunden dabei helfen, den Weg in die Cloud zu meistern und den Betrieb übernehmen und damit einen „Alles aus einer Hand“ Service bieten. Das erfolgt im Normalfall nicht auf einer Shared-Infrastructure sondern innerhalb einer Hosted Private Cloud bzw. einer Dedicated Cloud bei der sich ein Kunde explizit in einem isolierten Bereich befindet. Professional Services runden das Portfolio ab, die bei der Integration, Schnittstellen und der Weiterentwicklung helfen. Business Clouds sind auf Grund dieser Serviceleistungen, Exklusivität und höherer Sicherheit (in der Regel physikalische Isolation) teurer als Public Clouds. Betrachtet man jedoch den Aufwand, den man als Unternehmen selbst in der einen oder anderen Public Cloud betreiben muss, um tatsächlich erfolgreich zu sein oder sich Hilfe von einem der zertifizierten Systemintegratoren holt, dann ist der Kostenvorteil meist eliminiert.

5. Die Hybrid Cloud bleibt der Dauerbrenner

Die Hybrid Cloud ist ein Dauerbrenner während der Diskussionen um die Zukunft der Cloud. Aber sie ist real. International wird die die Public Cloud zunächst überwiegend eingesetzt, um kurzfristig auf Ressourcen und Systeme ohne großen Aufwand und bequem Zugriff zu erhalten. Langfristig betrachtet wird sich dies in eine Hybrid Cloud formen, indem IT-Abteilungen auch ihre eigenen Infrastrukturen auf das Level einer Public Cloud (Skalierbarkeit, Self-Service, usw.) bringen, um ihre internen Kunden zu versorgen. In Deutschland und Europa ist es genau umgekehrt. Hier wird bevorzugt auf Private Clouds gesetzt, da die Themen Datenschutz und Datensicherheit höchste Priorität besitzen. Europäer müssen und werden sich erst an die Public Cloud gewöhnen, um gewisse Teile - zum Teil auch kritischere Systeme - mit einer Public Cloud zu verbinden oder teilweise darin auszulagern.

Grundsätzlich wird es bei der Hybrid Cloud verstärkt um die Beweglichkeit der Daten gehen. Das bedeutet, dass die Daten eher lokal in einer eigenen Infrastruktur gehalten werden und für die Verarbeitung in eine andere Cloud, z.B. Public Cloud, verschoben wird, um anschließend wieder innerhalb der lokalen Infrastruktur abgelegt zu werden. Dabei muss es sich nicht immer wieder um dieselbe Cloud eines Anbieters handeln, sondern je nach Kosten, Service Level und Anforderungen mehrere Clouds betreffen.

6. Die Multi Cloud ist Realität

Das Thema Multi-Cloud wird derzeit insbesondere im IaaS-Umfeld stark diskutiert, um das Risiko zu streuen und die Kosten und Leistungen unterschiedlicher Cloud-Infrastrukturen optimal ausnutzen zu können. Aber ebenfalls im SaaS-Umfeld muss das Thema unbedingt eine höhere Bedeutung zugesprochen werden, um Daten- und Insellösungen in Zukunft zu vermeiden, die Integration zu vereinfachen und Unternehmen bei ihrer Adaption ihrer Best-of-Breed Strategie zu unterstützen.

Ungeachtet diesen Erwartungen ist der Multi-Cloud Einsatz bereits Realität, indem Unternehmen mehrere Cloud Lösungen von vielen unterschiedlichen Anbietern einsetzen, auch wenn diese noch nicht (vollständig) miteinander integriert sind.

Mehr unter "Wir leben bereits in einer Multi-Cloud getriebenen Welt".

7. Die Mobile Cloud kommt endgültig an

Mittlerweile gibt es Anbieter, die den Mobile Cloud Claim für ihr Marketing entdeckt haben. Viel zu spät. Tatsache ist, dass wir seit der Einführung der ersten Smartphones in einer Mobile Cloud Welt leben. Der Großteil aller Daten und Informationen, auf die wir von Smartphones und Tablets zugreifen, befinden sich nicht mehr auf dem lokalen Endgerät sondern auf einem Server in der Cloud.

Lösungen wie Amazon WorkSpaces oder Amazon AppStream unterstützen diesen Trend. Auch wenn Unternehmen noch vorsichtig mit dem Auslagern von Desktops sind, wird Amazon WorkSpaces diesen Trend stärken, wovon auch Anbieter wie Citrix und VMware profitieren werden. Amazon AppStream unterstreicht die Mobile Cloud im vollen Umfang, indem graphikintensive Anwendungen und Spiele vollständig in der Cloud verarbeitet und nur auf das Endgerät gestreamed werden.

Mehr unter "Die Mobile Cloud ist der wahre Megatrend" und "Die Bedeutung von mobilen und cloud-basierten Arbeitsweisen wächst stetig".

8. Hybrid PaaS ist der Top-Trend

Die Bedeutung von Platform-as-a-Services (PaaS) nimmt stetig zu. Beobachtungen und Gespräche mit Anbietern, die bisher kein Mittel gegen Amazon AWS im Infrastructure-as-a-Service (IaaS) Umfeld gefunden haben, zeigen, dass diese ihre reinen Compute und Storage Angebote vertikal um einen PaaS erweitern werden und damit versuchen, die Gunst der Entwickler zu gewinnen.

Andere Trends zeigen, dass Private PaaS bzw. Hosted Private PaaS versuchen Marktanteile zu gewinnen. cloudControl hat mit der Application Lifecycle Engine seinen Public PaaS in einen Private PaaS gekapselt, mit dem Unternehmen einen eigenen PaaS in einer selbstverwalteten Infrastruktur betreiben können. Zusätzlich lässt sich eine Brücke zu einem Hybrid PaaS aufspannen. IaaS Anbieter Pironet NDH hat das Windows Azure Pack von Microsoft adaptiert, um auf dieser Basis einen Azure PaaS innerhalb einer gehosteten privaten Umgebung anzubieten. Das ist aus diesem Grund interessant, da hiermit die Lücke zwischen einem Public und einen Private PaaS geschlossen wird. Mit einem Private PaaS haben Unternehmen zwar wieder vollständige Kontrolle über die Umgebung, müssen diese aber ebenfalls aufbauen und verwalten. Innerhalb einer gehosteten Variante sorgt der Anbieter dafür.

9. Partner Ökosysteme werden wichtiger

Public Cloud Anbieter sollten sich verstärkt darum kümmern, ein hochqualitatives Netzwerk von Partnern und ISVs aufzubauen, um Kunden den Weg in die Cloud zu ebnen. Das bedeutet, dass der Channel verstärkt in Anspruch genommen werden sollte, um auf eine breite Basis von Kunden zu treffen, die potentielle Kandidaten für die Cloud sind. Der Channel wird jedoch mit dem Problem kämpfen, ausreichend gut ausgebildete Mitarbeiter für das Zeitalter der Cloud zu finden.

10. Cloud Computing wird einfacher

In 2014 werden Angebote auf dem Markt erscheinen, welche die Nutzung des Cloud Computing einfacher machen. Bei diesen Angeboten muss den "Randthemen" der Verfügbarkeit und Skalierbarkeit weniger Beachtung gewidmet werden. Stattdessen können sich Cloud Nutzer auf ihre tatsächlichen Kernkompetenzen konzentrieren und ihre Energie in die Entwicklung der eigentlichen Applikation investieren.

Ein Beispiel: Infrastructure-as-a-Service Marktführer Amazon AWS sagt zwar, dass sich IT-Abteilungen durch die Nutzung der AWS Public Cloud nicht mehr um die Beschaffung und Wartung der notwendigen physikalischen Infrastruktur kümmern müssen. Stattdessen verlagert sich die Komplexität jedoch eine Ebene höher. Auch wenn mittlerweile zahlreiche Tutorials und Whitepaper existieren, spricht AWS öffentlich nicht aussagekräftig darüber, dass Skalierbarkeit und Verfügbarkeit innerhalb einer Scale-out Cloud Infrastruktur beliebig kompliziert werden kann. Das sind Kosten die niemals vernachlässigt werden dürfen.

Ein Tipp: (Hosted) Community Clouds

Ich sehe ein wachsendes Potential für die Community Cloud (MEHR HIER), die derzeit noch keine große Verbreitung hat. In diesem Zusammenhang sehe ich zudem einen Wechsel von einer zurzeit stark ausgeprägten Zentralität zu einer Semi-Dezentralität.

Die meisten Unternehmen und Organisationen sehen in der Public Cloud einen großen Vorteil und wollen in ihren Genuss kommen, um Kosten zu reduzieren, ihre IT zu konsolidieren und gleichermaßen mehr Skalierbarkeit und Flexibilität erhalten. Auf der anderen Seite sind Zukunftssicherheit, Vertrauen, Unabhängigkeit und Kontrolle wichtige Artefakte, die niemand gerne aufgeben möchte.

Die Community Cloud ist der Mittelweg, um beides zu erreichen. Zukunftssicherheit, Vertrauen, Unabhängigkeit und Kontrolle durch den Einfluss, was in der Community Cloud passiert und die Vorteile einer Public Cloud, durch das Partizipieren von einer echten Cloud Infrastruktur.

Es stehen mittlerweile einige Lösungen bereit, die als Basis für die eigene professionelle Cloud genutzt werden können. Dabei sollte man jedoch immer ein Auge auf die grundlegende Infrastruktur richten, die das Rückgrat der gesamten Cloud bildet. In diesem Zusammenhang darf man auch nicht den Aufwand unterschätzen, den es bedeutet, eine professionelle Cloud-Umgebung aufzubauen, ordnungsgemäß zu betreiben und zu warten. Weiterhin sind die Kosten für die notwendigen physikalischen Ressourcen zu kalkulieren.

Aus diesem Grund macht es für viele kleinere und mittlere Unternehmen, aber auch Bürogemeinschaften, Co-Working Spaces oder regelmäßige Projektpartnerschaften Sinn, den Community Cloud Gedanken in Betracht zu ziehen, um in den Genuss der Public Cloud (Shared Umgebung) zu kommen aber weiterhin Einfluss auf die Zukunftssicherheit, das Vertrauen, die Unabhängigkeit und Kontrolle der Umgebung zu haben und Kostenvorteile u.a. durch Ressourcenallokation zu erzielen. Hierzu sollte man sich zudem überlegen, ein Team aufzubauen, dass sich exklusiv um den Aufbau, Betrieb, die Administration und Wartung der Community Cloud kümmert. Dafür ist kein eigenes Rechenzentrum oder eine Co-Location erforderlich. Ein IaaS-Anbieter kann dazu als ideale Basis für eine Hosted Community Cloud dienen.



Kriterien zur Auswahl eines Cloud Storage Anbieter

Die Suche nach einem Cloud-Storage-Anbieter hängt in den meisten Fällen mit den individuellen Anforderungen zusammen, die der Service erfüllen soll. Diese müssen Entscheider im Vorfeld erörtern und festlegen. Dazu gehört vor allem die Klassifizierung der Daten. Dabei wird definiert, welche Daten in der Cloud und welche in der eigenen On-premise-Infrastruktur gespeichert werden.

Dieser Artikel ist exklusiv im IDG-Netzwerk erschienen und kann unter "Wenn Dropbox die falsche Lösung ist: Cloud Storage – wie Sie den richtigen Anbieter finden" gelesen werden.



Die Amazon Web Services greifen nach der Enterprise IT. Ein Realitätscheck.

Die AWS re:Invent 2013 ist vorbei und die Amazon Web Services (AWS) haben mit einigen neuen Services begonnen, die Hände weiter nach den Unternehmenskunden auszustrecken. Nachdem sich AWS als führender Infrastrukturanbieter und Enabler für Startups und neue Geschäftsmodelle in der Cloud etabliert hat, versucht das Unternehmen aus Seattle schon seit geraumer Zeit einen Fuß direkt in das lukrative Unternehmensumfeld zu bekommen. Aktuelle Public Cloud Marktzahlen für das Jahr 2017 von IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) geben AWS Rückenwind und bestärken den IaaS Marktführer in seiner reinen Public Cloud Strategie.

Die neuen Services

Mit Amazon WorkSpaces, Amazon AppStream, AWS CloudTrail und Amazon Kinesis hat Amazon interessante neue Services präsentiert, die insbesondere Unternehmenskunden adressieren.

Amazon WorkSpaces

Amazon WorkSpaces ist ein Service, der virtuelle Desktops auf Basis von Microsoft Windows bereitstellt, mit dem sich eine eigene Virtual Desktop Infrastructure (VDI) innerhalb der Amazon Cloud aufbauen lässt. Als Basis kommt der Windows Server 2008 R2 zum Einsatz, der Desktops mit einer Windows 7 Oberfläche ausrollt. Alle Services und Applikationen werden aus Amazon Rechenzentren auf die entsprechenden Endgeräte gestreamt, wobei das PCoIP (PC over IP) von Teradici zum Einsatz kommt. Dabei kann es sich um Desktop-PCs, Notebooks, Smartphones oder Tablets handeln. Zudem lässt sich Amazon WorkSpaces mit einer Microsoft Active Directory kombinieren, was die Benutzerverwaltung vereinfacht. Standardmäßig werden die Desktops mit bekannten Anwendungen wie Firefox oder Adobe Reader/ Flash ausgeliefert. Dies lässt sich von den Administratoren beliebig anpassen.

Mit Amazon WorkSpaces betritt Amazon völlig neues Terrain, in welchem mit Citrix und VMware bereits zwei absolute Marktgrößen warten. VMware hatte erst während der VMworld in Barcelona die Übernahme von Desktone bekanntgegeben. VDI ist grundsätzlich ein sehr spannendes Marktsegment, da es die Unternehmens-IT von Administrationsaufgaben erlöst und Infrastrukturkosten reduziert. Allerdings handelt es sich hierbei um ein noch sehr junges Marktsegment. Unternehmen sind zudem noch sehr vorsichtig bei der Auslagerung ihrer Desktops, da anders als bei klassischen on-Premise Terminal Services, die Bandbreite (Netzwerk, Internet, Datenverbindung) von entscheidender Bedeutung ist.

Amazon AppStream

Amazon AppStream ist ein Service, der als ein zentrales Backend für graphisch umfangreiche Applikationen dient. Damit soll die eigentliche Leistung des Endgeräts, auf dem die Applikationen genutzt werden, keine Rolle mehr spielen, da sämtliche Ein- und Ausgaben innerhalb der Amazon Cloud verarbeitet werden.

Da die Leistung der Endgeräte in Zukunft wahrscheinlich eher noch mehr zunehmend wird, muss die lokale Leistung vermutlich nicht berücksichtigt werden. Allerdings ist der Service für den Aufbau einer echten Mobile Cloud, bei der sich sämtliche Daten und Informationen in der Cloud befinden und die Geräte lediglich als Konsumenten genutzt werden, durchaus interessant. Weiterhin ist die Kombination mit Amazon WorkSpaces zu betrachten, um Applikationen auf Endgeräte bereitzustellen, die lediglich als ThinClients dienen und keine weitere lokale Intelligenz und Leistung benötigen.

AWS CloudTrail

AWS CloudTrail hilft beim Überwachen und Aufzeichnen der AWS API Aufrufe von einem oder mehrerer Accounts. Dabei werden Aufrufe über die AWS Management Console, dem AWS Command Line Interface (CLI), von eigenen Anwendungen oder Anwendungen von Drittanbietern berücksichtigt. Die erhobenen Daten werden entweder in Amazon S3 oder Amazon Glacier zur Auswertung gespeichert und lassen sich über die AWS Management Console, dem AWS Command Line Interface oder Tools von Drittanbietern betrachten. Derzeit lassen sich nur Amazon EC2, Amazon ECS, Amazon RDS und Amazon IAM überwachen. Amazon CloudTrail kann kostenlos genutzt werden. Kosten entstehen für das Speichern der Daten auf Amazon S3 und Amazon Glacier sowie für die Benachrichtigungen über Amazon SNS.

AWS CloudTrial gehört, auch wenn er nicht sehr spannend ist (Logging), zu den wichtigsten Services für Unternehmenskunden, die Amazon in letzter Zeit veröffentlicht hat. Die gesammelten Logdateien helfen bei der Compliance, indem sie sämtliche Zugriffe auf AWS Services aufzeichnen und damit das Einhalten von gesetzlichen Rahmenbedingungen nachweisen können. Ebenso verhält es sich mit Sicherheitsaudits, bei denen sich damit Sicherheitslücken und unberechtigte oder fehlerhafte Zugriffe auf Daten nachvollziehen lassen. Amazon ist gut beraten, AWS CloudTrail schnellstmöglich über alle weiteren AWS Services zu erweitern und für sämtliche Regionen weltweit verfügbar zu machen. Insbesondere die Europäer werden es danken.

Amazon Kinesis

Amazon Kinesis ist ein Service zur Echtzeitverarbeitung von großen Datenströmen. Hierzu ist Kinesis in der Lage Datenströme beliebiger Größe aus einer Vielzahl unterschiedlicher Quellen zu verarbeiten. Die Steuerung erfolgt aus der AWS Management Console, indem sich einer Anwendung unterschiedliche Datenströme zuweisen und darüber speichern lassen. Auf Grund von Amazons massiver Skalierbarkeit bestehen keine Kapazitätsbegrenzungen. Allerdings werden die Daten automatisch auf die weltweiten Amazon Rechenzentren verteilt. Als Use Cases für Kinesis gelten die üblichen Verdächtigen: Finanzdaten, Social Media sowie Daten aus dem Internet of Things/ Everything (Sensoren, Maschinen usw.).

Der eigentliche Vorteil von Kinesis, als Big Data Lösung, besteht in der Echtzeitverarbeitung von Daten. Gängige Standard-Lösungen am Markt verarbeiten die Daten via Batch, wodurch die Daten niemals zum direkten Zeitpunkt, sondern maximal ein paar Minuten später verarbeitet werden können. Kinesis hebt diese Barriere auf und ermöglicht neue Möglichkeiten zur Auswertung von Live-Daten.

Herausforderungen: Public Cloud, Komplexität, Self-Service, "Lock-in"

Schaut man auf die aktuellen AWS Referenzen, ist die Quantität als auch die Qualität beeindruckend. Schaut man genauer hin, handelt es sich bei den Top-Referenzen allerdings weiterhin um Startups, unkritische Workloads oder komplett neue Entwicklungen die dort verarbeitet werden. Das bedeutet, dass die meisten bestehenden IT-Systeme, um die es tatsächlich geht, sich noch gar nicht in der Cloud befinden. Das hängt neben den Bedenken vor dem Kontrollverlust und Compliance Themen damit zusammen, dass das Scale-out Prinzip es für Unternehmen beliebig kompliziert macht, ihre Anwendungen und Systeme in die AWS-Cloud zu migrieren. Am Ende läuft es darauf hinaus, dass sie von Vorne beginnen müssen, da ein nicht verteilt entwickeltes System nicht so funktioniert, wie es auf einer verteilten Cloud Infrastruktur laufen sollte - Stichworte: Skalierbarkeit, Hochverfügbarkeit, Multi-AZ. Das sind Kosten die nicht unterschätzt werden sollten. Das führt dazu, dass selbst die Migration eines vermeintlich einfachen Webshops zu Herausforderungen für Unternehmen werden, die nicht über die Zeit und das notwendige Cloud-Wissen verfügen, um den Webshop für die (Scale-out) Cloud Infrastruktur neu zu entwickeln.

Hinzu kommt, dass sich die Skalierbarkeit und Verfügbarkeit einer Applikation auf der AWS Cloud nur sauber realisieren lässt, wenn man sich an die Services und APIs hält, mit denen dies sichergestellt wird. Weiterhin stehen viele weitere infrastrukturnahe Services zur Verfügung bzw. werden ständig veröffentlicht, die das Leben für den Entwickler sichtlich einfacher machen. Der Lock-in ist damit vorprogrammiert. Zwar bin ich auf dem Standpunkt, dass ein Lock-in nichts Schlechtes sein muss, solange der Anbieter die gewünschten Anforderungen erfüllt. Dennoch sollte sich ein Unternehmen vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Zum Schluss. Auch wenn einige Marktforscher der Public Cloud eine goldende Zukunft prophezeien, sollte man die Zahlen nicht zu sehr auf die Goldwaage legen. Cloud Marktzahlen werden schon seit Jahren immer mal wieder nach unten korrigiert. Außerdem muss man im Einzelfall betrachten, wie sich diese Zahlen tatsächlich zusammensetzen. Aber darum geht es hier nicht. Am Ende des Tages geht es darum, was der Kunde will. Andy Jassy hat auf der re:Invent noch einmal deutlich gemacht, dass Amazon AWS konsequent auf die Public Cloud setzen wird und in keine eigenen Private Cloud Lösungen investieren wird. Man kann dies nun als Arroganz und Ignoranz gegenüber den Kunden, dem puren Willen nach Disruption oder einfach nur Selbstbestätigung interpretieren. Fakt ist, auch wenn Amazon wohl die Private Cloud für die CIA bauen wird, haben sie bei weitem nicht die Ressourcen und Kenntnisse, um als Softwareanbieter am Markt aufzutreten. Amazon AWS ist ein Service-Anbieter. Allerdings haben sie mit Eucalyptus einen starken Verbündeten auf der Private Cloud Seite, der es ermöglicht eine AWS-ähnliche Cloud Infrastruktur im eigenen Rechenzentrum aufzubauen.

Anmerkung hierzu: Nahezu alle Eucalyptus Kunden sollen ebenfalls AWS Kunden sein (Quelle: Eucalyptus). Das bedeutet im Umkehrschluss, dass einige Hybrid Cloud Infrastrukturen zwischen on-Premise Eucalyptus Infrastrukturen und der Amazon Public Cloud bestehen.

Vorteile: AWS Marketplace, Ökosystem, Enabler, Innovationstreiber

Was bei den ganzen Diskussionen um Amazon AWS und Unternehmenskunden leider immer wieder kläglich vergessen und auch von Amazon viel zu wenig beworben wird, ist der AWS Marketplace. Im Vergleich zu der Cloud Infrastruktur, die Kunden nutzen können, um eigene Lösungen zu entwickeln, bietet der Marketplace voll funktionsfähige Softwarelösungen von Partnern (z.B. SAP), die auf der AWS Infrastruktur automatisch ausgerollt werden können. Die Kosten für die Nutzung der Software werden pro Stunde oder pro Monat abgerechnet. Hinzu kommen die AWS Gebühren für die dafür benötigte Infrastruktur. Hier steckt der eigentliche Mehrwert für Unternehmen, ihre bestehenden Standardsysteme bequem in die Cloud auszulagern und sich von den on-Premise Systemen zu trennen.

Man muss bei den Amazon Web Services daher strikt zwischen der Nutzung von Infrastruktur für die Eigenentwicklung und dem Betrieb von fertigen Lösungen trennen. Beides ist in der der Amazon Cloud möglich. Hinzu kommt das Ökosystem von Partnern und Systemintegratoren, die AWS Kunden dabei helfen, ihre Lösungen zu entwickeln. Denn auch wenn AWS selbst (derzeit noch) ein reiner Infrastruktur Anbieter ist, müssen sie gleichermaßen als Plattform für andere Anbieter und Partner verstanden werden, die darauf ihre Geschäfte betreiben. Darin besteht auch der maßgebliche Erfolg und Vorteil gegenüber anderen Anbietern am Markt und wird langfristig die Attraktivität bei den Unternehmenskunden erhöhen.

Hinzu kommt, dass Amazon der absolute Innovationstreiber in der Cloud ist, dem kein anderer Cloud-Anbieter derzeit technologisch das Wasser reichen kann. Dazu bedarf es keiner re:Invent. Stattdessen zeigt sich dies nahezu jeden Monat von Neuem.

Amazon AWS ist - bedingt - tauglich für die Enterprise IT

Je nach Land und Use Case variieren die Anforderungen, die Amazon für Unternehmen erfüllen muss. Europäische Kunden sind hier meist bedachter mit der Datenhaltung und speichern die Daten lieber im eigenen Land. Ich saß schon mit mehr als einem Kunden zusammen, der technisch überzeugt war aber das Speichern der Daten in Irland nicht in Frage kam. In einigen Fällen ist es aber auch die fehlende Einfachheit der Nutzung. Das bedeutet, dass ein Unternehmen seine bestehende Anwendung oder Webseite nicht für die Amazon Infrastruktur (neu) entwickeln möchte. Gründe hierfür sind die fehlende Zeit und das Wissen um dies umzusetzen, was gleichzeitig zu einen längeren Time to Market führen würde. Beides lässt sich auf die Komplexität zurückführen, um auf den Amazon Web Services Skalierbarkeit und Verfügbarkeit zu erreichen. Es sind nun einmal nicht nur ein paar API-Aufrufe. Stattdessen muss die vollständige Architektur auf die AWS Cloud ausgerichtet werden. In Amazons Fall liegt es insbesondere an der horizontalen Skalierung (scale-out) die dies erforderlich macht. Die Unternehmen würden lieber die vertikale Skalierung (scale-up) bevorzugen, um das bestehende System 1:1 migrieren zu können und nicht von vorne zu beginnen, sondern direkt in der Cloud Erfolge zu erzielen.

Die AWS Referenzen zeigen allerdings auch, dass ausreichend Use Cases für Unternehmen in der Public Cloud existieren, bei denen die Datenhaltung eher als unkritisch betrachtet werden kann, solange die Daten vorher klassifiziert und anschließend verschlüsselt abgelegt werden.

Analysten Kollege Larry Carvalho hat sich auf der re:Invent mit ein paar AWS Unternehmenskunden unterhalten. Ein Kunde hat eine gehostete Webseite auf AWS für weniger als $7.000 Dollar implementiert, wofür ein anderer Systemintegrator $70.000 berechnen wollte. Ein anderer Kunde hat ausgerechnet, dass er für eine on-Premise Business Intelligence Lösung inkl. Wartung etwa $200.000 pro Jahr zahlen würde. Auf Amazon AWS lediglich $10.000 pro Jahr. Diese Beispiele zeigen, dass AWS auf der einen Seite ein Enabler ist. Auf der anderen Seite aber auch, dass die Sicherheitsbedenken in einigen Fällen den Kosteneinsparungen in den Unternehmen weichen werden.



Die Schlüssel gehören in die Hände der Anwender: TeamDrive erhält vierte ULD Datenschutz Rezertifizierung in Folge

Das Vertrauen in eine verschlüsselte Kommunikation zur Übertragung von sensiblen Informationen über das Internet wird immer wichtiger. Dabei gilt das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein (ULD) unter der Leitung von Thilo Weichert als Vorreiter, wenn es um die unabhängige Überprüfung und Zertifizierung von Datenschutz und sicherheitsrelevanter Themen im Bereich der Informationstechnologie geht. TeamDrive hat sich im Laufe der letzten Jahre als die Dropbox Alternative für Unternehmen etabliert und setzt in Punkto Sicherheit konsequent auf eine End-to-End Verschlüsselung. Der Anbieter aus Hamburg und Gartner Cool Vendor in Privacy 2013 hat erfolgreich seine vierte ULD Datenschutz Rezertifizierung in Folge erhalten.

Die Schlüssel gehören ausschließlich in die Hände der Anwender

Im Rahmen der Rezertifizierung wurde die Sicherheit von TeamDrive in der Version 3 erneut erhöht. Neben der 256 Bit AES End-to-End Verschlüsselung wurde die Sicherheit zusätzlich mit einer RSA 3072 Verschlüsselung erweitert. Die Bedeutung der End-to-End Verschlüsselung der gesamten Kommunikation nimmt immer weiter zu. Das bedeutet, dass der gesamte Prozess, den ein Nutzer mit der Lösung durchläuft, von Anfang bis Ende durchgehend verschlüsselt ist.

In diesem Zusammenhang ist es wichtig zu verstehen, dass sich der private Schlüssel für den Zugriff auf die Daten und des Systems ausschließlich im Besitz des Anwenders befinden darf. Und auch nur ausschließlich auf dem lokalen System des Anwenders verschlüsselt gespeichert wird. Der Anbieter darf über keine Möglichkeiten verfügen, diesen privaten Schlüssel wiederherzustellen und niemals auf die gespeicherten Daten Zugriff erhalten.

Trotz aller Versprechungen ist eine Verschlüsselung nutzlos, wenn Anbieter wie Dropbox oder Box über den Schlüssel verfügen und alle Daten entschlüsseln können. Die Kontrolle darüber gehört ausschließlich in die Hände der Anwender. Das muss jedes Unternehmen bei der Auswahl eines vertrauenswürdigen Anbieters berücksichtigen.



Runtastic: Als Consumer App in der Business Cloud

Die Erfolgsmeldungen aus der Public Cloud reißen nicht ab. Ständig erscheinen neue Web- und mobile Applikationen, die auf Infrastructure-as-a-Service (IaaS) Angebote setzen. Das ist nur ein Grund, der Marktforscher wie IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) dazu bewegt, der Public Cloud bis zum Jahr 2017 eine vermeintlich goldene Zukunft zu bescheinigen. Den Erfolg der Public Cloud kann man nicht wegdiskutieren, die Fakten sprechen für sich. Jedoch sind es derzeit überwiegend Startups und vielmals unkritische Workloads die sich in die Public Cloud bewegen. Spricht man hingegen mit IT-Entscheidern von Unternehmen, die über ausgewachsene IT-Infrastrukturen verfügen, sieht die Realität anders aus. Das zeigt auch unsere Studie über den Europäischen Cloud Markt. Insbesondere der Self-Service und die Komplexität wird von den Public Cloud Anbietern unterschätzt, wenn sie auf Unternehmenskunden zugehen. Aber auch für junge Unternehmen ist die Public Cloud nicht zwangsläufig die beste Wahl. Ich habe kürzlich mit Florian Gschwandtner (CEO) und Rene Giretzlehner (CTO) von Runtastic gesprochen, die sich gegen die Public Cloud und für eine Business Cloud, genauer T-Systems, entschieden haben.

Runtastic: Von 0 auf über 50.000.000 Downloads in drei Jahren

Runtastic besteht aus einer Reihe von Apps für Ausdauer, Kraft & Toning, Gesundheit & Wellness sowie Fitness und hilft den Nutzern dabei ihre Gesundheits- und Fitnessziele zu erreichen.

Das Unternehmen wurde im Jahr 2009 in Linz (Österreich) gegründet und hat auf Grund seines enormen Wachstums in der internationalen Mobile Health und Fitness-Branche mittlerweile Standorte in Linz, Wien und San Francisco. Die Wachstumszahlen sind beeindruckend. Nach 100.000 Downloads im Juli 2010 sind es mittlerweile über 50.000.000 Downloads (Stand: Oktober 2013). Davon alleine 10.000.000 Downloads in Deutschland, Österreich und der Schweiz, was in etwa mehr als ein Download pro Sekunde bedeutet. Runtastic verfügt über 20.000.000 registrierte Nutzer, bis zu 1.000.000 täglich aktive Nutzer und mehr als 6.000.000 monatlich aktive Nutzer.


Quelle: Runtastic, Florian Gschwandtner, November 2013

Neben den mobilen Apps setzt Runtastic ebenfalls auf das Angebot eigener Hardware, um die Apps und Services bequemer nutzen zu können. Ein weiterer interessanter Service ist das "Story Running", der zu mehr Abwechslung und Action beim Laufen führen soll.

Runtastic: Gründe für die Business Cloud

Angesichts dieser Wachstumszahlen und Anzahl der ständig wachsenden Apps und Services ist Runtastic ein idealer Kandidat für eine Cloud Infrastruktur. Im Vergleich zu ähnlichen Angeboten sogar für eine Public Cloud. Möge man meinen. Runtastic begann mit seiner Infrastruktur bei einem klassischen Webhoster - ohne Cloud Modell. In den vergangenen Jahren wurden einige Erfahrungen mit unterschiedlichen Anbietern gesammelt. Auf Grund der ständigen Expansion, neuer Rahmenbedingungen, der wachsenden Kundenanzahl und der Bedarf an Hochverfügbarkeit war der Grund die Infrastruktur in eine Cloud auszulagern.

Dabei war eine Public Cloud für Runtastic nie eine Option, da der dedizierte(!) Speicherort der Daten höchste Priorität besitzt und das nicht nur auf Grund von Sicherheitsaspekten oder dem NSA-Skandal. So kamen die Amazon Web Services (AWS) allein aus technischen Gründen nicht in Frage, da viele Ansprüche von Runtastic sich darauf nicht abbilden lassen. Unter anderem umfasst die Kerndatenbank in etwa 500GB auf einem einzelnen MySQL-Node, was laut Giretzlehner AWS nicht erfüllen kann. Zudem sind die Kosten in einer Public Cloud für solche großen Server dermaßen teuer, das sich eine eigene Hardware schnell rechnet.

Stattdessen hat sich Runtastic für die Business Cloud von T-Systems entschieden. Gründe hierfür waren ein gutes Setup, ein hoher Qualitätsanspruch sowie zwei Rechenzentren an einem Standort (in zwei getrennten Gebäuden). Hinzu kommt ein hoher Sicherheitsstandard, ein professioneller technischer Service als auch die Kompetenz der Mitarbeiter und Ansprechpartner und eine sehr gute Anbindung an die Internetknoten in Wien und Frankfurt.

Dabei kombiniert Runtastic das Colocation Modell mit einem Cloud-Ansatz. Das bedeutet, dass Runtastic die Grundlast mit eigener Hardware abdeckt und Lastspitzen über Infrastructure-as-a-Service (IaaS) Rechenleistung von T-Systems abfängt. Das Management der Infrastruktur läuft automatisiert mittels Chef. Der Großteil der Infrastruktur ist zwar virtualisiert. Allerdings fährt Runtastic einen hybriden Ansatz. Das bedeutet, dass die Kerndatenbank, der Storage und der NoSQL Cluster auf Bare Metal (nicht virtualisiert) betrieben werden. Auf Grund der globalen Reichweite (90 T-Systems Rechenzentren weltweit) kann Runtastic auch in Zukunft sicherstellen, dass alle Apps nahtlos und überall funktionieren.

Eine etwas unkonventionelle Entscheidung ist der Drei-Jahresvertrag, den Runtastic mit T-Systems eingegangen ist. Dazu gehören das Housing der zentralen Infrastruktur, ein redundanter Internetzugang sowie der Bezug von Rechenleistung und Speicherplatz aus der T-Systems Cloud. Runtastic hat sich für dieses Modell entschieden, da sie die Partnerschaft mit T-Systems langfristig sehen und nicht von heute auf morgen die Infrastruktur verlassen wollen.

Ein weiterer wichtiger Grund für eine Business Cloud war der direkte Draht zu Ansprechpartnern und Professional Services. Das spiegelt sich zwar auch in einem höheren Preis wieder, den Runtastic jedoch bewusst in Kauf nimmt.

Es geht auch ohne Public Cloud

Runtastic ist das beste Beispiel dafür, dass junge Unternehmen auch ohne eine Public Cloud erfolgreich sein können und eine Business Cloud definitiv eine Option ist. Zwar setzt Runtastic nicht vollständig auf eine Cloud-Infrastruktur. Jedoch muss in jedem Einzelfall der Business Case gerechnet werden, ob es sich (technisch) lohnt, Teile in eine eigene Infrastruktur zu investieren und die Lastspitzen per Cloud-Infrastruktur abzufangen.

Man sieht an diesem Beispiel allerdings auch, dass die Public Cloud kein Selbstgänger für die Anbieter ist und Beratung und Professional Services aus einer Business bzw. Managed Cloud gefragt sind.

Während der Keynote auf der AWS re:Invent 2013 präsentierte Amazon AWS seinen Vorzeigekunden Netflix und dessen Netflix Cloud Plattform (siehe Video, ab 11 Minuten), die speziell für die Amazon Cloud Infrastruktur entwickelt wurde. Amazon verkauft die Netflix Tools selbstverständlich als einen positiven Aspekt, was sie definitiv sind. Allerdings verschweigt Amazon den Aufwand, den Netflix betreibt, um die Amazon Web Services zu nutzen.

http://www.youtube.com/watch?v=Waq8Y6s1Cjs

Netflix zeigt sehr eindrucksvoll wie eine Public Cloud Infrastruktur via Self-Service genutzt wird. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud nicht immer zu den versprochenen Kostenvorteilen führt. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

In diesem Zusammenhang sollte auch der übermäßige Einsatz von infrastrukturnahen Services überdacht werden. Auch wenn diese das Entwicklerleben vereinfachen. Als Unternehmen sollte man sich vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden, um sich alle Türen offen zu halten. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.



Disruptive Welt der IT: Neue Technologien verändern ständig den Status quo der Unternehmen #tsy13

Zero Distance klingt im ersten Moment wie eine dieser neumodischen Marketingphrasen, mit denen uns Anbieter tagtäglich erzählen, wie sie die Welt verbessern wollen. Nun, es handelt sich dabei auch um genau eine von diesen Marketingphrasen. Aber eine, in der viel Wahrheit steckt. Betrachtet man die Use Cases, die auf dem T-Systems Symposium 2013 gezeigt wurden und viele weitere weltweit, dann wird deutlich, was für Potentiale uns die moderne Informationstechnologie ermöglicht. Die Cloud bzw. Cloud Computing sind dabei nur ein Mittel zum Zweck und dienen als Enabler für neue Geschäftsmodelle und helfen bei der Veränderung unserer Welt.

Wer nicht handelt der stirbt aus!

Fakt ist, dass traditionelle Unternehmen dem Untergang geweiht sind, wenn sie sich nicht verändern. An alten Werten festzuhalten ist nicht immer die beste Strategie – insbesondere im Zeitalter des Digital Business. Startups tauchen wie aus dem nichts auf und überrennen Marktführer in ihrem Bereich, die gar keine Chance haben so schnell zu reagieren. Es ist der Vorteil der grünen Wiese, den die Startups ausnutzen und sich nicht mit lästigen Altlasten in der IT und anderweitigen Bereichen auseinandersetzen müssen. Aber es gibt auch die Unternehmen, die schon eine geraume Zeit erfolgreich auf dem Markt verweilen und die Zeichen der Zeit erkannt haben. Neue Technologien und Konzepte haben immer irgendeinen Einfluss auf das Business. Einige Unternehmen haben es verstanden sich neu zu erfinden und Cloud Computing, Big Data, Mobile und Collaboration gewinnbringend für die eigene Zwecke zu nutzen, um sich dadurch zu verändern. Andere hingegen können oder wollen es nicht verstehen und bleiben lieber ihrem Status quo treu.

Hey Bauer, wo bleibt der Bulle?

Es ist immer wieder erstaunlich in welchen Bereichen der Industrie die Informationstechnologie einen massiven Einfluss nimmt und dabei für mehr Effizienz sorgt. Nehmen wir das Beispiel der Landwirtschaft. Konkreter das Paarungsverhalten der Kühe. Das ist wichtig, denn eine Kuh gibt nur dann Milch, wenn sie gekalbt hat. Es ist für den Bauer daher von besonderem Interesse, das hier alles reibungslos abläuft.

Die Lösung: Ist eine Kuh brünstig, macht sie währenddessen typische Kopfbewegungen. Daher bekommt jede Kuh ein Halsband inkl. einem Mobilfunkchip. Der Bauer erhält darüber die Information, dass er den Bullen startklar machen kann. Auch beim Kalben hilft die Lösung. Dazu überträgt das Tool die Werte eines Thermometers mit integrierter SIM Karte. Etwa 48 Stunden vor der Geburt verändert sich die Körpertemperatur der Kuh. Der Bauer erhält zwei Stunden vor der Geburt eine SMS, um rechtzeitig vor Ort zu sein.

IT-Abteilungen müssen proaktiver werden

IT-Abteilungen sind und waren schon immer die Prügelknaben im Unternehmen. Zu recht? Nun, einige ja, andere wiederum nicht. Aber sind es die IT-Abteilungen alleine, die für die Transformation des Business zuständig sind? Jein. In erster Linie ist die Geschäftsführung für die Ausrichtung der Unternehmensstrategie verantwortlich. Sie muss sagen, welchen Weg das Unternehmen gehen soll, schließlich hat sie die Visionen. Das große Aber besteht allerdings in der Art wie die IT-Abteilung sich in diesem Kontext verhält. Ist sie einfach nur die unterstützende Kraft, die je nach Bedarf auf die Wünsche der Geschäftsführung und der Kollegen reagiert oder agiert sie lieber proaktiv?

Angriff ist die beste Verteidigung. IT-Abteilungen sollten heute am technischen und innovativen Puls der Zeit sitzen und über die Veränderungen im Markt informiert sein. Über eine ständige interne oder externe Markt- und Trendforschung müssen sie wissen, was auf sie und ggf. auf ihr Unternehmen zukommt und darauf schnellstmöglich und proaktiv reagieren, um nicht zu viel Zeit zu verlieren und im besten Fall einen Wettbewerbsvorteil zu schaffen. Je nach Trend müssen sie nicht auf jeden Zug aufspringen, aber sie sollten sich damit zumindest auseinandersetzen und verstanden haben, welcher Einfluss dadurch entsteht und ob sie oder ihr Unternehmen davon betroffen sind. Wenn sie Potential für neue Geschäftsmodelle erkennen, sollten sie diese in die Geschäftsführung tragen, die auch verstehen muss, dass IT heute Enabler und nicht nur Instandhalter ist. Das bedeutet, dass die IT-Abteilung im Unternehmen heute einen viel größeren Stellenwert hat als noch vor zehn Jahren.

Hierzu muss die Geschäftsführung der IT-Abteilung jedoch unter die Arme greifen und die IT-Abteilung von ihren Routineaufgaben befreien. In etwa 80 Prozent der IT-Ausgaben werden heute in den IT-Betrieb investiert und das nur, um die Dinge am Laufen zu erhalten. Es handelt sich also um Investitionen in den Status quo, die zu keinen Innovationen führen. Hingegen werden lediglich nur 20 Prozent der Ausgaben in Verbesserungen oder Weiterentwicklungen investiert. Dieses Verhältnis muss sich drehen, und die Geschäftsführung zusammen mit dem CIO haben die Aufgabe, diesen Wandel vorzunehmen, damit ein Unternehmen auch in Zukunft innovativ und wettbewerbsfähig bleibt.

Hören Sie auf den Status quo zu umarmen.



Die vollständig vernetzte Welt wird Wirklichkeit #tsy13

Unternehmen sind in ihrem Alltag ständig kürzeren Veränderungszyklen ausgesetzt. Dabei ist die Consumerization of IT ein großer Treiber, die auch in Zukunft eine wichtige Bedeutung behalten wird. Seit mehreren Jahren zeigen Mobilität, Cloud, neue Applikationen, das Internet of Things und Big Data (Analysen) ihre Auswirkungen. Neben diesen technologischen Einflüssen sind es aber auch die geschäftlichen Auswirkungen wie neue Geschäftsmodelle, ständiges Wachstum, Globalisierung und gleichzeitig die Themen Sicherheit und Compliance die zu neuen Herausforderungen führen.

Die Evolution des Internets hinterlässt ihre Spuren

Betrachtet man die Evolution des Internets, wird deutlich, dass die Auswirkungen auf die Unternehmen und unsere Gesellschaft mit dem Wachstum von intelligenten Verbindungen wachsen. Gestartet mit einfachen Verbindungen über E-Mail oder Web und damit der Digitalisierung des Informationszugangs, folgte die vernetzte Wirtschaft, bei der es mit E-Commerce und Collaboration darum ging, Geschäftsprozesse zu digitalisieren. Anschließend folgte etwas, das Cisco als „Realitätsnahe Erfahrungen“ bezeichnet. Dazu gehört die Digitalisierung von geschäftlichen und sozialen Interaktionen wie Social Media, Mobile und Cloud. Der nächste Zustand den wir erreichen werden ist das „Internet of Everything“, bei dem Menschen, Prozesse, Daten und Dinge verbunden werden – die Digitalisierung der Welt.

Jeder Baustein hat im Internet of Everything seine eigene Bedeutung. Die Verbindungen zwischen den Menschen werden relevanter und wertvoller. Die richtige Person oder auch Maschine erhält über intelligente Prozesse zum richtigen Zeitpunkt die richtigen Informationen. Die Daten werden zu wertvolleren Informationen für die Entscheidungsfindung verarbeitet. Physische Geräte (Dinge) werden über das Internet untereinander vernetzt, um die intelligenten Entscheidungen zu ermöglichen.

Auf dem T-Systems Symposium 2013 in Düsseldorf sagte Cisco, dass sie im Jahr 2020 etwa 50 Milliarden untereinander vernetzte Smart Objects erwarten. Hingegen wird dann weltweit gerade einmal mit 7,6 Milliarden Menschen gerechnet. Weiterhin ist Cisco der Meinung, dass derzeit 99 Prozent der Welt noch nicht vernetzt ist und wir in Zukunft Billionen von Smart Sensors sehen werden. Diese werden unter anderem in intelligenten Gebäuden, Städten oder Häusern verbaut und dabei helfen Energie zu sparen und effizienter zu leben. Sie werden aber ebenfalls dazu führen, die Produktivität zu erhöhen oder das Gesundheitswesen zu verbessern.

Technologische Grundlagen für die vollständig vernetzte Welt

Auf Grund seiner massiven Skalierbarkeit, Verteilung, neuartigen Anwendungen und den Möglichkeiten des Überallzugriffs, ist die Cloud eine der Hauptgrundlagen für die vollständig vernetzte Welt. Ciscos Cloud Strategie besteht daher darin, Cloud Anbieter und Unternehmen es zu ermöglichen, unterschiedliche Arten von Cloud Services bereitzustellen und zu „brokern“. Gleichzeitig sollen von Cisco Applikationsplattformen für verschiedene Cloud Kategorien angeboten werden.

Die Cloud muss allerdings um Ansätze aus dem Internet der Dinge angereichert werden. Dazu gehören intelligentere Geschäftsprozesse, Menschen zu Machine-2-Machine Kommunikation sowie weitere Dinge wie Sensoren und Aktoren die überall verteilt sind. Im Endeffekt ist eine weltweit stark skalierbare Infrastruktur notwendig, die zeitliche Schwankungen und Anforderungen zwischen den unterschiedlichen Workloads steuern kann.

Eine weitere Schlüsselkomponente ist daher etwas, dass Cisco als Fog Computing bezeichnet. Der Fog hat die Aufgabe, Daten und Workloads näher an den Nutzer zu bringen, der sich am Rande einer Datenverbindung befindet. In diesem Zusammenhang wird dann auch vom „Edge Computing“ gesprochen. Der Fog befindet sich organisatorisch unterhalb der Cloud und dient als optimiertes Übertragungsmedium für die Services und Daten, die sich in der Cloud befinden. Der Begriff „Fog Computing“ wurde von Cisco als ein neues Paradigma geprägt, der verteilte Endgeräte innerhalb des Internet of Things bei dem kabellosen Datentransfer unterstützen soll. Fog Computing baut konzeptionell auf bestehende und weit verbreitete Technologien wie den Content Delivery Networks (CDN) auf, soll aber, auf Grund von Cloud Technologien, das Bereitstellen von viel komplexeren Services ermöglichen.

Da immer größere Datenmengen an eine immer größer werdende Anzahl an Benutzern ausgeliefert werden müssen, sind Konzepte notwendig, welche die Idee der Cloud verbessern und es Unternehmen und Anbietern ermöglichen, ihre Inhalte an den Endkunden über eine geographisch weit verbreitete Plattform bereitzustellen. Fog Computing soll dabei helfen, die verteilten Daten näher an den Endkunden zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern und Mobile Computing und Streaming Services dadurch besser zu unterstützen. Neben dem Internet of Things ist die steigende Nachfrage der Nutzer, zu jeder Zeit, von jedem Ort und mit jedem Gerät auf ihre Daten zugreifen zu können, ein weiterer Grund, warum die Idee des Fog Computing an Bedeutung zunehmen wird.

Die wesentliche Eigenschaft des Fog Computing besteht also darin, dass Workloads völlig autark von der Cloud agieren können, um den schnellen, nahen und stabilen Zugriff eines Service sicherzustellen.

Die vernetzte Welt benötigt intelligentere Technologien

Um die Cloud als die grundlegende Basis für das Internet of Things bzw. des Internet of Everything zu nutzen, müssen noch einige Hürden aus dem Weg geschafft werden. Das aktuelle Cloud Bereitstellungsmodell sieht vor, dass die Daten, in der Regel, direkt und ohne eine Zwischenschicht zum Endgerät bzw. den Endnutzer ausgeliefert werden. (Anmerkung: Es existieren bereits CDN und Edge Locations, die für das Caching und somit Beschleunigen sorgen.) Es wird daher davon ausgegangen, dass die Bandbreite zur Übertragung der Daten maximal ist und theoretisch eine Verzögerung von Null existiert. Das ist jedoch nur theoretisch der Fall. In der Praxis sorgen hohe Latenzen und somit Verzögerungen, eine schlechte Elastizität und die zur Bandbreite wesentlich schneller ansteigenden Datenmengen, für Probleme.

Aus diesem Grund sind Ansätze wie Fog Computing erforderlich, um davon ausgehen zu können, dass eine limitierte Bandbreite vorhanden, unterschiedliche Verzögerungszeiten sowie unterbrochene Verbindungen vorhanden sind. Ideen wie der Fog etablieren sich als eine intelligente Zwischenschicht, Cache bzw. wie eine Art Verstärker und koordinieren die Anforderungen unterschiedlicher Workloads, Daten und Informationen, so dass diese unabhängig voneinander und performant an die Objekte im Internet of Everything ausgeliefert werden.



So lassen sich Schatten-IT und Covered Clouds auflösen #tsy13

Die Schatten-IT oder wie VMware es nennt, Covered Clouds (versteckt genutzte Cloud Services) sind ein großes Problem für Unternehmen. Einer VMware Studie zufolge vermuten 37 Prozent der führenden europäischen IT-Entscheider in ihren Unternehmen nicht erfasste Ausgaben für Cloud-Services. 58 Prozent der europäischen Wissensarbeiter würden ungenehmigte Cloud-Services nutzen.

Pro und Kontra für Schatten-IT (Covered Clouds)

Diese unerlaubte Nutzung hat auch ihre finanziellen Einflüsse. In den betroffenen Unternehmen vermuten Führungskräfte aus dem IT-Bereich, dass durchschnittlich 1,6 Millionen Euro ohne Erlaubnis des Unternehmens ausgegeben werden. Dies macht im Durchschnitt 15 Prozent des jährlichen IT-Budgets dieser Unternehmen aus.

Allerdings wird diese Entwicklung von vielen als positiv erachtet. 72 Prozent der IT-Führungskräfte sehen darin einen Nutzen für ihr Unternehmen. Denn 31 Prozent von diesen sind der Meinung, dass Schatten-IT und Covered Clouds das Wachstum und die Innovation beschleunigen. Mehr als die Hälfte gaben an, dass das Unternehmen dadurch schneller auf Kundenanforderungen reagieren kann.

Dennoch gibt es auch große Sicherheitsbedenken. Von denjenigen, die Schatten-IT nicht befürworten, befürchtete mehr als die Hälfte eine Verschärfung der Sicherheitsrisiken. Diese Einblicke gab VMware während des T-Systems Symposium 2013 in Düsseldorf.

Eine Maßnahme: IT-as-a-Service

IT-as-a-Service ist ein Betriebsmodell, bei dem die IT-Abteilung wie eine eigene Business Einheit geführt wird und selbst Produkte und Services für das eigene Unternehmen entwickelt. Dabei muss sich die IT-Abteilung gegen externe Mitbewerber behaupten. Schließlich haben Fachabteilungen in der heutigen Zeit eine grenzenlose Auswahl von anderen Anbietern am Markt.

VMware hat es sich zur Aufgabe gemacht, IT-Abteilungen hierzu die technischen Mittel zu liefern und sieht in IT-as-a-Service eine Chance das Verhältnis Instandhaltung zu Innovation auf 50:50 auszugleichen, anstatt die Mehrheit der Aufwendungen in die Instandhaltung zu investieren. Heute beträgt das Verhältnis ca. 80 Prozent (Wartung) zu 20 Prozent (Innovation).

VMware liegt richtig, wenn sie versuchen, sich als führender Anbieter für IT-as-a-Service Lösungen zu etablieren. Als einer der wenigen Infrastrukturanbieter am Markt sind sie mit ihren Fähigkeiten in der Lage die technischen Mittel für diesen Umschwung in den Unternehmen zu liefern. Man muss hierzu allerdings beachten, dass IT-as-a-Service kein technischer Ansatz ist, sondern sich fest im Denken der IT Abteilungen verankern muss, um erfolgreich umgesetzt zu werden. VMware kann somit nur zeigen, welche technischen Mittel zur Verfügung stehen, um den Wandel einzuleiten.

Service Portal als Middleware für die Mitarbeiter

IT-as-a-Service ist für die Schatten-IT nicht die Non-plus Ultra Lösung, kann aber dabei helfen, diesem über die Jahre gewachsenen Phänomen entgegenzuwirken. Die entsprechenden Konzepte und Technologien stehen bereit und müssen nun umgesetzt werden.

Ist eine IT-as-a-Service Philosophie innerhalb der IT-Abteilung entstanden, sollte damit begonnen werden, ein eigenes Service Portal für die Mitarbeiter, über welches diese kontrolliert auf interne und externe Cloud Services zugreifen, zu etablieren. Dabei kann es sich sowohl um Infrastruktur (virtuelle Server und Speicherplatz) als auch um Software und Plattformen handeln. Die IT-Abteilung wird dadurch immer mehr zum Service Manager (Broker) und kann durch die Nutzung externer Ressourcen (hybrid Modell) sicherstellen, dass die Mitarbeiter mit einer hohen Servicegüte rechnen können. So lässt sich einem Entwickler zum Beispiel ein Server anstatt in mehreren Wochen, innerhalb von fünf Minuten bereitstellen. Dabei sollte zudem betrachtet werden, dass Entwickler nicht nur an Rechenleistung und Speicherplatz interessiert sind, sondern auch Services benötigen, um Applikationen und eigene Services auf eine einfachere Art und Weise zu entwickeln. Das kann unter anderem durch Eigenschaften eines Platform-as-a-Service (PaaS) realisiert werden.



Das Business im Internet of Everything, Hybrid Cloud, Ein Koffer auf Reisen #tsy13

Während der Breakout Sessions auf dem T-Systems Symposium habe ich mir drei Themen angehört. Jeweils eines aus dem Bereich Cloud, Mobile und Collaboration bzw. The Internet of Things. Ich werde zu jedem dieser Themen zwar in den kommenden Tagen noch eine ausführliche Analyse bzw. ein Kommentar schreiben. Dennoch möchte ich schon einmal einen kurzen Vorgeschmack geben, da es sich dabei wirklich um interessante Use Cases handelt.

Geschäftstransformation im Zeitalter von Collaboration und „Internet of Everything“ (IoE)

Cisco sieht seine Zukunft als Enabler des Internet of Everything (IoE). Der Unterschied zu dem viel diskutierten Internet of Things (IoT) besteht in der Anzahl der miteinander vernetzten Objekte. Wo es sich beim IoT um die Kommunikation von Menschen mit Maschinen und Maschinen untereinander handelt, geht es beim IoE um Menschen, Prozesse, Daten und Dinge. Es geht also um deutlich mehr Konnektivität. Cisco sieht aus diesem Grund im Jahr 2020 in etwa 50 Billionen Smart Objects weltweit, die miteinander verbunden sind. Dabei soll in Zukunft Fog Computing unterstützen, welches ich erst vor kurzem vorgestellt und analysiert habe.

Ready for Hybrid Cloud mit T-Systems DSI vCloud = VMware vCloud™ Datacenter Services

Eine VMware Studie hat ergeben, dass 37 Prozent der führenden europäischen IT-Entscheider nicht erfasste Ausgaben für Cloud Services in ihrem Unternehmen vermuten. Dabei würden 58 Prozent der europäischen Wissensarbeiter ungenehmigte Cloud Services nutzen. VMware sieht eine Lösung im IT-as-a-Service. Dabei stellen sich die IT-Abteilungen als Mitbewerber zu externen Service Anbietern auf. VMware merkt aber auch an, dass historisch entstandene IT-Silos wie Storage, Netzwerk, Server, Windows, Unix oder Linux die größten Herausforderungen für IT-as-a-Service sind. Dabei soll das Software-defined Data Center, was aus den Komponenten virtualisierte Server, Software-defined Network und Software-defined Storage besteht, helfen. Das stellt für Unternehmen dann die Grundlage dar, um über eine Hybrid Cloud Workloads bei Bedarf in ein zertifiziertes vCloud Datacenter zu migrieren.

Bag2Go: Der moderne Koffer geht allein auf Reisen

Airbus will mit seinem Bag2Go, einem intelligenten Koffer, den Menschen von seinem Gepäck trennen. Das bedeutet, dass ein Koffer auch eine andere Route zum Reiseziel nehmen kann als der Reisende. Hierzu bietet der Koffer verschiedene Eigenschaften: Selbständige Gewichtsanzeige, automatisierter Check-In und selbstständige Beförderung. Auch die ständige Verfolgung des Koffers und sein Status sind möglich. Airbus verspricht, dass für den Einsatz des Koffers keine Änderungen an der bestehenden Infrastruktur an den Flughäfen notwendig ist. Airbus Ziel besteht darin, in Zukunft vollständig vernetzte Transportkapseln als Standard zu etablieren. Ein Internet of Things Use Case. Bag2Go nutzt als Infrastruktur die Business Cloud von T-Systems.



CIO: Quo vadis? Kostenstelle oder Business Enabler? #tsy13

Ich hatte am Montag die zukünftige Rolle der IT und des CIO diskutiert. Denn derzeit befinden wir uns im größten Wandel (Disruptive IT), den die IT-Branche seit ihrem Bestehen erlebt hat. Dieser Wandel schlägt direkt auf den CIO und somit auch auf die IT-Abteilungen durch. Dr. No und Kostenstelle waren gestern. Der CIO als Business Enabler ist gefragt, der zusammen mit seinen IT-Mitarbeitern als strategischer Partner des CEO und der Fachabteilungen neue Geschäftsmodelle etabliert und sich damit als Treiber des Business etabliert.

Disruptive IT: Cloud, Big Data und Co. stellen alles auf den Kopf

Cloud Computing, Big Data, Mobility und Collaboration sind die vier disruptiven Technologien, die zur Zeit für ein großes Beben sorgen und CIOs vor große Herausforderungen stellen. Die Erwartungen und Anforderungen der Geschäftsführung und der Fachabteilungen wachsen stetig, Mitarbeiter machen sich selbständig und besorgen sich IT-Leistungen an der IT-Abteilung vorbei (Schatten-IT), da diese nicht in der ausreichend Zeit oder Qualität liefern kann. Man sollte nicht behaupten der Job eines CIOs war einfach, aber derzeit handelt es sich um den Weg durch die Hölle, auf den jeder gerne verzichtet.

Aber das ist die Situation. Und wer weiterhin am Status quo festhält, der wird früher oder später auf der Strecke bleiben. Denn die Business Seite kann es sich nicht leisten auf der Stelle zu treten. Und sie wird ihre Mittel und Wege finden das zu bekommen was sie benötigt. Wenn sie sich nicht bereits schon auf dem Weg befindet.

Panel: The Future Role of CIOs: Managing Costs or Enabling Business?

Im Rahmen des T-Systems Symposium wurde mit Stefanie Kemp (IT Governance, RWE), Prof. Dr. Michael Müller-Wünsch (CIO, Lekkerland Gruppe), Dr. Hans-Joachim Popp (CIO, Deutsches Luft- und Raumfahrtzentrum), Philipp Erler (CIO, Zalando) und Thomas Spreitzer (Chief Marketing Officer, T-Systems) die Zukunft des CIO diskutiert. Ist er ein Kostenverwalter oder doch der Innovationstreiber?

Zwar war es grundsätzlich eine spannende Panel Diskussion. Allerdings war sie, wie erwartend, sehr einseitig, da nur CIOs im Panel vertreten waren und der Counterpart des CEO an allen Ecken und Enden gefehlt hat. Das war wahrscheinlich auch der Grund, warum keine bis wenig Selbstkritik von den CIOs geäußert wurde.

Dennoch war zu merken, dass die CIOs sich dessen bewusst sind, was auf sie zu kommt. Hans-Joachim Popp vom DLR machte deutlich, dass bestehende Geschäftsmodelle von neuen Technologien beeinflusst werden und es für den CIO dadurch in Zukunft immer anstrengender wird. Gleichzeitig kritisierte er, dass nicht jeder, der ein neues Geschäftsmodell aufbauen kann, auch in der Lage ist, die kritischen Prozesse dahinter zu verstehen. Dem schloss sich Zalando CIO Philipp Erler deutlich an und machte klar, dass die Bedienung einer Excel Tabelle nicht unbedingt die Skills abdeckt, um einen Prozess zu steuern. Das ist ein Fakt, den ich nur bestätigen kann. Nur weil ein Mitarbeiter ein iPhone oder eine SaaS-Applikation bedienen kann, ist er nicht in der Lage über wichtige IT-Services für das Unternehmen zu entscheiden. Weiterhin erläuterte Erler das Konzept der Priorisierungsrunde bei Zalando. So sollte sich eine Fachabteilung doch bitte die Frage stellen, ob es sich tatsächlich lohnt, einen eigenen Weg an der IT vorbei zu gehen, wenn die Anfrage nicht verabschiedet wurde. Das ist ein mögliches Mittel gegen die Schatten-IT. Die Frage bleibt allerdings, ob dies den Mitarbeitern in den Fachabteilungen interessiert. Schließlich wurde laut Gartner im Jahr 2012 ca. 25 Prozent des IT-Budget außerhalb der IT-Abteilungen verwaltet.

Lekkerland CIO Michael Müller-Wünsch sieht es als einen entscheidenden Faktor, dass CIOs auch den zeitlichen Spielraum bekommen, um als Business Enabler zu agieren. Die eigene Existenzberechtigung zu zeigen und nachzuweisen sei wichtig, aber auch schwer. Allerdings arbeite die Business Seite und die IT bei Lekkerland aktiv zusammen. T-Systems CMO Thomas Spreitzer gab zu, dass das Marketing gerne über die Herausforderungen des CIO hinwegschaut. Hauptsache es geht schnell. Allerdings bemängelte er auch das Erbsenzählen. IT-Abteilungen sollten sich mehr auf das Rapid Prototyping konzentrieren anstatt auf das Lastenheft.

RWE IT-Governance Verantwortliche Stefanie Kemp stellte die Frage, ob die IT tatsächlich jedem Trend hinterherlaufen muss oder sich nicht lieber auf einzelne Bereiche konzentrieren sollte, die dem Unternehmen tatsächlich helfen. Hierzu sieht sie den Bedarf einer Commodity IT sowie einer Differentiating IT innerhalb der Unternehmen. Also den Anteil der IT, welcher die Dinge am Laufen hält und der Teil, der für Innovationen sorgt. Kemp stellte auch klar heraus, dass Fachabteilungen bei ihr gerne eigene Wege gehen können. Sie sollten aber am Ende auch für den Scherbenhaufen gerade stehen, wenn die Integration in bestehende Systeme usw. nicht funktioniert. Weiterhin sieht Kemp noch viele Hausaufgaben innerhalb des Business, damit die IT überhaupt zum Business Enabler werden kann.

CIO vs. Business: Kommunikation ist der Königsweg

Wenn man sich die Probleme die während des Panels von den CIOs angesprochen wurden zusammenfasst, kann man sich durchaus die Frage stellen, wie Unternehmen heutzutage überhaupt funktionieren. Unterm Strich war zu verstehen, dass beide Seiten scheinbar geschützt in ihren Elfenbeintürmen sitzen und nicht wirklich miteinander reden. Die Realität sieht natürlich anders aus. Aber für beide Seiten wäre das Leben leichter, wenn sie transparent und auf Augenhöhe miteinander Informationen austauschen. Hierzu wird in Zukunft auch das Rollenbild immer wichtiger werden, um die Verantwortlichkeiten klar festzulegen.

Fazit: Die Aufgabe des CIOs wird in Zukunft nicht einfacher werden. Ganz im Gegenteil. Aber wenn er und die Business Seite als Partner arbeiten und aktiv miteinander kommunizieren und sich darauf einigen den selben Weg zu gehen, wird es für beide Seiten einfacher.