Tag: Cloud


Wettbewerb: Schule und Cloud Computing – Weil sich die Zeiten endlich ändern müssen

Wer kennt das Dilemma nicht - Schule und Informationstechnologie? Ich kann gar nicht beschreiben, wie sehr meine Mitschüler und ich damals unter schlecht ausgestatten Laboren und Lehrkräften, die sich als wahre IT-Muffel ausgezeichnet haben, leiden durften. Wer nicht ein wenig Eigeninitiative zeigte, ist dabei kläglich auf der Strecke geblieben. Aber es war damals ja auch nicht abzusehen, wohin sich unsere Gesellschaft entwickeln wird...

Zurück in die Zukunft

Ich selbst habe (damals) vor dem Studium eine Ausbildung zum Fachinformatiker Systemintegration gemacht. Man hätte meinen können, das man auch mit dementsprechenden Systemen ausgebildet(!) wird. Denn Schlosser usw. haben schließlich auch - meiner Einschätzung nach - sehr gut ausgestattete Werkstätten mit teuren Anlagen zum Fräsen, Bohren und Drehen. Also all das, was sie für ihr Handwerkszeug(!) benötigen!

Was ist denn das Handwerkszeug eines Fachinformatiker? Genau, Computer! Hardware, Software und Programmierkenntnisse. An ersten Beiden hat es an meiner Berufsschule sehr stark gemangelt, $$$. Letzteres war je nach Lehrkraft zu bewerten. Mein Schlüsselerlebnis war jedoch, als es im zweiten Lehrjahr dann endlich neue PCs gab. Die wurden als quasi Bausatz angeliefert. Bedeutete, den Schülern wurde ein "Projekt" verkauft, um das zusammenbauen eines Rechnersystems zu "lernen". Fakt war, dass die Lehrkraft die Fragen an die Schüler weitergereicht hat, die ihre Ausbildungen in einem IT-Betrieb gemacht haben, dessen Kerngeschäft es war, PCs zu bauen. Wohlgemerkt geht es hier nicht um das ob sondern um das wie.

Fassen wir zusammen. IT in der Schule hat mit $$$ und den entsprechenden Kenntnissen der Lehrkräfte zu tun. Und nach ein paar Gesprächen scheint es an beiden weiterhin zu mangeln.

Cloud Computing bringt Schulen den notwendigen IT-Segen

Anhand von Cloud-Lösungen erhalten Schulen den flexiblen Zugriff auf die benötigten IT-Ressourcen. Seien es Software-as-a-Service Applikationen für bestimmte Anwendungsfälle in einem Unterrichtsfach oder für die gemeinsame aber verteilte Zusammenarbeit (auch nach der Schule) an einer Facharbeit oder sonstigen Projekten. Mittels Platform-as-a-Service aber auch Infrastructure-as-a-Service lassen sich Programmieraufgaben oder auch kleine IT-Gruppenprojekte zeitnah und kostengünstig umsetzen. Kombiniert mit Thin-Clients können auch die Hardwarekosten gering gehalten und die entsprechende physikalische Sicherheit der Systeme sichergestellt werden.

Wettbewerb: Schule und Cloud

Eine Initiative unter der Federführung der fat IT solutions GmbH zusammen mit Prof. Dr. Gunter Dueck von BlueForge, den Amazon Web Services und der Igel Technology GmbH will das nun ändern. Der Schulwettbewerb "Schule und Cloud" hat das Ziel, Berufsschulen den Nutzen von IT-Lösungen während des Unterrichts näher zu bringen. Die Idee besteht darin, den "... am besten gestalteten Cloudcomputer Deutschlands.. " zu finden. Dazu sollen Lehrer in Gruppenprojekten oder AGs pädagogisch wertvolle Software auf kostenlos zur Verfügung gestellten Computern in der Cloud installieren. Dabei kann es sich z.B. um Bildbetrachter, Textverarbeitung oder Lernprogramme handeln. Anschließend soll das System so konfiguriert werden, wie es später weiter benutzt werden soll.

Der Wettbewerb richtet sich an Berufsschulen und hier nicht nur an Klassen der IT-Ausbildungsberufe. Die besten drei Projekte werden im Anschluss von einer Jury prämiert. Mehr Informationen zur Teilnahme gibt es unter http://schule-und-cloud.de/requirements.html.



Netflix veröffentlicht weitere "Monkeys" als Open-Source – Eucalyptus Cloud wird es freuen

Wie GigaOM berichtet, wird Netflix in naher Zukunft weitere Services ähnlich zu seinem Chaos Monkey und der Simian-Army unter der Open-Source Lizenz auf Github veröffentlichen.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht und Instanzen (virtuelle Maschinen) pro Gruppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter "Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur".

Weitere Services aus Netflix Monkey Portfolio

  • Denominator: Ein Tool für die Verwaltung mehrerer DNS-Provider.
  • Odin: Eine Orchestration API, die von Jenkins und Asgard, dem Netflix Deployment Tool, aufgerufen werden kann. Sie soll Entwicklern helfen bequemer zu deployen.
  • Recipes: Dabei handelt es sich um Blaupausen (blueprints), mit denen sich mehrere Netflix Komponenten zusammen einfacher ausrollen lassen.
  • Launcher: Soll per Knopfdruck die fertigen Blaupausen ausrollen.
  • Mehr Monkeys: Zu den weiteren Netflix Monkeys die noch in diesem Jahr folgen sollen, gehören der Conformity Monkey, der Latency Monkey und der Latency Howler Monkey. Der Conformity Monkey stellt sicher, dass alle relevanten Instanzen äquivalent aufgesetzt sind. Der Latency Monkey simuliert Latenzen und weitere Fehler. Der Latency Howler Monkey überwacht, ob ein Workload auf mögliche AWS Limitierungen trifft und meldet dies.

Der Chaos Gorilla, der wahllos den Absturz einer vollständigen AWS Availability Zone simuliert sowie der Chaos Kong, der eine ganze AWS Region simuliert abschießt, sollen ebenfalls bald folgen.

Kommentar

Zwar möchte Netflix seine "Monkeys" Cloud übergreifend anbieten, so dass z.B. auch OpenStack Nutzer darauf zurückgreifen können. Allerdings spielt Netflix mit der stetigen Veröffentlichung seiner HA-Testsuite Eucalyptus damit immer mehr in die Arme.

Eucalyptus Cloud ermöglicht den Aufbau einer Private Cloud auf Basis der grundlegenden Funktionen der Amazon Cloud Infrastruktur. Was Amazon bei sich z.B. als AWS Availiablty Zone bezeichnet, repräsentiert bei Eucalyptus ein "Cluster". Die Netflix Tools ermöglichen somit auch ähnliche HA-Funktionalität Prüfung in der Private/ Hybrid Cloud, wie Netflix sie selbst bereits in der Amazon Public Cloud nutzt. Darüber hinaus wird Eucalyptus die Netflix Tools mittelfristig ganz sicher in die eigene Cloud Lösung integrieren, um eine eigene HA-Prüfung im Portfolio zu haben.

Die Veröffentlichung der Netflix Tools unter der Open-Source Lizenz wird nicht zuletzt die Kooperation der Amazon Web Services und Eucalyptus weiter stärken, sondern Eucalyptus für Amazon als Übernahmeobjekt immer attraktiver machen.



Die Datenleitungen: Das Rückgrat der Cloud

Im Cloud Umfeld wird immer viel über die Anbieter, ihre Verfügbarkeit, Ausfallsicherheit und Service Level Agreements (SLA) gesprochen. Was sehr oft gar nicht angesprochen wird ist die Hauptabhängigkeit Nummer eins: Die Backbones der Internet Carrier. Die "Submarine Cable Map 2013" illustriert sehr schön, wo welche Kabel weltweit verlaufen, die für den Datentransfer zwischen den einzelnen Kontinenten verantwortlich sind.

Die Datenleitungen: Das Rückgrat des Cloud Computing

Submarine Cable Map 2013 - Das weltweite Backbone unter dem Meer

Die "Submarine Cable Map 2013" zeigt das weltweite Backbone der Unterwasserkabel im Meer. Sie zeigt, wo der meiste Datentransfer stattfindet und welche Länder über die beste Vernetzung verfügen.

Insgesamt illustriert die Karte 244 Leitungen. Darunter diejenigen die zwischen dem Zeitraum von 1992 bis 2012 verlegt wurden oder die, welche bis 2014 in Betrieb genommen werden. Bereits bestehende Leitungen sind farbig markiert, geplante sind Grau. Weitere zwölf Leitungen sollen in den kommenden zwei Jahren neu verlegt werden.

Am unteren Rand der Karte lässt sich zudem ablesen, wie schnell die jeweiligen Verbindungen zwischen den verschiedenen Ländern und Kontinenten sind und wie stark die Auslastung ist. Zu erkennen ist z.B., dass die USA nach Kolumbien und Venezuela über schnelle Datenverbindungen verfügen, nach Frankreich und Großbritannien ist es jedoch langsamer. Die schwächste Datenleitung haben die USA demnach nach Südafrika und Indien.



Hat der Channel in Zeiten des Cloud Computing noch eine Bedeutung?

Auf dem Cloud EcoSystem Winter Meeting wurde in einem Panel diskutiert, welche Bedeutung der Channel in der Cloud überhaupt noch hat. Da die Mehrzahl der Protagonisten jedoch ein Teil dieses Channels waren, gab es natürlich wenig Kritik. Allerdings war auch wenig von Veränderungen zu hören, da man ja auf Grund des ASP Modells schon selbst seit 1998 quasi in der Cloud sei.

ASP ist kein Cloud Computing

Auf die Diskussion ASP (Application Service Providing) vs. SaaS (Cloud) gehe ich hier nicht ein. Das ASP mit SaaS (Software-as-a-Service) respektive Cloud Computing nichts zu tun hat, wird nicht nur von mir, sondern vielen weiteren Publikationen propagiert. (Ich war übrigens sehr froh, dass Stefan Ried während seines Vortrags mit den "Cloud Mythen" noch einmal aufgeräumt hat und allen Beteiligten die echten Eigenschaften und Vorteile der Cloud präsentiert hat, danke Stefan!)

Der Channel muss sich verändern

Kommen wir zum Channel. Es wäre falsch zu sagen, dass er stirbt. Zum einen gibt es auch weiterhin "Dinge" für den Vertrieb und die Lobby dahinter wird auch alles menschenmögliche tun, um ihr Geschäftsmodell zu verteidigen. Aber es wäre vermessen, die Augen zu verschließen und so weiter zu machen wie bisher. Natürlich, "Hardware wird immer benötigt!", aber auch in dieser Stückzahl? Und können zig Anbieter nur vom Vertrieb von Hardware leben?

Meiner Ansicht nach ist der Software-Vertrieb, ein sehr großer Teil vom gesamten Markt, tod. Überlegen wir uns, welche Art von Software in Zukunft noch auf Datenträger verschickt wird, fallen mir spontan nur die Betriebssysteme ein. Obwohl sich diese mittlerweile auch über die Webseiten der Hersteller herunterladen lassen, wie andere Softwarelösungen übrigens auch, die noch nicht als SaaS zur Verfügung stehen. Zum Beispiel liefert Microsoft für Office365 Home Premium trotz Verpackung nur noch einen Code aus, mit dem die Software von einer Microsoft Webseite heruntergeladen oder gestreamed wird.

Vom Reseller zum Integrator

Der typische Channel für Software-Reseller ist meiner Ansicht nach daher nicht mehr zu retten. Unternehmen aus diesem Bereich sollten sich möglichst schnell Gedanken über alternative Wege machen. Mögliche Ansätze bestehen in Partnerprogrammen mit den Softwareherstellern, um z.B. bei beratungsintensiven Lösungen (eigentlich sollten SaaS Anwendungen intuitiv zu konfigurieren und bedienen sein) dem Kunden zur Seite zu stehen und bei der Migration und Integration zu helfen. Ergo: Software-Reseller müssen sich mehr Expertise als das reine wiederverkaufen aneignen und zu Sytemintegratoren werden.

Eine weitere Möglichkeit besteht in dem Aufbau eines eigenen Marktplatz für SaaS-Applikationen. Hier gilt es jedoch sich direkt von den bestehenden Angeboten zu differenzieren und neben einer Vielzahl von Lösungen aus den unterschiedlichen Bereichen, ebenfalls dafür zu sorgen, dass die von dem Kunden genutzten Lösungen miteinander integriert sind und über eine zentrale Datenhaltung verfügen und somit keine Insellösungen entstehen. Gut zu erkennen: auch hier muss der Reseller wieder zum Integrator werden. Weg von dem reinen Zwischenhandel mit Software.

Selbstverständlich existieren Software-Reseller, die ebenfalls Integrationen vornehmen. Das sind die klassischen Systemhäuser. Aber auch diese müssen sich auf Grund der Cloud verändern.



Big Data in der Cloud: AWS Data Pipeline und Amazon Redshift

Amazon rüstet seine Cloud-Infrastruktur für Big Data mächtig auf. Mit der AWS Data Pipeline steht nun ein Dienst (zur Zeit in der Betaphase) zur Verfügung, mit sich Daten über verschiedene Systeme automatisch verschieben und verarbeiten lassen. Amazon Redshift stellt ein Datawarehouse in der Cloud dar, welches zehnmal schneller sein soll als bisher verfügbare Lösungen.

AWS Data Pipeline

Mit der AWS Data Pipeline sollen die stetig wachsenden Daten, welche auf verschiedenen Systemen und in unterschiedlichen Formaten vorhanden sind, einfacher zugänglich gemacht werden. Der Service lädt zum Beispiel Textdateien von Amazon EC2, verarbeitet sie und speichert diese in Amazon S3. Dreh und Angelpunkt ist dabei die AWS Management Console. Hier werden Pipelines definiert, die aus unterschiedlichen Quellen, Bedingungen, Zielen und Anweisungen bestehen. Über Zeitpläne wird festgelegt, wann welcher Job ausgeführt wird. Die AWS Data Pipeline legt fest, von welchem System welche Daten auf Basis von bestimmten Bedingungen geladen werden, unter welchen Bedingungen sie zu verarbeiten sind und wo diese am Ende gespeichert werden.

Die Verarbeitung der Daten kann entweder direkt in der Amazon Cloud auf EC2-Instanzen oder im eigenen Rechenzentrum durchgeführt werden. Dafür steht mit dem Task Runner ein Open-Source Tool bereit, dass mit der AWS Data Pipeline kommuniziert. Der Task Runner muss dafür auf den jeweiligen datenverarbeitenden Systemen gestartet sein.

Amazon Redshift

Amazons Cloud-Datawarehouse Amazon Redshift soll dabei helfen, große Datenmengen innerhalb kürzester Zeit zu analysieren. Darin lassen sich bis zu 1,6 Petabyte Daten speichern und per SQL abfragen. Zwar wird der Service, wie üblich, nach Verbrauch abgerechnet. Kunden, die allerdings einen Dreijahresvertrag unterschreiben und volle Last auf ihre virtuelle Infrastruktur bringen, zahlen ab 1.000 US-Dollar pro Terabyte pro Jahr. Amazon stellt dazu einen Vergleich mit Zahlen von IBM an. IBM berechnet für ein Datawarehouse zwischen 19.000 US-Dollar und 25.000 US-Dollar pro Terabyte pro Jahr,
Erste Beta-Tester von Amazon Redshift sind Netflix, JPL und Flipboard, deren Abfragen 10- bis 150-mal schneller waren als auf dem derzeit genutzten System.

Amazon Redshift kann als Single-Node-Cluster mit einem Server und maximal 2 TByte Speicherplatz oder als Multi-Node-Cluster, der aus mindestens zwei Compute-Nodes und einem Leader-Node besteht, genutzt werden. Der Leader-Node ist dabei für die Verwaltung der Verbindungen, das Parsen der Anfragen, das Erzeugen der Ausführungspläne und der Verwaltung der Anfragen auf den einzelnen Compute-Nodes zuständig. Die Berechnung findet auf den Compute-Nodes statt. Die Compute-Nodes stehen als hs1.xlarge mit 2 TByte Speicherkapazität und hs1.8xlarge mit 16 TByte Speicherkapazität zu Verfügung. Ein Cluster darf dabei maximal aus 32 hs1.xlarge und 100 hs1.8xlarge Compute-Nodes bestehen. Das ergibt eine maximale Speicherkapazität von 64 Terabyte beziehungsweise 1,6 Petabyte. Die Compute-Nodes sind über ein separates 10 Gigabit/s Backbone miteinander verbunden.

Kommentar

Amazon baut ungeachtet vom Mitbewerb sein Cloud Services Portfolio weiter aus. Dadurch kann man manchmal den Eindruck bekommen, dass alle anderen IaaS-Anbieter auf der Stelle treten - angesichts der Innovationskraft der Amazon Web Services. Ich kann es an dieser Stelle nur noch einmal betonen, Mehrwert-Services sind die Zukunft von Infrastructure-as-a-Service bzw. Wer als IaaS-Anbieter zu Amazon konkurrenzfähig sein will muss mehr als nur Infrastruktur im Portfolio haben.

Schauen wir uns die aktuellen Entwicklungen an, steigt der Bedarf an Lösungen für die Verarbeitung großer strukturierter und unstrukturierter Datenmengen stetig an. Barack Obamas Wahlkampf ist dafür nur ein Use Case, der zeigt, wie wichtig der Besitz qualitativ hochwertiger Informationen ist, um sich für die Zukunft Wettbewerbsvorteile zu verschaffen. Und auch wenn viele in den Amazon Web Services "nur" einen reinen Infrastructure-as-a-Services Anbieter sehen (ich tue das nicht), wird Amazon - mehr als jeder andere (IaaS)-Anbieter - im Kampf um Big Data Lösungen weit oben mitspielen - was letztendlich nicht nur an dem Wissen auf Grund des Betriebs von Amazon.com liegt.



Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört

Software-as-a-Service ist der am schnellsten wachsende Bereich im Cloud Computing Markt. Immer mehr Anbieter traditioneller Softwarelösungen vollziehen den Wandel und bieten ihre Anwendungen aus der Cloud an. Erfahren Sie, warum auch Ihre Anwendung in die Cloud gehört und warum Ihre Kunden aber auch Sie als Anbieter davon profitieren.

Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört

Was bedeutet Software-as-a-Service?

Software-as-a-Service (SaaS) ist die oberste Schicht des Cloud Computing Servicemodells. Sie stellt dem Anwender vollständige Anwendungen zur Verfügung. Es kann als eine Art Distributionsmodell verstanden werden, bei dem die Nutzung von Software (Lizenzen) über das Internet von einem Drittanbieter angeboten wird. Der Drittanbieter übernimmt dabei u.a. die Wartung, Aktualisierung und das Hosting der Software. Für den Anbieter besteht der Vorteil darin, dass nur eine Instanz einer Software auf den Servern bereitgestellt werden muss, welche unzählige Anwender gleichzeitig nutzen können. Wird die Software auf einen aktuellen Stand gebracht, genügt ein Update Vorgang an zentraler Stelle und die Software ist für alle Anwender gleichzeitig aktuallisiert. Der Vorteil für den Anwender besteht darin, dass lediglich nur ein Endgerät mit einem Web-Browser und eine Internetverbindung ausreicht um z.B. Dienste wie E-Mail, Office Anwendungen oder ERP-Systeme nutzen zu können. Die Anschaffung und Wartung großer Serverlandschaften bzw. Softwarepakete entfällt ebenso wie das Updaten der lokalen Anwendungen. Der Drittanbieter sorgt immer für einen aktuellen Stand der Software und stellt die gesamte Infrastruktur für das Hosting der Software bereit. Dazu gehören auch das Speichern von Dateien und Dokumenten auf den Servern des Anbieters. Der Anbieter ist demnach für alle notwendigen Bereiche des Betriebs wie Verfügbarkeit, Backup, Redundanzen und auch die Stromversorgung verantwortlich. Die Abrechnung erfolgt mit dem pay per use Modell. Dabei werden die Kosten pro nutzenden Anwender der Software berechnet.

Was bedeutet SaaS für Ihre Kunden?

Kurzum, Software-as-a-Service macht Ihren Kunden das Leben einfacher und hilft diesen dabei, gezielt und nur bei Bedarf investieren zu müssen.

Überschaubare Investitionskosten

Zu einer IT-Infrastruktur zählen u.a. lokale Computersysteme, mit denen die Mitarbeiter ihre Arbeit verrichten. Auf diesen sind zum Teil zahlreiche Anwendungen installiert, die pro Computersystem oder Nutzer fest abgerechnet werden; egal ob der aktuelle Nutzer des Systems die Anwendung benötigt oder nicht. Weiterhin werden für das zentrale Speichern von Daten, Kommunikations- und Kollaborationslösungen wie E-Mail oder Systeme zur Zeiterfassung und Unternehmensplanung Serverhardware und Software im Backend benötigt. Vergessen sollte man auch nicht Server und Software für den Verzeichnisdienst, gegen den sich die Mitarbeiter autorisieren müssen. Alle aufgezählten Bereiche, und das ist nur ein Teil, führen zu hohen Investitionskosten. Dabei sollte zudem beachtet werden, dass dies alles auch gewartet und in regelmäßigen Abständen aktualisiert werden muss.

Software-as-a-Service verringert den größten Teil der oben genannten Nachteile einer lokalen IT-Infrastruktur. Hohe nicht haargenaue Investitionskosten in Lizenzen entfallen ebenso, wie ungenutzte Softwarelizenzen. Unternehmen haben in heutigen Zeiten verstärkt mit einer größer werdenden Mitarbeiterfluktuation zu tun. Hinzu kommt, dass viele auf Teilzeit- oder Aushilfskräfte zurückgreifen, um eine bestimmte Hochkonjunktur auszugleichen, die über dem Mittelwert im Jahr liegt. Dafür müssen entsprechende Lizenzen vorgehalten werden, damit jeder Mitarbeiter produktiv arbeiten kann. Das führt dazu, dass über das Jahr hinweg zu viele Softwarelizenzen im Unternehmen vorhanden und auf den Systemen installiert sind. Durch die nicht vorhersagbare Anzahl benötigter Mitarbeiter findet entweder eine Überinvestition statt oder es herrscht ein Mangel, der in der Regel durch Workarounds gelöst wird.

Mit einer Software-as-a-Service Lösung lassen sich je nach Bedarf weitere Nutzer innerhalb kürzester Zeit hinzufügen und auch wieder entfernen. Das bedeutet, das Unternehmen bezahlt tatsächlich nur für den Mitarbeiter, der auch eine bestimmte Software benötigt.

Ähnlich verhält es sich mit lokalen Computersystemen und den Servern im Backend. Die für E-Mail und ERP-Systeme notwendigen Server befinden sich innerhalb der Infrastruktur des Anbieters, der für deren Wartung, Aktualisierung und Administration zuständig ist. Eine Investition in diese Backendsysteme entfällt somit. Darüber hinaus werden keine performanten lokalen Computersysteme mehr benötigt. Da die Anwendung über einen Browser bereitgestellt und darüber ebenfalls genutzt wird, reichen in der Regel kostengünstige Terminals oder Thin-Clients.

Immer auf dem aktuellen Stand

Software muss ständig neuen Anforderungen genügen. Sei es auf Grund neuer gesetzlicher Vorschriften oder weil sich Fehler und Sicherheitslücken während des Entwicklungsprozesses eingeschlichen haben, die behoben werden müssen. Und natürlich erscheinen in regelmäßigen Abständen neue Softwareversionen, die neue Funktionen usw. mit sich bringen. All das erfolgt in einer klassischen IT-Infrastruktur normalerweise manuell durch einen vom Benutzer oder besser Administrator durchgeführten Installationsprozess oder durch automatisierte Systeme. So oder so ist das IT-Personal damit beschäftigt, zunächst Updates auf Testsystemen einzuspielen, um das Verhalten auf das Gesamtsystem zu überprüfen.

Eine Software-as-a-Service Anwendung ist ständig auf dem aktuellen Stand. Der Anbieter sorgt im Hintergrund dafür, dass Sicherheitslücken, Fehlerkorrekturen, Updates und neue Funktionen eingespielt werden, ohne das der Anwender oder Administrator aktiv daran beteiligt ist und in den meisten Fällen nichts davon bemerkt.

Orts- und plattformunabhängiges Arbeiten

Traditionelle Softwareapplikationen sind an ein lokales Computersystem gebunden, wodurch das orts- und plattformunabhängige Arbeiten erschwert wird. Mit mobilen Endgeräten wie Notebooks sind die Anwendungen zwar stückweit portabel, aber weiterhin an diesem einen Gerät gebunden. Zudem muss die jeweilige native Anwendung auch stets für das lokale Betriebssystem verfügbar sein, was nicht immer der Fall ist.

Software-as-a-Service Anwendungen werden über einen Standard-Webbrowser genutzt. Dadurch sind sie zu 100% orts- und plattformunabhängig. Steht einem Mitarbeiter mal nicht sein gewohntes System zur Verfügung, kann er über den Webbrowser dennoch auf die Anwendung zugreifen. Ein weiterer Vorteil besteht darin, dass der Zugriff auf wichtige Daten stets möglich ist, da diese zentral im Backend der SaaS Anwendung abgelegt werden und sich somit von jedem Mitarbeiter, der dazu berechtigt ist, aufrufen lassen.

Was bedeutet SaaS für Sie selbst?

Software-as-a-Service spart Ihnen Zeit, Geld und Nerven.

Kosten der Software

Ist eine klassische Anwendung fertig entwickelt, geht die eigentliche Arbeit erst los. Wie soll die Software vertrieben werden, wie werden Updates bereitgestellt und wie soll reagiert werden, wenn ein Bug entdeckt wird, dessen Korrektur immens wichtig ist? Das sind nur ein paar Fragen, die sich ein Anbieter stellten muss. Traditionell wird Software als Datenträger in Form einer CD ausgeliefert. Das bedeutet auf der einen Seite Kosten für die Datenträger, Verpackung, Logistik usw. Auf der anderen Seite aber ebenfalls einen statischen Stand der Softwareversion, der nach jeder Neuinstallation mit Updates (per CD) zusätzlich erweitert werden muss. Aber wie verhält es sich, wenn auch das Update wiederum einen Fehler beinhaltet oder nicht kompatible zu bestimmten anderen Applikationen ist? Der logistische Prozess beginnt von vorne. Im Laufe der Zeit ist man dazu übergegangen, Software und Updates als Downloads bereitzustellen. Dadurch konnten zwar Kosten eingespart werden, die Updateproblematik bleibt aber zum größten Teil bestehen. Ähnlich verhält es sich beim Release einer vollständig neuen Softwareversion mit neuen Funktionen und Design.

Software-as-a-Service hebt diese Problematiken vollständig auf. Die Anwendung wird online über einen Webbrowser zugänglich gemacht, wodurch sämtliche externe logistische Prozesse entfallen. Ebenso verhält es sich mit dem Bereitstellen von Updates. Dieses entfällt vollständig, da Sie als Anbieter alle Fäden der Software in der Hand halten und die Änderungen, Fehlerkorrekturen, Verbesserungen und völlig neue Versionen an einer zentralen Stelle pflegen.

Plattformunabhängigkeit

Manche Software steht ausschließlich für die bekannten Betriebssysteme zur Verfügung. Die Entwicklung und der Vertrieb lohnen sich für die vermeintlichen Kleinen nicht. Das schreckt nicht nur den einen oder anderen Nutzer ab, sondern lässt diesen zu Aussagen hinreißen, das der Anbieter nicht offen sei.

Software-as-a-Service sorgt für die Plattformunabhängigkeit der Anwendung und somit zu einer größeren Reichweite und Kundenzufriedenheit. Die Anwendung wird ausschließlich über einen Browser bereitgestellt und funktioniert ohne die Installationen weiterer Softwarekomponenten. Das hat zur Folge, dass Sie nur für die gängigen Standardbrowser entwickeln müssen und die lokalen Betriebssysteme und alle darauf installierten Applikationen keinen Einfluss auf Ihre Software nehmen.

Auch Ihre Anwendung gehört in die Cloud

Vergleichen wir den klassischen Softwaremarkt und wie hier Software entwickelt, bereitgestellt und konsumiert wird, mit dem Cloud Computing, wird eines sehr deutlich. Die Art wie Software an den Nutzer ausgeliefert wird, hat sich verändert. Das Verschicken von Datenträgern oder das Bereitstellen von Updates entfällt. Ebenso das Installieren der Software bzw. der Updates. Software wird aus der Cloud als Service, daher auch Software-as-a-Service (SaaS), bereitgestellt. Der Anbieter hat hier soweit alle Fäden in der Hand und der Nutzer bemerkt, rein äußerlich, z.B. ein Update nicht. Es sei denn, es werden Änderungen an der Oberfläche vorgenommen. Im Updateprozess selbst ist der Nutzer nicht involviert, denn er muss nichts herunterladen oder installieren. Er konsumiert die Software lediglich über einen Webbrowser.


Download

Sie können CloudUser.de auch unterstützen und den Artikel kostenpflichtig als PDF unter "Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört" herunterladen.


Bildquelle: Nicholas Thein / pixelio.de



Mikogo Cloud-Desktop auf Basis von HTML5

Ich hatte den Cloud-Desktops vor kurzem eine rosige Zukunft ausgesprochen. Nun gibt es dazu auch Neuigkeiten aus Deutschland. Mikogo präsentiert mit seinem "Mikogo Cloud Desktop" vollwertige Betriebssysteminstallationen aus der Cloud. Mit EyeOS oder CloudON gibt es zwar seit längerer Zeit bereits ähnliche Lösungen am Markt. Wo EyeOS hingegen eine proprietäre Eigenentwicklung in der Cloud anbietet, stehen bei Mikogo bekannte Betriebssysteme aus dem Hause Microsoft zur Verfügung. Vor der Veröffentlichung stand für mich eine abgespeckte Instanz (Windows Server) des "Mikogo Cloud Desktop" bereit, mit der ich mir einen Überblick verschaffen konnte.

Mikogo Cloud Desktop auf Basis von HTML5

Erster Eindruck

Es ist einfach nur ein Betriebssystem was man nutzt. Nach Außen hin überhaupt kein Hexenwerk. Statt morgens den Power-Knopf zu drücken und sich anschließend anzumelden, wird nun der Browser geöffnet. Man tausche also quasi Power-Knopf gegen Browser. Wer hinter einem Cloud-Desktop "Magic" erwartet, wird enttäuscht sein. Ich kann leider nicht viel zu der Bedienung schreiben, da die Policy-Regeln des Test-Desktops sehr restriktiv eingestellt waren. Einen neuen Ordner auf dem Desktop konnte ich aber anlegen. Die Performance wirkte flüssig, wie es allerdings ausschaut wenn bspw. ein LibreOffice gestartet wird, kann ich nicht sagen.

Aber, die Vorteile stecken im Detail.

HTML5, Active Directory, VPN und Remote Printing

Das System hinter dem Cloud-Desktop setzt auf HTML 5 auf. Das ermöglicht einen Zugriff auf den eigenen Rechner direkt aus dem Browser heraus, ohne dafür vorher eine Software herunterladen zu müssen oder Plugins zu installieren. Das hat weiterhin den Vorteil, dass ein Betriebssystem über den Cloud-Desktop auch mit dem Browser eines Tablets genutzt werden kann. (Das kann ich so erst einmal nicht bestätigen, da die URL auf meinem iPad in einen Time-Out gelaufen ist.)

Mikogo schreibt darüber hinaus, wenn Unternehmen sich für den Cloud-Desktop entscheiden "... können sie ihren externen Dienstleistern alle notwendigen Softwareanwendungen zur Verfügung stellen, ohne dabei auch nur eine einzige Hardware zu benötigen."

Der Cloud-Desktop bietet, laut Mikogo, unterschiedliche Windows-Betriebssysteme inklusive Windows 8. Das bedeutet, ein Windows 8 Cloud Desktop kann z.B. auf einem Windows XP Rechner, einem Mac Notebook, einem iPad oder anderem mobilen Endgerät verwendet werden.

Für den professionellen Unternehmenseinsatz kann der Cloud-Desktop in die firmeneigene Active Directory integriert werden, um damit die Benutzer zu verwalten. Weiterhin besteht die Möglichkeit den Cloud-Desktop per VPN mit dem Firmennetzwerk zu verbinden und auf Ressourcen aus dem eigenen Netzwerk zuzugreifen. Das Drucken auf einen lokalen Drucker (Remote Printing) ist ebenfalls möglich.

Fazit

Der Mikogo Cloud Desktop macht auf dem ersten Blick einen guten Eindruck. Letztendlich arbeitet man aber nur mit einem Betriebssystem im Browser, was auch nicht anders zu erwarten war. Denn das Ziel der Cloud-Desktops muss es sein, die Nutzbarkeit für den Anwender so einfach und bequem wie möglich zu machen. Browser öffnen, anmelden, arbeiten und das ortsunabhängig und mit einer vollwertigen Arbeitsumgebung. Besonders interessant finde ich die Integration in eine bestehende Active Directory, wodurch auch ein erster Schritt hin zur Anbindung von weiteren Backend-Systemen gemacht wird.



Das lokale Betriebssystem stirbt, lang lebe der Cloud-Desktop

Die mit der Post-PC-Ära einhergehenden Veränderungen im Betriebssystemmarkt sind nicht alleine auf mobile Endgeräte zurückzuführen. Schon länger existieren Lösungen, mit denen sich ein Betriebssystem im Browser abbilden lässt oder Systeme, welche die voll ausgestatteten lokalen Systeme überflüssig machen. Angemerkt sein zum Beispiel Mainframes, Terminal-Server und Thin-Clients. Auf dieses Thema bin ich im letzten Jahr mit dem Artikel "Zurück in die Cloud: Terminals und Mainframes bekommen ihr Update 2.0" eingegangen. Auch Remote Desktop Sessions sind längst etablierte Möglichkeiten für den Zugriff aus der Ferne. Werden all diese Technologien in die Gegenwart projiziert, gelangen wir zu einem der nächsten großen Trends im IT-Unternehmensumfeld, den Cloud-Desktops.

Ein Desktop aus der Cloud

Nicht nur aus Sicht der ortsunabhängigen und gemeinsamen Arbeit an Projekten ist der Cloud-Desktop ein logischer Entwicklungsschritt und geht weit über Cloud Storage Services mit Mehrwertdiensten für die parallele Arbeit an Dokumenten und weiteren Daten hinaus. Cloud-Desktops bzw. Desktop-as a-Services (DaaS) gehören zu den Top-Themen für die IT eines Unternehmens und werden in Zukunft die "Virtual Desktop Infrastructure" ablösen. Man kann auch sagen, dass Cloud-Desktops bzw. DaaS die konsequente Weiterentwicklung der Virtual Desktop Infrastructure sind.

Die stetige Weiterentwicklung des Cloud Computing macht Cloud-Desktops zur optimalen Plattform für Unternehmen. Cloud-Desktops ermöglichen die vollständige Ausgliederung der Desktop-Umgebung zu einem Anbieter. Die Abrechnung erfolgt nach Bedarf. Der Cloud-Desktop Anbieter ist im Anschluss für die Bereitstellung und Wartung der Umgebung zuständig. Dazu gehören u.a. das Einspielen von Updates und Upgrades, das Backup und das Bereitstellen des Speicherplatz. Anhand der Ausgliederung an einen zentralen Anbieter, lässt sich auf den Cloud-Desktop unabhängig von der geographischen Lage, der Struktur des Unternehmens und dem jeweiligen Endgerät zugreifen.

Alles immer und überall dabei

Cloud-Desktops bilden vollständige Arbeitsumgebungen, wie wir sie vom lokalen Desktop kennen, ab. Anders als bei gewöhnlichen Cloud Storage Angeboten, stehen hier zusätzlich alle notwendigen Anwendungen für das ortsunabhängige Arbeiten bereit. Der Desktop wird damit vollständig mobil, was Mitarbeitern im Home Office und im Außendienst zu Gute kommt. Cloud-Desktops sind die ideale Lösung, wenn die darunter befindende Infrastruktur nicht notwendig ist. Die Unternehmens-IT muss sich durch den Einsatz von Cloud-Desktops nicht mehr mit dem Einkauf, der Installation und weiteren Themen auseinandersetzen, die zum Betrieb und der Wartung einer Desktop-Umgebung dazugehören. Weiterhin wird die weltweite Bereitstellung der Systeme und Softwarelösungen an die Mitarbeiter vereinfacht.

Vorteile und Bedenken

Die Vorteile eines Cloud-Desktops bestehen u.a. in der Verringerung der Ausgaben für Hardware und Wartung plus der monatlichen Flexibilität je nach Bedarf. Weiterhin bekommen die Mitarbeiter damit die Möglichkeit, zu jederzeit und von jedem Ort auf ihre Arbeitsumgebung zuzugreifen. Dazu lassen sich diese virtualisierten Desktops aus dem Unternehmensnetzwerk, über das Internet und über viele Plattformen wie Tablets, Smartphones, ThinClients aber auch klassische Endgeräte wie Laptops oder Desktop-PCs nutzen.

Vor der Nutzung einer Cloud-Desktop Umgebung gibt es aber auch Dinge zu beachten. Dazu gehört zum einen der Anbieter und ob dessen Angebot die eigenen Anforderungen erfüllt. Weiterhin sind die Themen Service Levels, Sicherheit sowie Gesetze und Regulierungen von wichtiger Bedeutung. Aber auch, wie es mit der Integration in bestehende Backendsysteme oder bereits eingesetzte Software-as-a-Service Lösungen aussieht. Ein nicht zu unterschätzender Bereich ist darüber hinaus die Verfügbarkeit einer stabilen Datenverbindung. Denn "No cloud, no cookies."



Mobiles Arbeiten extrem – Cloud Computing macht's möglich

Irgendwie kristallisiert es sich langsam heraus, Österreicher lieben das Extreme. Erst Felix Baumgartner mit seinem Sprung aus 39.045 Meter Höhe und nun ein "ganz normaler Informatiker", der es sich zum Ziel gesetzt hat, die Strecke zur SharePoint Konferenz nach Kopenhagen zu Fuß zu meistern. Was ich hier ein wenig vermisse sind allerdings die zwei roten Bullen. Stattdessen scheint aber ein Unternehmen aus Redmond ebenfalls auf den Geschmack des Extrem-Sponsorings gekommen zu sein.

RunningSharePoint

Unter dem Projekt RunningSharePoint will es der Geschäftsführer und selbsternannte "SharePoint Enthusiast" Florian Grasel aus Österreich schaffen, zu Fuß die Strecke aus seiner Heimat zur SharePoint Konferenz nach Kopenhagen zurückzulegen.

Dabei möchte er zwei Welten miteinander vereinen, seinen Job als Geschäftsführer und sein Hobby "... am Wochenende in der freien Natur laufend und kletternd unterwegs..." zu sein. Helfen soll ihm dabei das Cloud Computing, besser gesagt Microsoft Sharepoint. Was soll es auch anderes sein, als "SharePoint Enthusiast".

Ich finde die Idee klasse, denn sie zeigt, wie sich die mobile Arbeitswelt durch das Cloud Computing verändert. Wenn auch in diesem Fall ein wenig extrem.

Viel Erfolg, Florian!

Weiterführende Themen



Der Cloud Computing ROI: Kosten sagen nicht immer viel aus!

Wie der Return on Investment (ROI) des Cloud Computing bestimmt werden kann, habe ich in diesem Artikel bereits beschrieben. Die Praxis zeigt jedoch, dass es meistens gar nicht so leicht umsetzbar ist und andere Werte im Vordergrund stehen sollten.

Der Return on Investment

Der Begriff Return on Investment (deutsch Kapitalverzinsung, Kapitalrendite oder Anlagenrendite) bezeichnet ein Modell zur Messung der Rendite einer unternehmerischen Tätigkeit, gemessen am Gewinn im Verhältnis zum eingesetzten Kapital. Der ROI beschreibt als Oberbegriff für Renditekennzahlen sowohl die Eigenkapitalrendite als auch die Gesamtkapitalrendite.

Quelle: Wikipedia.de

Der Nutzen sollte vor den Kosten stehen

Der erfolgreiche Einsatz von Cloud Computing lässt sich nicht immer in Zahlen ausdrücken. Daher lässt sich der ROI des Cloud Computing am besten aus dem Nutzen bestimmen. Administratoren und CIOs sollten dazu auf die offensichtlich Werte achten, die beim Einsatz entstehen. Sie sollten sich z.B. fragen, was sie von der Nutzung eines bestimmten Service erwarten können. Auf dieser Basis lassen sich weitere, auf den Nutzen bezogene, Fragen entwickeln, die sich nicht auf das Finanzielle konzentrieren. So können bspw. Metriken entwickelt werden, die sich auf den sichtbaren Nutzen eines Cloud Service beziehen, den dieser in der Lage ist zu liefern. Metriken könnten sein:

  • Wie schaut es mit dem Support und weiteren Services aus, die durch den Anbieter bereitgestellt werden?
  • Können Einsparungen erzielt werden?
  • Wie kompliziert ist der Abrechnungsvorgang?
  • Wie ist die Benutzerfreundlichkeit des Service?
  • Ist die dynamische Nutzung durch den neuen Service gewährleistet?
  • Wie flexibel ist der neue Service in Bezug auf Veränderungen und wechselnder Anforderungen?
  • Wie schnell kann der neue Cloud Service adaptiert und bereitgestellt werden?
  • Wie sehen die Wartungs- und Upgradekosten sowie die Ausfallzeiten im Vergleich zum Cloud Service aus?
  • Wie ist der Einfluss auf das Unternehmen, wenn Services in Zukunft aus der Cloud bezogen werden?
  • Wie sehen die Risiken in Bezug auf die Unternehmensprozesse und gespeicherten Daten in der Cloud aus?
  • Konnte die Zufriedenheit meiner Mitarbeiter erhöht werden?
  • Hat sich die Agilität und Flexibilität verbessert?

Agilität, Flexibilität und Zufriedenheit stehen vor den Kosten

Bewusst rate ich bei der Bewertung des Cloud Computing nicht immer nur auf die reinen Kosten zu schauen. Denn was nützt es, wenn ich mit einer on-Premise Lösungen nach fünf Jahren zwar günstiger fahre als mit Cloud Services, in dieser Gleichung aber vernachlässige, dass ich als Unternehmen auch innerhalb dieser fünf Jahre Wartungskosten für Updates, Serverhardware usw. habe. Klar, wenn ich einmal kräftig investiere und meine eingekauften Ressourcen über einen sehr langen Zeitraum nutze, ohne diese zu erneuern, fahre ich definitiv günstiger als mit einem Cloud-Modell, wo ich monatliche bzw. jährliche Beiträge zahle. Was allerdings beachtet werden sollte ist, dass ich damit ständig den aktuellen Trends hinterher hänge und vor allem niemals die neueste Softwareversion einsetze. Investiere ich also Anfangs eine hohe Summe in Softwarelizenzen und lasse meine Mitarbeiter sechs bis sieben Jahre mit veralteten Softwareversionen arbeiten, spare ich natürlich langfristig. Ähnlich verhält es sich mit Hardware. Aber mache ich meine Mitarbeiter damit auch glücklich und vor allem produktiv? Nein!

Cloud Computing optimiert sämtliche technologische Prozesse und führt zu mehr Effizienz. Zudem verkürzt es den Zugriff auf Ressourcen und erhöht damit die Innovationsfähigkeit des Unternehmens. Mitarbeiter können dadurch schneller auf Informationen und Applikationen zugreifen, wodurch sie Informationen kurzerhand analysieren und sofort Entscheidungen treffen können. Mit einem ortsunabhängigen Zugriff auf die Daten lässt sich darüber hinaus die Produktivität jedes einzelnen Mitarbeiters erhöhen.

Entwickler fragen nach der on-Demand Bereitstellung von Ressourcen

Diese Bestätigung habe ich von einem Manager eines deutschen DAX-Konzerns, der mit seinem Team eine Private Cloud aufgebaut hat, um den internen Bereitstellungsprozess von Ressourcen (Server) für die Entwickler zu optimieren und zu standardisieren. Jahrelang waren die Entwickler gezwungenermaßen darauf angewiesen, einen Bereitstellungsprozess für physikalische Server zu nutzen, der ewig dauerte. Das führte dazu, dass manche Projekte entweder mit Verzögerung fertiggestellt wurden oder überhaupt nicht durchgeführt werden konnten. Mit einem Workaround, der vom Standardprozess abwich, wurde ein externer Dienstleister ins Boot geholt, der virtuelle Server innerhalb von 5 Tagen bereitstellte. Allerdings waren die Entwickler hier auf die Software des Anbieters angewiesen, da dieser nicht den Softwarestack des DAX-Konzerns unterstütze. Folge: Ein qualitativ schlechter Entwicklungsprozess, da die Software auf den virtuellen Servern nicht zu der auf der späteren Live-Plattform kompatible war.

Mit dem Aufbau einer Private Cloud wurde diese Gesamtsituation nun gelöst. Server werde jetzt innerhalb von 5 Minuten bereitgestellt. Da ein Unternehmen bei einer Private Cloud allerdings vollständig in die eigenen Infrastrukturressourcen investieren muss, würde der ROI negativ ausfallen, wenn man sich nur an den harten Zahlen orientiert.

Entwickler fragen nach der on-demand Bereitstellung von Ressourcen. So ist es bei dem DAX-Konzern und so ist es auch bei anderen Unternehmen. Einfach mal die Entwickler direkt fragen. Leider fließt der Wert, der aussagt, dass ein Entwickler bzw. Mitarbeiter zufrieden arbeitet, niemals in den ROI ein. Das sollte er aber. Denn die Agilität, Flexibilität und Zufriedenheit sollten einen ebenso großen Stellenwert einnehmen wie die reinen Kosten.



Oracle treibt sein Cloud-Washing tapfer voran

Oracle arbeitet weiter an seiner Cloud-Washing Strategie und treibt sie vehement und ungeachtet jeder Kritik voran. Unter dem Namen "Infrastructure as a Service on Premise mit Capacity on Demand" bietet Oracle seine Hardware Unternehmen nun auch zur Miete für das eigene Rechenzentrum an.

Vorkonfigurierte Applikationsserver

Oracle erweitert sein Private Cloud Infrastruktur Angebot um die Möglichkeit, vorkonfigurierte Applikationsserver für eine monatliche Gebühr anzumieten, die dann im Rechenzentrum des Kunden installiert werden. Die von Oracle genannten "engineered systems" beinhalten Oracle Exadata Database Machine, Oracle Exalogic Elastic Cloud, Oracle Sparc SuperCluster, Oracle Exalytics In-Memory Machine und Oracle Sun ZFS Storage.

Die Idee soll darin bestehen, dass Oracle damit extra Kapazitäten bereitstellt, die über die bereits genutzten Ressourcen einer Oracle Private Cloud hinaus gehen. Genau das bezeichnet Oracle als Infrastructure-as-a-Service (IaaS), was allerdings mit einem IaaS Cloud Angebot nichts zu tun hat, sondern ganz gewöhnliche Oracle Rechenzentrumslösungen sind.

Ein Drei-Jahres-Vertrag ist kein Cloud!

Genauso wenig, wie es sich bei Oracles "Cloud Infrastructure" um ein echtes Cloud Angebot handelt, so schaut es mit dem neuen "Oracle IaaS On-Premise" aus. Der Drei-Jahres-Vertrag beinhaltet nur die Hardware für die Applikationsserver, die Wartung und ein gewisses Maß an Nutzung. Für die Oracle Software Lizenzen fallen weitere Kosten an. Zudem muss für "Peaks" bezahlt werden. Was das genau sein soll und was es kostet, wird nicht gesagt.

Oracle verliert den Anschluss

Leider wird immer deutlicher, wie Oracle dem Markt seine Philosophie vom Cloud Computing verkaufen will. Es wird schlichtweg die Hardware, Software usw., die früher teuer verkauft wurden, nun einfach vermietet und als Cloud bezeichnet!

Oracle scheint alles daran gelegen zu sein, den Anschluss im Cloud Markt nicht zu verlieren. Dafür haben sie jedoch nicht die richtige Strategie. Die echten Public Cloud Anbieter, allen voran Amazon Web Services, Windows Azure, Google und Rackspace werden Oracle immer stärker den Rang ablaufen. Auf der Private Cloud Seite sieht es für Oracle aber nicht besser aus. Hier sichern sich Anbieter wie openQRM-Enterprise, Eucalyptus, OpenStack-Partner und CloudStack immer mehr Marktanteile.



CloudSafe stellt Firmen-Konten für Teams vor

Nach einigen Monaten Entwicklungszeit und einer geschlossenen Beta-Phase hat der Hamburger Cloud-Storage Anbieter CloudSafe jetzt die neuen Team-Konten veröffentlicht. Diese dienen der Nutzung von CloudSafe innerhalb eines Teams, einer Abteilung, einer Firma oder für die Organisation von Projekten.

Die drei Team-Konten Funktionen

CloudSafe reagiert damit auf die Wünsche seiner Kunden, die insbesondere auf einen zentralen Speicherplatz für alle Team-Mitglieder, eine zentrale Administration durch einen oder mehrere Personen und eine gemeinsame Kontaktverwaltung abzielen.

Zentrale Administration

Einzelne Nutzer können ab sofort administrative Rechte erhalten und Team-Mitglieder einladen oder deren Mitgliedschaft beenden. Zudem können administrativen Rechte auch an weitere Team-Mitglieder delegiert werden. Administratoren haben Zugriff auf alle Team-Safes.

Zentraler Speicher

Alle Team-Safes werden auf dem gemeinsamen Team Speicherplatz abgelegt und nicht in den Einzelkonten der Mitglieder. Die Team-Safes bleiben auch dann erhalten, wenn ein Nutzer aus dem Team ausscheidet oder sich deregistriert.

Zentrale Kontaktverwaltung

Alle Team-Mitglieder haben Zugriff auf die Team-Kontakte und die Team-Gruppen. Es ist nun ausreichend, das Firmenadressbuch einmal zentral anzulegen, um z.B. auf Daten von Kunden, Lieferanten, Geschäftspartner, Team- oder Projektmitarbeiter und Vertriebspartner zuzugreifen.

Kommentar

CloudSafe reagiert mit seiner Team-Lösung nicht nur auf die Wünsche seiner Bestandskunden, sondern ebenfalls auf den Markt. Die Entscheidung, den Cloud-Storage für die Nutzung innerhalb eines Teams auszubauen, kommt noch zum richtigen Zeitpunkt. Der Cloud Storage Markt ist in den letzten Jahren stark gewachsen, was sich vor allem durch die Anzahl neuer Anbieter zeigt. Der Markt hat zudem begonnen, sich in Services für das Privatkundensegment und Unternehmenskunden aufzuteilen. Insbesondere der Markt für Unternehmen bietet noch ausreichend Potential, speziell dann, wenn ein Anbieter sich nicht nur auf Speicherplatz und den reinen gemeinsamen Zugriff auf die Daten konzentriert.

Echtzeit-Kollaboration ist das Stichwort
CloudSafe sollte sich daher nicht nur auf Speicherplatz fokussieren, sondern speziell das Angebot für Firmenkunden mit weiteren Mehrwert-Diensten und Partnerschaften ausbauen, damit die abgelegten Daten und Dokumente im CloudSafe-Storage auch in der Cloud betrachtet und bearbeitet werden können. Denn ein gemeinsam genutzter Speicherplatz ergibt nur dann einen Mehrwert, wenn auf den Daten auch gemeinsam und im besten Fall parallel gearbeitet werden kann. Mit ReaddleDocs und GoodReader stehen dazu bereits Lösungen bereit. Jedoch bieten diese nur den Zugriff durch einen einzigen Nutzer und die lokale Betrachtung bzw. Bearbeitung der Daten. Das bedeutet, dass die Daten zunächst heruntergeladen werden müssen.



Mehrwert-Services sind die Zukunft von Infrastructure-as-a-Service

Der Titel dieses Beitrags mag ein wenig irritieren. Schließlich handelt es sich bei Infrastructure-as-a-Service (IaaS) bereits um Services. Aber ich habe meinen Grund dafür. Von Beginn an bezeichnet Gartner die Amazon Web Services, in seinem Magic Quadrant, als den führenden Anbieter im IaaS Markt. Wen ich hier mittlerweile jedoch vermisse ist Windows Azure. Aber warum ist es gerade Amazon, die den Markt anführen und warum gehört Windows Azure meiner Meinung nach ebenfalls in denselben Quadranten wie Amazon.

Frühe Präsenz und ein ausgeprägtes Angebot zahlen sich aus

Ein Grund für Amazons Erfolg liegt unumstritten in der frühen Präsenz am Markt. Als erster IaaS Anbieter (2006) haben sie den Markt geprägt und dem Cloud Computing damit die Richtung vorgegeben, an der sich viele Anbieter orientieren. Microsoft folgte mit Windows Azure zwar relativ spät (2010), hat sein Portfolio aber schnell ausgebaut.

Ein weiterer aber viel prägnanter Grund sind die Services beider Anbieter. Wie bei den anderen IaaS Anbietern am Markt, stehen bei Amazon AWS und Microsoft Windows Azure nicht nur die reine Infrastruktur im Vordergrund, sondern viel mehr Lösungen drum herum. Das Angebot beider Anbieter ist im Vergleich zum restlichen Markt sehr ausgeprägt und bietet deutlich mehr als nur virtuelle Server und Speicherplatz. Und das ist der Knackpunkt.

Die Infrastruktur nutzbar machen

IaaS bedeutet im Kern das Angebot von Rechenleistung, Speicherplatz und Netzwerkkapazitäten als Service im Pay as you go Modell. Das beherzigen die meisten Cloud Anbieter am Markt. Nur nicht Amazon AWS und Windows Azure. Beide bieten viele Mehrwert-Services um ihre Infrastruktur herum an und machen diese damit nutzbar. Kunden sind damit in der Lage die "dumme" Infrastruktur direkt produktiv zu nutzen.

Egal welchen Anbieter man sich aus dem Public Cloud Bereich zur Brust nimmt, in der Regel besteht das Angebot aus Compute (Rechenleistung), Storage (Speicherplatz) und Database (Datenbanken). Der eine oder andere bietet zudem noch ein CDN (Content Delivery Network) und Tools für das Monitoring. Das war es dann aber auch schon. Hingegen zeigt ein Blick auf die Services von Amazon AWS und Windows Azure, wie umfangreich deren Portfolio mittlerweile ist.

Daher, Mehrwert-Services sind der Schlüssel und die Zukunft von Infrastructure-as-a-Service, mit denen sich die Infrastruktur gewinnbringender nutzen lässt.



Ihre Cloud Computing Strategie: Der Use Case ist von zentraler Bedeutung

Was sind die zentralen Elemente einer Cloud-Strategie? Diese Frage ist nicht immer einfach und kann in der Regel nur allgemein beantwortet werden, da es "den" Masterplan für eine Cloud-Strategie nicht gibt. Welcher genauso wenig für eine Unternehmensstrategie oder IT-Strategie existiert.

Der Use Case steht im Mittelpunkt

Eine IT-Strategie hat immer die Aufgabe die Unternehmensstrategie bestmöglich zu unterstützen. Denn heutzutage kann oder vielmehr sollte sich aus der IT-Strategie eine mögliche Unternehmensstrategie ableiten. Eine gute Referenz ist die "IT-Governance-Geschäftsarchitektur" aus "Referenzmodelle für IT-Governance" von Wolfgang Johannsen und Matthias Goeken. Das Modell ist zwar sehr theoretisch, zeigt aber wie alle Teile eines Unternehmens zusammenhängen sollten.

Ihre Cloud Computing Strategie: Der Use Case ist von zentraler Bedeutung

Graphik aus "Referenzmodelle für IT-Governance" von Wolfgang Johannsen, Matthias Goeken

Ebenso verhält es sich mit einer Cloud-Strategie. Die Frage ist, wie können Cloud-Services die Unternehmensstrategie unterstützen. Das muss sich zwangsläufig nicht in harten Zahlen wie "x Prozent mehr Umsatz erzielt" widerspiegeln. Wenn ein Unternehmen es bspw. auf Basis von Software-as-a-Service (SaaS) schafft, dass seine Mitarbeiter flexibler arbeiten können (von zu Hause oder einem Café), dann hat es etwas für die Produktivität seiner Mitarbeiter getan was sich mittelfristig, vielleicht sogar kurzfristig auch in Zahlen zeigt. Ein weiterer möglicher Ansatz ist es, die Cloud für die eigene Innovation des Unternehmens zu nutzen, da man schneller an Ressourcen gelangt um kurzfristig zu schauen ob die Idee funktionieren könnte. Stichwort Forschung und Entwicklung.

Cloud-Strategie: Top-down oder Bottom-up

Hierzu kann man den in der Informatik oft verwendeten Top-down bzw. Bottom-up Ansatz nutzen, um ein Verständnis für den Einfluss des Cloud Computing auf die Strategie eines Unternehmens zu erhalten.

Top-down Cloud-Strategie

Beim Top-down Ansatz werden die Möglichkeiten des Cloud Computing für ein Unternehmen analysiert und daraus ein konkreter Use Case definiert. Also eine Innovation bzw. eine Idee kreiert, die das Cloud Computing erst ermöglicht. Anschließend wird auf dieser Basis die Cloud-Strategie erstellt.

Bottom-up Cloud-Strategie

Beim Bottom-up Ansatz wird ein bereits existierender Use Case mit den Möglichkeiten des Cloud Computing umgesetzt. Das bedeutet, es wird analysiert, wie die Cloud dabei helfen kann, die Anforderungen des Use Cases bestmöglich zu unterstützen. Daraus leitet sich dann die jeweilige Cloud-Strategie ab.

Ihre Cloud Computing Strategie: Der Use Case ist von zentraler Bedeutung

Cloud-Strategie: Top-down oder Bottom-up (René Büst, renebuest research, 2013

Es gilt also grundsätzlich zu überlegen, was man als Unternehmen erreichen möchte und wie die Cloud dabei helfen kann, dieses Ziel zu erreichen. Auf der anderen Seite heißt es aber auch zu verstehen, welche Möglichkeiten die Cloud bietet, um daraus eine Strategie abzuleiten und somit den Innovationsgrad des Unternehmens zu erhöhen. Erst wenn man verstanden hat wohin man gehen möchte, sollte man sich auch um konkrete Cloud-Lösungen kümmern. Der Weg in die Cloud startet mit dem richtigen Use Case. Es muss bereits ein konkretes Konzept und eine Idee feststehen, denn Technologien sind austauschbar.

Cloud-Strategie: Die wesentlichen Punkte

Neben dem eigentlichen Use Case ist es von entscheidender Bedeutung, den richtigen Verantwortlichen zu finden, der für die Umsetzung der Cloud-Strategie sorgt. Dieser muss neben der Informationstechnologie ebenfalls die Anforderungen von der Unternehmensseite kennen und verstehen. Darüber hinaus sollte er auch über den Tellerrand blicken können, um über den Top-down Ansatz mögliche Potentiale des Cloud Computing für das Unternehmen zu erkennen.

Services und Prozesse

Ausgehend vom Bottom-up Ansatz müssen die bestehenden Prozesse des Unternehmens in Services abgeleitet werden. Auf dieser Basis wird es den IT-Verantwortlichen erleichtert, mögliche Cloud-Lösungen zu evaluieren, welche die Anforderungen erfüllen und das Unternehmensziel bestmöglich unterstützen.

KPIs definieren

Ist der Cloud-Einsatz auch erfolgreich? Wie auch andere Investitionen und Veränderungen muss auch die Cloud-Strategie messbar gemacht werden. Dafür sind Key Performance Indicator (KPI) ein bewährtes Mittel. Eine mögliche Messgröße sind die Kosten. Das sollte aber nicht die Einzige und auf keinen Fall die mit der höchsten Priorität sein. Denn beim Cloud Computing geht es um viel mehr als nur Kosten einzusparen. Es geht unter anderem um die Verbesserung der Agilität eines Unternehmens. Das wäre dann auch ein weiterer KPI, die Agilität. Diese kann zum Beispiel aussagen, um wie viel schneller die Mitarbeiter Services aus der Cloud nutzen können. Ein weiterer KPI könnte Aussagen über die Performance der Skalierbarkeit machen.

Die IT-Abteilung verändern

Cloud Computing erfordert auch neue Kenntnisse und Aufgaben der Mitarbeiter. Neben Cloud-Architekten und weiteren neuen Rollen, werden Cloud-Service-Manager benötigt, die für die jeweiligen Services und deren Verfügbarkeit verantwortlich sind und neue Services evaluieren.

Multi-Cloud Strategie und Failover berücksichtigen

Auch eine Public Cloud ist nicht fehlerfrei. Das sollte in der Cloud-Strategie unbedingt von Beginn an berücksichtigt und dafür Failover-Szenarien entwickelt werden. Dazu gehört u.a. das Erstellen einer Sub-Cloud-Strategie für die Nutzung von mehreren Clouds, die im Fehlerfall genutzt werden können, bis das primäre Angebot wieder betriebsbereit ist.

Finden Sie Ihren Weg

Cloud Computing beginnt immer mit einem Use Case, auf dessen Basis sich dann eine Cloud-Strategie ergibt. In der Regel verfügt ein Unternehmen bereits über eine Unternehmens- und eine IT-Strategie, welche bestimmte Use Cases abbildet (Button-up). Dann sollte die Cloud-Strategie die Ziele beider vereinen, unterstützen und im besten Fall erweitern.

Von der grünen Wiese kommend (Top-down) lässt sich der Innovationsgrad eines Unternehmens zudem erhöhen, indem die Fähigkeiten des Cloud Computing analysiert und daraus neue Möglichkeiten für das Unternehmen aufgezeigt werden, aus denen es einen Wettbewerbsvorteil oder neue Mittel und Wege entdeckt, die dabei helfen um u.a. produktiver zu sein.


Download

Sie können CloudUser.de auch unterstützen und den Artikel kostenpflichtig als PDF unter "Ihre Cloud Computing Strategie: Der Use Case ist von zentraler Bedeutung" herunterladen.



Amazon kauft Eucalyptus Cloud – Es ist nur eine Frage der Zeit

In der Public Cloud sind die Amazon Web Services (AWS) derzeit die unangefochtene Nummer Eins. Bei Private bzw. Hybrid Cloud Lösungen sind Anbieter wie Microsoft oder HP allerdings besser aufgestellt. AWS selbst hat hier zur Zeit kein eigenes Angebot zu bieten. Stattdessen wurde im März 2012 eine exklusive Kooperation mit Eucalyptus Systems eingegangen, die ein Abbild der grundlegenden AWS Funktionen bieten. Diese strategische Entscheidung ist nachvollziehbar und wird Folgen für die Zukunft haben.

Die Kooperation zwischen AWS und Eucalyptus

Im März 2012 haben AWS und Eucalyptus Systems, Anbieter einer Private Cloud Infrastruktur-Software, mit der sich die grundlegenden Funktionen der Amazon Cloud auch im eigenen Rechenzentrum aufbauen lassen, sich zu einer engeren zusammenarbeiten entschlossen. Diese Kooperation ging verstärkt von Eucalyptus CEO Marten Mickos aus und hat den Hintergrund, die Migration von Daten zwischen der Amazon Cloud und Eucalyptus Private Clouds besser zu unterstützen.

Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst konzentrieren sich Entwickler aus beiden Unternehmen darauf, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Der Mitbewerb holt auf

Auch wenn es in der Public Cloud derzeit sehr rosig aussieht, die Zukunft liegt in der Hybrid Cloud. Hinzu kommt, dass viele Unternehmen eher mit einer eigenen Private Cloud liebäugeln, als in die Public Cloud zu wechseln. Das bedeutet, dass die Private bzw. die Hybrid zunehmend an Bedeutung gewinnen. Hier haben die Amazon Web Services, bis auf die Virtual Private Cloud, jedoch selbst nichts zu bieten. Microsoft und HP verfügen bereits über ein sehr ausgeglichenes Portfolio, das sowohl Lösungen und Angebote für die Public als auch für die Private Cloud bietet. Weiterhin verfügen beide über eine große Kundenbasis.

Außerdem ist ein weiterer Punkt klar. Wo sich Microsoft und HP auf Unternehmen konzentrieren, sind die Amazon Web Services derzeit noch verstärkt das Mekka für Startups. Der Erfolg spricht für sich. Dennoch, schaut man sich Amazons Bemühungen in den letzten Monaten an, ist die Zielrichtung klar. AWS muss und will in die Unternehmen. Das ist jedoch nur mit einer echten Private/ Hybrid Cloud Strategie möglich. Amazon wird daher irgendwann an einem Punkt ankommen, wo es aktiv darum geht, auch diese Märkte aggressiv zu erobern.

Amazon ist ein Serviceanbieter

Bisher hat AWS im Cloud-Umfeld keine Akquisitionen getätigt, da sie es einfach nicht mussten. Als Innovation-Leader setzen sie die Maßstäbe in der Public Cloud. In der Private/ Hybrid Cloud sieht es jedoch anders aus. Hier besteht, meiner Einschätzung nach, so gut wie keine Expertise. Auch wenn Amazon eigene Rechenzentren betreibt, ist der Betrieb einer quasi Standardlösung für Unternehmen anders. Hier haben Microsoft oder HP jahrelange Erfahrungen und somit einen klaren Vorteil. Die Amazon Web Services sind ein typischer Service-Anbieter. Das bedeutet, sie liefern ihre Services aus der Cloud aus, die einfach nur konsumiert werden sollen. Cloud-Software für den Massenmarkt wird nicht entwickelt. Für das Bereitstellen, Ausliefern, Warten und Ausrollen von Updates und neuer Versionen sowie die Kunden zu besänftigen fehlt die Erfahrung. Daher ist die Kooperation mit Eucalyptus der erste richtige Schritt gewesen. Was nicht zum Kerngeschäft gehört wird ausgelagert. So wie Amazon Cloud Computing vermarktet, scheinen sie es auch selbst zu leben.

Dennoch wird Amazon mehr Einfluss auf auf die Private und Hybrid Cloud nehmen und ebenfalls ein Stück von diesem Kuchen genießen wollen. Daher wird der nächste logische Schritt darin bestehen, Eucalyptus Systems zu kaufen. Zum Einen geht es um mehr Einfluss auf Eucalyptus. Denn auch auch wenn Marten Mickos die Kooperation mit AWS vorangetrieben hat, wird er sich nicht allem beugen, was Amazon verlangt. Auf der anderen Seite muss die Hybrid Cloud Integration gestärkt werden. Hinzu kommt, dass für die Private Cloud Beratung qualifiziertes Personal benötigt wird, das Eucalyptus inkl. seiner Partnerunternehmen ebenfalls mitbringt.

Es ist nur eine Frage der Zeit

Wann Eucalyptus Systems von Amazon übernommen wird ist eine Frage der Zeit. Vielleicht schon in 2013 oder doch erst in 2014/ 2015. Auf jedenfall wird es dazu kommen. Wie Eucalyptus dann integriert wird ist schwer zu sagen. Ich gehe davon aus, dass Eucalyptus zunächst eigenständig agieren wird und als "Ein Amazon Unternehmen" unter die Dachmarke von Amazon gesetzt wird. Ganz nach dem Motto, konzentriere dich auf dein Kerngeschäft, wird AWS sich weiterhin auf die Public Cloud konzentrieren und in Ruhe schauen, wie sich die Hybrid und Private Cloud, unter dem eigenen Einfluss, entwickeln wird. Auf jedenfall hätten sie mit Eucalyptus dann schon einmal die richtige Lösung für ihre Zwecke im eigenen Portfolio.



Wann erscheint das Microsoft Cloudbook?

Mit Windows 8 hat Microsoft bereits vieles ins Zentrum der Cloud gestellt. Wie man es von anderen Systemen kennt, kann für Windows 8 nun auch ein zentraler Microsoft-Account genutzt werden, um darüber Einstellungen, Apps aus dem Marketplace und Daten geräteübergreifend zu synchronisieren. Produktiv- und Mediendaten lassen sich über SkyDrive in das System einbinden. Office 365 und Office 2013 stehen zudem als lokale und reine Cloud-Lösungen bereit.

Die strategische Neuausrichtung zahlt sich aus

Hier zeigt sich auch die strategische Ausrichtung der letzten Monate, indem angefangen wurde u.a. SkyDrive mit sehr attraktiven Preisen zu vermarkten und ebenfalls die SkyDrive APIs für Entwickler zu öffnen. Ein weiterer bedeutender Schritt war zudem die Fokussierung der Office Suites auf die Cloud.

Windows Azure dient als neuer zentraler Anker

Ein weiterer wichtiger Schritt war die Erweiterung seiner Cloud Computing Plattform Windows Azure um die Windows Azure Mobile Services. Entwickler von Windows 8 Applikationen erhalten damit die Möglichkeit, Windows Azure als Cloud Backend für ihre Apps zu nutzen, um dort bspw. Daten zu speichern oder Nachrichten zu versenden oder Benutzer zu autorisieren. Zunächst wird nur Windows 8 unterstützt, Windows Phone, iOS und Android sollen folgen.

Mit seinen Windows Azure Mobile Services ist Microsoft nicht alleine im Markt der Backend-as-a-Services (BaaS). Hier tummeln sich bereits Anbieter wie Urban Airship, Parse oder Kinvey. Die Idee eines BaaS besteht darin, Entwicklern dabei zu helfen, sich hauptsächlich auf das Frontend ihrer Applikation zu konzentrieren. Alle Themen die sich um das Backend drehen, übernimmt bzw. vereinfacht der Service.

Windows Azure Mobile Services

Nach einer Grundkonfiguration lassen sich die Daten in der Azure Cloud speichern und mit der SQL Datenbank innerhalb von Azure verknüpfen. Im Anschluss können die Apps auf die Daten zugreifen, ohne dass der Entwickler dafür extra Code schreiben muss. Im Hintergrund setzen die Windows Azure Mobile Services auf eine REST API und ein JSON-basiertes ODATA Format. Darüber hinaus hilft der Service beim Erstellen von Tabellen, dem Durchsuchen von Daten sowie dem Konfigurieren der Indizes und der Zugriffskontrolle. Weiterhin lassen sich Benutzer authentifizieren und Nachrichten an die Clients verschicken.

Im Vergleich zu anderen BaaS Anbietern ermöglichen die Windows Azure Mobile Services über ein Dashboard zusätzlich Analytics Funktionen, mit denen Entwickler die Nutzung der App und weitere Metriken überwachen können.

SharePoint ist ein weiterer Baustein für Unternehmenskunden

Erst kürzlich hat Microsoft die Integration von SharePoint und Yammer vorgestellt. Bereits heute können Anwender die beiden Systeme mit Web Parts und dem neuen Yammer Open Graph zu einer durchgängigen Lösung verbinden. Darüber hinaus werden künftig einheitliche Anwenderprofile, Dokumenten-Management-Funktionen und Feed Aggregation für eine engere Verzahnung beider Lösungen sorgen.

Mit "Microsoft Yammer Enterprise" werden künftig die verschiedenen bezahlten Services in einem Angebot zusammengefasst. Der Anwender bezahlt dann drei US-Dollar monatlich, statt wie bisher 15 US-Dollar. Auch eine engere Verknüpfung mit Microsoft SharePoint Online und Office 365 Enterprise ist geplant.

Ausbau der SharePoint Funktionalität

Zu den wichtigsten SharePoint-Erweiterungen gehört dabei beispielsweise die neue „Drag and Drop-Funktionalität“, sodass Dokumente schneller via SharePoint bereitgestellt werden können. Neu ist auch, dass sich Aufgaben über Outlook, Project und SharePoint hinweg konsolidieren lassen.

Auch an der Basis von SharePoint hat Microsoft Änderungen vorgenommen, mit dem Resultat verbesserter Skalierbarkeit und Performance auf Grund einer neuen Cloud-Architektur. Das Web Content Management wurde ausgebaut und vereinfacht nun Cross-Site-Publishing.

Darüber hinaus ermöglicht der Ausbau des Risk Managements den IT-Abteilungen in den Unternehmen eine bessere Kontrolle über die Verteilung von Dokumenten über SharePoint, Exchange und Lync hinweg.

Neues Cloud App Model

Ergänzend verfügt SharePoint 2013 künftig über ein neues Cloud App Model. Microsoft adressiert damit gezielt die über 700.000 Entwickler, die basierend auf SharePoint ihre Applikationen und Anwendungen realisieren. Das neue Cloud App Model und der neue Office Store sollen ihnen die Entwicklung, den Kauf, Roll-out und die Verwaltung ihrer Applikationen weiter vereinfachen.

Mobile Apps sorgen für Zugriff auf Dokumente und Daten

Um Anwender die Möglichkeit zu bieten, von überall und unabhängig vom Endgerät auf Dokumente und Daten zugreifen zu können, stehen ihnen künftig SharePoint Mobile Apps zur Verfügung. Über verschiedene Endgeräte, Windows 8, Windows Phone, iOS und Android Devices, können sie dann sowohl auf SharePoint 2013 als auch auf SharePoint Online zugreifen.

Wann kommt das Microsoft Cloudbook?

Betrachtet man die aktuellen Entwicklungen, bleibt eine interessante Frage. Geht Microsoft in Zukunft vielleicht sogar den Google Weg. Gibt es möglicherweise bald ein Chromebook Pendant aus dem Hause Microsoft? Der Browser wird immer mehr zum Hauptarbeitsbereich Nummer eins. Hinzu kommt, dass immer mehr Anwendungen per SaaS in die Cloud wandern. Nicht vergessen sollte man dabei, dass Microsoft mit seiner Windows Azure Infrastruktur bereits über eine ausgereifte und leistungsfähige Cloud Umgebung verfügt, auf der ebenfalls Office 365 betrieben wird und über die ein "Microsoft Cloudbook" ohne weiteres mit Applikationen usw. versorgt werden kann. Mit Windows Azure, Office 365 (Office 2013), SharePoint, Yammer, Outlook.com, SkyDrive, Skype, dem Windows Store usw. hat Microsoft in den letzten Monaten und Jahren zumindest die notwendigen Rahmenbedingungen dafür geschaffen.



Microsoft Lösungen für die Private Cloud

Angesichts aktueller politischer Entwicklungen in Deutschland, die es deutschen Behörden ermöglichen sollen, Daten in der Cloud abzugreifen, wird sich der Trend in Unternehmen verstärken, eine eigene Private Cloud aufzubauen. Ein Grund, aktuelle Lösungen zu evaluieren. Nachdem ich vor kurzem mit openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula einige Open-Source Kandidaten vorgestellt habe, sind heute die Lösungen von Microsoft an der Reihe. Insbesondere der neue Microsoft Windows Server 2012 und Hyper-V bringen interessante Microsoft Cloud Ansätze in das eigene Rechenzentrum.

Microsoft in der Private Cloud

Eine Private Cloud bedeutet, die Konzepte einer Public Cloud - u.a. Flexibilität, Skalierbarkeit und Self-Service - in das eigene Rechenzentrum zu übertragen. Hier sei noch einmal angemerkt, dass eine einfache Virtualisierung NICHT einer Private Cloud entspricht. Zu einer Cloud gehören u.a. die drei oben genannten Eigenschaften, die von der gewöhnlichen Virtualisierung so nicht erfüllt werden.

Microsoft ermöglicht mit seinen Lösungen das Abbilden von Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS) sowohl in der Private als auch in der Public Cloud. Dieses hat den Vorteil Daten und Anwendungen bspw. primär lokal im eigenen Rechenzentrum zu speichern und im Bedarfsfall in die Public Cloud zu skalieren.

IaaS stellt dabei Infrastrukturressourcen wie Rechenleistung, Speicherplatz und Netzwerkkapazitäten als Service bereit, PaaS hingegen Anwendungsplattformen als Service.

Was wird für eine Private Cloud à la Microsoft benötigt?

Für den Aufbau einer Microsoft Private IaaS-Umgebung wird der Windows Server Hyper-V, das Microsoft System Center sowie das Microsoft System Center Virtual Machine Manager Self-Service Portal benötigt, wodurch sich eine dedizierte Cloud-Umgebung inkl. Self-Service Möglichkeiten bereitstellen lässt.

Darüber hinaus ermöglichen die Private Cloud Services die nahtlose Anbindung an Microsoft Public Cloud Infrastruktur Windows Azure. Somit lassen sich neben einer Ressourcenskalierung ebenfalls Applikationsframeworks und Identitymanagement-Tools nutzen, um die Private mit der Public auf Basis einer Hybrid Cloud zu integrieren.

Hyper-V

Hyper-V ist Microsofts Technologie für die Servervirtualisierung. Er setzt auf dem Windows Server 2012 auf und bildet die Grundlage einer Microsoft Private Cloud. Damit lassen sich mehrere Server als virtuelle Maschinen (VMS) auf einer physikalischen Hardware betreiben. Hierzu unterstützt Hyper-V parallel unterschiedliche Betriebssysteme, darunter u.a. Windows und Linux auf x64-Hardware.

System Center

Das System Center ist der Dreh- und Angelpunkt der Private Cloud und unterstützt bei der Verwaltung der physikalischen, virtuellen als auch Cloud-Infrastruktur. Dazu gehören neben dem Management der skalierbaren Rechenzentrumsinfrastruktur und geschäftskritischer Workloads ebenfalls die Steuerung standardisierter Prozesse für die Verwaltung des Rechenzentrums und der Verwaltungs-Workflows. Weiterhin bietet das System Center Self-Service-Funktionen, mit denen Nutzer die benötigten IT-Ressourcen konsumieren können.

Virtual Machine Manager SSP 2.0

Das Virtual Machine Manager Self-Service Portal setzt auf den Windows Server Hyper-V und das System Center auf. Es handelt sich dabei um eine kostenlose und fertige Lösung, mit der sich Ressourcen in einem Rechenzentrum dynamisch zu Gruppen zusammenfassen lassen, um damit die Private Cloud mit den notwendigen Ressourcen zu versorgen. Weiterhin lassen sich einzelne oder Gruppen von Ressourcen unterschiedlichen Abteilungen zuordnen und z.B. virtuelle Maschinen über ein Self-Service-Portal bereitstellen.

Kombination mit der Microsoft Public Cloud

Auch wenn der Artikel zu Beginn die politischen Einflüsse auf die Public Cloud sensibilisiert hat, gibt es dennoch Szenarien, bei denen eine Public Cloud weiterhin in Frage kommen kann. Es kommt auf die Sensibilität der Daten an und wie ein Unternehmen damit selbst umgehen möchte.

Die Microsoft Private Cloud Services lassen sich ebenfalls mit Microsofts Public Cloud verbinden, um evtl. Lastspitzen auszugleichen oder die Zusammenarbeit in unterschiedlichen Regionen zu verbessern. Hier ein paar Einsatzmöglichkeiten.

SharePoint Online & Office 365

Wollen sich Unternehmen weltweit vergrößern, muss auch die IT mitwachsen. Das stellt bei on-Premise Lösungen finanzielle und zeitliche Herausforderungen dar. Einfacher ist es, neue Standorte über Cloud Lösungen anzubinden und den Mitarbeitern damit denselben Zugriff auf Dokumente und Applikationen zu ermöglichen wie den Mitarbeitern in der zentralen Niederlassung.

Hier können SharePoint Online und Office 365 helfen. Beide ermöglichen die standortübergreifende Zusammenarbeit und den Datenaustausch zwischen Mitarbeitern an geographisch unterschiedlichen Orten.

Exchange Online

Wie beim Austausch von Daten und der globalen Zusammenarbeit verhält es sich beim Thema E-Mail. Vergrößert sich ein Unternehmen überregional oder gar global stehen IT-Entscheider vor denselben Herausforderungen. Eine Private Cloud auf Basis von Microsoft lässt sich zum einen mit Exchange Online erweitern, um den wachsenden Speicherbedarf gerecht zu werden. Darüber hinaus können Mitarbeiter über eine simple URL auf die Exchange-Dienste in der Private oder Public Cloud zugreifen.

SQL

Wer an Microsoft und Datenbanken denkt, dem fällt zunächst Microsoft Access ein. Für Leute, die mehr Performance benötigen der Microsoft SQL-Server. Wohlgemerkt verschlingt, insbesondere ein Datenbankserver, massiv an Hardware und benötigt eine Menge Performance um die heutigen Anforderungen zu erfüllen.

Eine Microsoft Alternative aus der Cloud heißt SQL Azure. Dabei handelt es sich um einen vollständig verwalteten SQL-Server in Microsofts Public Cloud, der weltweit zur Verfügung steht.

Applikationsskalierung

In Zeiten globaler Vernetzung und des Internets lassen sich die benötigten Ressourcen für eine Applikation nur noch schwer einschätzen. Eine einzige Marketingaktion kann entscheidend für den Erfolg oder Misserfolg (Applikationen bricht unter der Last zusammen.) eines neuen Service sein. Gegensteuern lässt sich nur mit hohen Investitionen in die eigene Infrastruktur, ohne genau zu wissen, ob die Ressourcen tatsächlich benötigt oder ob sie gar überhaupt ausreichen werden.

Public Cloud Infrastrukturen sind dynamischer, da hier grundsätzlich mehr Ressourcen zur Verfügung stehen als es ein Unternehmen in der Regel im eigenen Rechenzentrum kann. So lassen sich Applikationen in der Cloud ebenfalls während Spitzenlasten ausfallsicher und skalierbar betreiben. Nehmen die Zugriffe zu, werden weitere Ressourcen automatisch hinzugefügt und wieder entfernt, wenn der Ansturm vorbei ist. Dabei kann die Applikation entweder direkt in der Public Cloud betrieben werden oder zunächst in der Private Cloud laufen und bei Bedarf weitere Ressourcen aus der Public Cloud anfordern (Hybrid Cloud).

Zu beachten ist hier jedoch, dass Applikationen, seien sie lokal oder bereits direkt für die Cloud gedacht, auch für die Cloud entwickelt werden müssen.



Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Wie netzpolitik.org berichtet, arbeiten das deutsche Bundesfinanzministerium sowie das Bundesinnenministerium an der Überwachung von Daten in der Cloud. Ebenso arbeiten das Zollkriminalamt (ZKA) sowie das Bundesamt für Verfassungsschutz im Rahmen internationaler Arbeitsgruppen an Methoden, um Daten aus der Cloud abzuhören. Zusammen mit der Bundesnetzagentur gehören beide dazu dem „European Telecommunications Standards Institute“ (ETSI) an. Zwar sei das Bundeskriminalamt (BKA) nicht direkt mit involviert, sei aber in Kontakt mit dem ZKA und habe Einfluss auf Entwicklungen und Beschlüsse.

Das ETSI soll Datenschutz umgehen

Bereits im August hatte ich darüber geschrieben, dass sich das ETSI mit Technologien beschäftigt, um den Datenschutz trotz Mechanismen wie z.B. SSL auszuhebeln.

Das ETSI soll dazu "eine geheime Hintertür für die Cloud" entwickeln. Dabei soll es darum gehen, den Sicherheitsbehörden das Abhören und Überwachen von Kommunikationsdaten in der Cloud zu erleichtern. Das soll neben Angeboten wie Facebook, Twitter usw. ebenfalls Unternehmensangebote wie die Amazon Web Services, Microsoft Windows Azure und andere Anbieter betreffen. Dazu habe sich das ETSI eine Backdoor überlegt, um unkompliziert den unautorisierten Zugriff zu ermöglichen.

SSL wird ausgehebelt

Bei der ETSI Idee handelt es sich, wie sonst oft diskutiert, allerdings nicht um rechtliche Themen wie bspw. dem "Patriot Act". Hier geht es um reine Technik. Das ETSI will eine Schnittstelle definieren, mit der europäische Sicherheitsbehörden Zugriff auf die Cloud Services der Anbieter erhalten. Die ETSI-Arbeitsgruppe “TC Lawful Interception” stellt sich die Umsetzung so vor, dass die Internet-Anbieter sämtlichen Verkehr standardmäßig umleiten. Nutzt ein Anwender eine verschlüsselte HTTPS-Verbindung (was mittlerweile Standard ist), soll der Datenverkehr auf spezielle Server in das Rechenzentrum des Internet-Anbieter umgeleitet werden. Hier sollen die Sicherheitsbehörden dann den Zugriff auf die Daten erhalten. Um das zu realisieren, müssen die entsprechenden SSL-Zertifikate ausgehebelt werden. Der ETSI geht es nach eigenen Angaben nur um die Erfassung der Datenkommunikation und nicht um die Kontrolle der Inhalte. Der britische Sicherheitsspezialisten und Leiter des Computer Laboratory der Universität Cambridge Ross Anderson hingegen schreibt nach einer Analyse des ETSI-Entwurfs allerdings: "Wenn man die Infrastruktur baut, auf die sich das ETSI geeinigt hat, kann diese für Überwachungsaktivitäten genutzt werden."

Konsortium hilft beim Forschen zum Schnüffeln

Wie netzpolitik weiter schreibt, arbeiten die Deutsche Telekom und die 1&1 Internet AG zusammen unter der Firma „Strategie- und Forschungszentrum Telekommunikation“ (SFZ TK) an dem gemeinsamen Projekt mit dem Namen "CLOUD" an der Überwachung von Cloud-Diensten. Zwar geht es nur um die "Fragestellungen zu Cloud-Computing und dessen Implikationen auf die Telekommunikationsüberwachung“, aber was man zwischen den Zeilen lesen kann ist besorgniserregend:

"Die unter Umständen weltweite und nicht transparente Verteilung der Daten, Software, Betriebssysteme und Speicher sowie der in der Regel auf verschlüsselten Kommunikationsprotokollen basierende Zugang zu Cloud-Diensten erschwert einen Zugriff der Sicherheitsbehörden."

Neben dem BKA und der Bundespolizei arbeitet ebenfalls das Bundesamt für Verfassungsschutz mit SFZ TK zusammen.

Deutschland verbaut sich selbst einen kleinen Wettbewerbsvorteil

Im Mai hatte ich im Verlauf der SecureCloud 2012 in Frankfurt noch die Gelegenheit mit mehreren Beratern zu sprechen. Die durchweg einstimmigen Aussagen waren, dass sich Cloud Angebote aus Deutschland mit dem Verkaufsargument des hohen Datenschutzniveau sehr gut verkaufen lassen.

Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Einige Cloud Anbieter aus Deutschland werben u.a. mit solchen Geschichten wie "Made in Germany" und hohen Datenschutzanforderungen in unserem Land. So ganz unrecht haben sie damit natürlich nicht. Im Vergleich zu anderen Ländern ist der Zugriff auf Daten bei einem deutschen Anbieter so ohne weiteres nicht möglich.

Dieser Wettbewerbsvorteil - TRUST (wir erinnern uns an die CeBIT 2012) - wird, geht es nach der deutschen Bundesregierung, jedoch bald verschwinden. Es geht dann nicht mehr darum, wer den besseren Datenschutz bieten kann oder vertrauenswürdig ist, sondern einzig und allein darum wer die besten Services und die innovativsten Produkte hat. Unternehmen müssen in Zukunft zudem noch besser darauf achten, ihre Daten zu klassifizieren und entscheiden, was in die Cloud soll und was doch lieber on-Premise bleibt. Darüber hinaus wird diese Entwicklung Einfluss auf den Markt haben, da sich immer mehr Unternehmen für eine eigene Private Cloud entscheiden.

Willkommen Private Cloud

Das Vertrauen in die Public Cloud wird weiter sinken und Public Cloud Services - die für das Cloud Computing in Reinform stehen - werden demnach einen weiteren Dämpfer erhalten! Interessant ist, dass die Marktforscher von Gartner für 2012 ein großes Wachstum in der Public Cloud sehen. Zudem sollen die Ausgaben für Enterprise Public Cloud Services bis 2016 die 207 Milliarden US-Dollar erreichen.

Ziehen wir diese neue Entwicklung heran, wird Gartner seine Prognosen wohl herunterschrauben müssen. Die Bedenken von CIOs, Public Cloud Services zu nutzen, sind derzeit eh schon höher als gedacht. Der Hauptgrund sind die Befürchtungen vor Datenlecks in der Public Cloud. Deutsche Unternehmen werden die Gedanken der deutschen Regierung ebenfalls nicht gerne hören. Eine Umfrage von IDC ergab vor kurzem, das ein Drittel der befragten deutschen Unternehmen in 2013 zwischen 26% – 50% ihres IT-Budget in die Private Cloud investieren wollen. Allerdings interessieren sich 90% der Unternehmen nicht(!) für die Public Cloud.



Ausfälle in der Cloud liegen in der Natur des Menschen

Wenn die Cloud fällt sind es wir Menschen, die dafür verantwortlich sind. Wie soll es auch anders sein. Schließlich programmieren und konfigurieren sich die Systeme nicht von alleine. Und auch wenn es heißt "No cloud without automation" muss man eigentlich sagen "(No cloud without automation) without human skills". Insbesondere zeigen sich unsere menschlichen Schwächen in der Cloud dann, wenn es wieder mal zu einem Ausfall kommt. Vor allem in diesem Jahr haben wir ein paar davon gesehen.

Menschen machen Fehler

Und das ist ok. Solange aus diesen Fehlern auch gelernt wird. Was bei dem einen oder anderen Anbieter dieses Jahr nicht der Fall war. Ich will und werde hier keine Namen nennen, denn diejenigen Wissen bestimmt selbst, dass sie etwas deutlich besser machen müssen. Aber wenn ein Notstromaggregat innerhalb kürzester Zeit zweimal nicht funktioniert und ebenfalls sämtliche Notfallpläne scheitern, läuft etwas falsch!
Zwar war dieser Ausfall, von dem ich hier spreche, in erster Linie kein menschliches Versagen. Denn gegen einen Wirbelsturm und Gewitter sind wir machtlos. Aber die Kaskade von Fehlern die während des Unwetters passiert war, ist unerklärlich.

Andere Fehler die in diesem Jahr passiert sind, lassen sich dem Menschen direkt zuordnen. Zum einen waren da bspw. falsch konfigurierte Netzwerkschnittstellen die dafür gesorgt haben, dass die Netze der Anbieter mit Daten überflutet wurden und sich somit selbst Schachmatt gesetzt haben. Oder es wurden erst kürzlich bei einem Anbieter Änderungen an der Konfiguration der Load-Balancer vorgenommen, die zu einem längeren Ausfall führten.

Wie gesagt, Menschen machen Fehler. Und daher sollte man nicht immer "der großen bösen Cloud" die Schuld geben, sondern hinter die Fassade schauen und bedenken, dass dort auch nur Menschen wie Du und ich sitzen.

In diesem Sinne, auf in ein besseres 2013. :)



Amazon erweitert EC2 mit automatischem Failover und liefert detaillierte Rechnungen

Amazon hat einen seiner größten "Schwachpunkte" ausgebessert und kommt seinen Kunden damit weit entgegen. Es geht um die Ausfallsicherung einzelner EC2 Instanzen. Normalerweise muss sich ein Kunde selbst darum kümmern und dafür sorgen, dass eine neue EC2 Instanz hochfährt, wenn eine laufende ausfällt. Amazon hat nun seine Infrastruktur optimiert und führt das automatische Failover von EC2 Instanzen ein. Zudem gibt es nun detaillierte Informationen in den Rechnungen.

Automatischer Failover für Amazon EC2

Als Amazon Kunde hat man es nicht leicht, wenn man seine Infrastruktur in der AWS Cloud aufbauen will. Für die vom Public Cloud Computing versprochene Hochverfügbarkeit muss man als Kunde nämlich selbst sorgen, was viele Nutzer nicht umgesetzt haben.

Amazon kommt den Kunden nun ein Stück entgegen und erweitert seine Auto Scaling Funktion mit den Amazon EC2 Status Checks. Das bedeutet, wenn eine Instanz innerhalb einer Auto Scaling Gruppe nicht mehr verfügbar ist und den status check nicht besteht, wird diese Instanz automatisch durch eine neue Instanz ersetzt.

Wie Amazon schreibt, ist es nicht notwendig dafür selbst aktiv zu werden, da die EC2 Status Checks automatisch in die Auto Scaling Gruppen integriert wurden.

Mehr Details innerhalb der Rechnungen

Darüber hinaus geben neue Abrechnungen nun mehr Informationen über die stündliche Nutzung der Amazon Infrastruktur.