Tag: featured


Die Herausforderungen des Cloud Computing: Sicherheitsanforderungen

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Sicherheitsanforderungen

Bedenken in Bezug auf die Sicherheit gehören zu der größten Hemmschwelle und sprechen gegen den Einsatz von Cloud Computing. Cyber-Ark hat dazu acht Bereiche bei Cloud Anbietern identifiziert, die es zu beachten und überprüfen gilt. Denn speziell die Administratoren der Anbieter verfügen über den Zugriff auf sämtliche Daten sowie Anwendungen, Prozesse, Services und Systeme.

  1. Management privilegierter Benutzerkonten: Der Cloud Anbieter muss über ein sogenanntes Privileged-Identity-Management-System zur Verwaltung privilegierter Accounts in seiner gesamten Infrastruktur verfügen. Damit soll dem Unternehmen garantiert werden, dass der Anbieter die Datensicherheitsanforderungen bzgl. Policies, Prozesse und Practices erfüllt. Zudem sollte der Cloud Anbieter Standards wie ISO 27001 oder 27002 einhalten.
  2. Policy-Konformität: Alle Policies und Prozesse des Privileged Identity Management des Cloud Anbieters müssen im besten Fall den ISO-Normen entsprechen aber auf jedenfall mit denen des Unternehmens übereinstimmen.
  3. Evaluierung: Die Sicherheitsstruktur des Cloud Anbieters muss vom Unternehmen im Detail überprüft und evaluiert werden. Hier ist besonders zu prüfen, dass Programme für das Privileged Identity Management genutzt werden, mit denen die Security-Policies und -Prozesse automatisch unterstützt werden.
  4. Dokumentation: Die Richtlinien und Prozesse des Privileged Identity Management müssen Anforderungen für das Audit und Reporting erfüllen. Dazu sollten die eingesetzten Technologien und Konzepte innerhalb der Service Level Agreements festgehalten werden.
  5. Definition von Rollen: Über Policies muss den privilegierten Benutzern der Zugang zu entsprechenden Bereichen limitiert werden. Dafür ist eine sogenannte "Separation of Duties" erforderlich.
  6. Keine versteckten Passwörter: Es dürfen keine Passwörter gespeichert werden, die einen Zugang zu Backend-Systemen oder Datenbanken ermöglichen.
  7. Überwachung: Der Cloud Anbieter ist in der Pflicht, die privilegierten Benutzerkonten dauerhaft zu kontrollieren und zu überwachen.
  8. Reporting: Für alle privilegierten Benutzerkonten müssen lückenlose Protokolle und Reportings in Bezug auf den Zugriff und die Aktivitäten erstellt werden. Diese müssen dem Unternehmen wöchentlich oder monatlich zur Verfügung gestellt werden.


Die Herausforderungen des Cloud Computing: Datenschutz und Datensicherheit

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Datenschutz und Datensicherheit

Während der Nutzung einer Public Cloud werden die Daten eines Unternehmens immer an einen Cloud Anbieter übertragen. Aus diesem Grund sind viele Kritiker der Meinung, dass Cloud Computing von der rechtlichen Seite betrachtet nicht zulässig sei, da die Anforderungen des Datenschutzes an dieser Stelle nicht erfüllt werden.

Arnd Böken zeigt, dass es rechtlich ohne weiteres möglich ist, personenbezogene Daten innerhalb einer Public Cloud verarbeiten zu lassen, wenn das Unternehmen und der Cloud Anbieter bestimmte Voraussetzungen einhalten. Der Cloud Anbieter wird dafür als Auftragsdatenverarbeiter für das Unternehmen tätig.
Nach §11 Bundesdatenschutzgesetz (BDSG) muss das Unternehmen den Cloud Anbieter zunächst sorgfältig auswählen, um diesen die Auftragsdatenverarbeitung vornehmen zu lassen. Dazu hat es die Pflicht, “[...] zu prüfen, ob der Anbieter geeignete technische und organisatorische Schutzmaßnahmen getroffen hat, die Daten sicher zu verarbeiten.” Um das sicherzustellen, muss das Unternehmen das Schutzkonzept des Cloud Anbieters überprüfen. Grundsätzlich müssen dabei die folgenden Grundsätze der Datensicherheit bei der Verarbeitung personenbezogener Daten nach der Anlage zu § 9 des Bundesdatenschutzgesetz (BDSG) eingehalten werden:

  • Zutrittskontrolle: Maßnahmen, die Unbefugte am Zutritt zu Datenverarbeitungsanlagen hindern. Das gilt für Außenstehende sowie für Mitarbeiter aus anderen Unternehmensbereichen oder Mitarbeiter außerhalb ihrer Arbeitszeit, etwa durch Gebäudeüberwachung, Einrichten von Sicherheitszonen, Berechtigungsausweise und Alarmanlagen.
  • Zugangskontrolle: Maßnahmen, die Unbefugte daran hindern, Datenverarbeitungssysteme zu nutzen, etwa durch Passwortvergabe, sowie Schutzmaßnahmen gegen Eindringen wie Firewalls.
  • Zugriffskontrolle: Schutzmaßnahmen, damit Mitarbeiter Daten nur im Rahmen ihrer Zugriffsberechtigung einsehen und nutzen können sowie der Schutz bei Nutzung der Daten und nach Speicherung. Zum Beispiel eine eindeutige Zuweisung von Zugriffsberechtigungen, wirksame Prüfverfahren und Verschlüsselung.
    Weitergabekontrolle: Schutz der Daten bei Speicherung oder Weitergabe einschließlich einer Dokumentation, an welche Stellen Weitergabe vorgesehen ist. Durch genaue Dokumentation der beteiligten Rechenzentren, Protokollierung der Speicherorte der Daten, Regelungen zur Verschlüsselung und zuverlässige Löschverfahren.
  • Eingabekontrolle: Protokollierung, wann und von wem welche Daten eingegeben, verändert oder entfernt worden sind.
  • Auftragskontrolle: Daten dürfen bei Auftragsdatenverarbeitung nur nach den Weisungen des Auftraggebers verarbeitet werden. Unter anderem durch eine eindeutige Regelungen zur Zweckbindung, zu Zugriffsbeschränkungen, zur Aufbewahrung, zum Verlust von Datenträgern, zu Löschverfahren und vollständiger Herausgabe nach Auftragsende.
  • Verfügbarkeitskontrolle: Schutzmaßnahmen gegen zufällige Zerstörung oder Verlust von Daten. Beispielsweise durch regelmäßige Sicherung, USVs und Katastrophenpläne.
    Trennungskontrolle: Systeme müssen Daten, die zu unterschiedlichen Zwecken erhoben wurden, getrennt verarbeiten können. Zum Beispiel durch Trennung über Zugriffsregelung.

Des Weiteren sind Zertifizierungen des Anbieters unverzichtbar sowie eine Bestätigung über die Einhaltung des oben genannten Schutzkonzeptes.

Eine Auftragsdatenverarbeitung setzt gleichermaßen voraus, “[...] dass die Daten nur in Rechenzentren innerhalb des Europäischen Wirtschaftsraums (EWR), das heißt EU plus Norwegen, Island und Liechtenstein, verarbeitet werden.” Aus diesem Grund haben viele Cloud Anbieter ebenfalls EU/EWR-Clouds im Angebot, z.B. dann, “[...] wenn ein Unternehmen seine Buchführung in die Cloud auslagern will.”
Zudem sollte ein Unternehmen mit dem Cloud Anbieter eine Vertraulichkeitsvereinbarung abschließen, bevor es diesem weitere Interna mitteilt.



Sponsored Topic: CentralStationCRM – Kontakt- und Kundenmanagement aus Deutschland

Kontakt- und Kundenmanagement oder CRM (Customer Relationship Management) wird auch für kleine Unternehmen immer wichtiger. CRM Systeme wie CentralStationCRM bieten dabei einen einfachen und unkomplizierten Einstieg in die professionelle Pflege seiner Kundenbeziehungen.

Darauf kommt es im Kundenkontakt an

Bei der zunehmenden Komplexität und Geschwindigkeit im Arbeitsalltag ist es umso wichtiger, dass man adäquat auf die Fragen seiner Kunden und Partner reagieren kann. Sei es im persönlichen, telefonischen oder elektronischen Kontakt via E-Mail - ein guter und kompetenter Service gegenüber seinen Kunden ist die Basis für eine langfristige Geschäftsbeziehung. Die Grundlage dafür ist eine solide Informationsbasis. Zum einen müssen relevante Informationen, wie der Grund des letzten Gespräches firmenweit verfügbar sein, falls der jeweilige Kollege gerade einmal nicht erreichbar ist. Zum anderen muss man sich möglichst einfach und schnell zurecht finden.

Gerade für KMU gilt: Weniger ist mehr

Bei der Einführung einer neuen Cloud Software wie einem CRM System verändert sich eines nicht im Vergleich zu klassischer Software: Die Lösung sollte so einfach und intuitiv verständlich wie möglich sein. Der erste Schritt in die richtige Richtung ist die klare Eingrenzung des Funktionsumfangs. Gerade in kleinen Unternehmen sollte die Einführung möglichst ohne große Schulungsaufwände und Einarbeitungszeiten über die Bühne gehen, vielmehr sollte eine neue Lösung nach den ersten Tagen bereits eine spürbare Verbesserung des Arbeitsalltags mit sich bringen.

CentralStationCRM: Einfaches CRM für kleine Unternehmen

Die Cloud Lösung CentralStationCRM richtet sich klar an kleine Unternehmen ab dem ersten Mitarbeiter. Der Funktionsumfang und der Aufbau des Systems verfolgt einen sehr qualitativen Ansatz der Kontaktpflege und legt weniger wert auf Auswertungen und Berichte. Dadurch können die Eingabemasken deutlich verschlankt werden und der Blick des Anwenders liegt auf den wesentlichen Funktionen und Aufgaben im Zusammenhang mit den eigenen Kunden und Kontakten.

Neben der Dokumentation von Gesprächen oder E-Mails unterstützt CentralStationCRM bei der Aufgabenverteilung im Team und schafft Transparenz in den Kundenbeziehungen. Angebotsdaten oder sonstige Kundeninformationen sind so immer verfügbar und abrufbereit, ganz gleich ob der verantwortliche Kollege gerade im Urlaub oder in einer Besprechung ist.

CentralStationCRM ist der Begleiter in der täglichen Arbeit und kann die Vorteile der Cloud insbesondere bei der mobilen Nutzung ausspielen. So können die Kundendaten auch über mobile Endgeräte wie iPad, iPhone, Android Smartphones und mehr in Echtzeit abgerufen werden. Für Entwickler bietet 42he eine API, die mit diversen Ressourcen ausgestattet ist und die Programmierung von Erweiterungen zulässt.

Über 42he

42he entwickelt Produktivitätslösungen für kleine Teams und Unternehmen in der Cloud. Dazu gehören neben der CRM Software CentralStationCRM noch ein Projektmanagement System sowie eine Branchenlösung für die Gastronomie. Hier geht es um die CRM Lösung CentralStationCRM.


Was ist ein Sponsored Topic?




Die Herausforderungen des Cloud Computing: Schatten IT

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Schatten IT

Eine Schatten-IT entsteht durch die Nutzung von IT-Ressourcen wie Hardware und Software von Mitarbeitern ohne die Kenntnis der IT-Abteilung.

Dabei entsteht die Schatten-IT in den meisten Fällen nicht aus Boshaftigkeit, sondern aus Unwissenheit und z.T. Verzweiflung. So verfügt eine Vielzahl von Unternehmen bspw. nicht über ausreichend Softwarelizenzen. Die Mitarbeiter greifen dann auf alternative Anwendungen z.B. aus dem Open Source Bereich zurück. Anstatt nun auf lokale Applikationen zurückzugreifen, greifen die Mitarbeiter auf Anwendungen aus der Cloud zurück. So ist es z.B. sehr einfach möglich, einen kostenlosen Dropbox Account (Cloud Storage) zum Speichern von Dateien anzulegen oder mittels Google Docs ein Dokument zu erstellen. Ähnlich ist es mit Infrastruktur Ressourcen wie virtuellen Servern. Durch die immer leichter zu bedienenden Managementoberflächen über einen Webbrowser können sich Entwickler oder Fachabteilungen ein eigenes virtuelles Rechenzentrum in der Cloud aufbauen ohne dass die IT-Abteilungen etwas davon merken.

Solche Situationen entstehen, da die meisten IT-Abteilungen nicht auf dem aktuellen Stand technologischer Entwicklungen sind. Zudem vergehen von der Bestellung z.B. von Serverressourcen für ein Projekt bis zur endgültigen Bereitstellung durch die IT-Abteilung teilweise Monate. Durch den unkomplizierten Zugriff auf Ressourcen von einem Public Cloud Anbieter erhalten die Mitarbeiter schneller die Leistungen, die sie für ihr Projekt benötigen.

Durch den Einsatz von Firewalls und weiteren Sicherheitstechnologien können IT-Abteilungen den Zugriff auf externe Ressourcen beschränken. Das führt jedoch zur Verringerung der Kreativität der Mitarbeiter. Für die IT-Abteilungen gilt es daher in erster Linie aktiv Aufklärungsarbeit zu leisten. Zudem sollten IT-Abteilungen nicht zu einem überwachenden Organ werden. Unternehmen sollen mittlerweile dazu übergehen, Firmenkreditkarten zu überwachen. Wenn keine Firmenkreditkarten vorhanden sind, werden die Spesen und Reisekostenabrechnungen der Mitarbeiter überwacht, da Mitarbeiter und Fachabteilungen dazu übergegangen sind, die Kosten für den Cloud Service mit der privaten Kreditkarte zu begleichen und die Kosten über Spesen etc. zu verrechnen.

IT-Abteilungen sollten daher selbst kleine Cloud Projekte starten und über diese aktiv berichten. Damit zeigen sie ihren Kollegen und Mitarbeitern, dass sie über die geforderte Expertise verfügen und zudem offen gegenüber der Cloud und neuen Technologien sind. Die IT ist heutzutage nun einmal der Business Enabler und die IT-Abteilungen erhalten durch das Cloud Computing noch mehr Potential, das zu fördern.



Die Herausforderungen des Cloud Computing: IT-Strategie und Unternehmensstrategie

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

IT-Strategie und Unternehmensstrategie

Eine CA Studie hat ergeben, dass eine nachhaltige Veränderung nur erreicht werden kann, “[...] wenn das Thema Cloud Computing fest in der IT Strategie des Unternehmens verankert wird.” Mit dem Ansatz der Implementation mit nachfolgender Organisation führt nicht zur optimalen Ausnutzung der Cloud Computing Potenziale. Daher ist es notwendig, die vorhandene IT-Strategie zu überdenken und dabei den Aspekt des Cloud Computing mit einzubeziehen. Das grundlegende Ziel jeder IT ist die optimale Unterstützung der Kerngeschäfte eines Unternehmens. Wie Cloud Computing an dieser Stelle seinen Wertbeitrag leistet, ist von Unternehmen zu Unternehmen unterschiedlich. Jedoch zeigt ein Blick auf die Ziele eines Unternehmens, wie die IT-Strategie aussehen muss, woraus sich dann mögliche Cloud Computing Szenarien ableiten lassen. Auf Basis dieses Gesamtbildes lässt sich eine optimale Gesamtarchitektur entwickeln, in der auch mögliche Kandidaten für einen Cloud Service zu erkennen sind.



Die Herausforderungen des Cloud Computing: Qualität der Cloud Computing Prozesse

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Qualität der Cloud Computing Prozesse

Bei der Auslagerung und dem Bezug von Cloud Services übernimmt der Cloud Anbieter ebenfalls das Servicemanagement der Prozesse. Dennoch bleiben auch auf der Unternehmensseite Aufgaben bestehen, die benötigt werden, um eine nahtlose Integration zu ermöglichen. Wie auch beim klassischen Outsourcing sind die Verträge entscheidend, in denen u.a. das operative Risiko festgehalten wird. Aus diesem Grund müssen die Rechte und Pflichten beider Vertragsparteien bis ins Detail festgehalten werden. Der Anbieter muss also seine angebotenen Leistungen gemäß den zugesagten Service Level Agreements (SLAs) beherrschen und das Unternehmen steht in der Pflicht, diese Services zu steuern und einer qualitativen Bewertung zu unterziehen. Beide benötigen daher ein Servicemanagement, das bspw. an den Best Practises der IT Infrastructure Library (ITIL) ausgerichtet ist.

Jürgen Dierlamm beschreibt Maßnahmen und Vorgehen, auf die Unternehmen achten sollten, um die Qualität der Prozesse bei einem Cloud Provider sicherzustellen. Zunächst hat “[...] Der Auftraggeber die Pflicht zur Kontrolle.” und das bedeutend mehr als beim klassischen Outsourcing. Das hängt damit zusammen, dass die IT-Infrastruktur, die für den Betrieb der Anwendungen benötigt wird, beim Cloud Computing nicht mehr vom Kunden bereitgestellt wird, sondern vom Cloud Anbieter. Damit verringern sich die Pflichten des Kunden zwar hinsichtlich des Asset-, Konfigurations- und Lizenzmanagement, aber der Kunde hat die Aufgabe den Cloud Anbieter zu kontrollieren und den Nachweis vom Cloud Anbieter einzuholen, “[...] dass die Cloud-Services zur Wertschöpfung in den Geschäftsprozessen beitragen.” Dazu sollte der Cloud Anbieter gemäß dem IT-Service-Management alle gängigen ITIL-Prozesse berücksichtigen. Dazu gehört ebenfalls ein Account-Management nach ITIL Vorgaben.

Die IT-Abteilung des Kunden hat die Aufgabe, sich mit der Steuerung der eigenen als auch den vom Cloud Anbieter bezogenen Services zu beschäftigen. Dierlamm rät, dass sich niemals die einzelnen Geschäftsbereiche mit der Steuerung des Cloud Anbieters auseinandersetzen sollen. Er schlägt eine Art Filter zwischen dem Business und dem IT-Betrieb vor. Diese Aufgabe soll die IT-Abteilung als eine "Retained Organization" übernehmen und als Übersetzer der Business Anforderungen für den Einkauf zuständig sein und als Steuerungsinstanz der Cloud Services dienen.

Des Weiteren ist es nach Dierlamm notwendig, die ITIL Prozesse zu identifizieren, die für das Unternehmen wirklich notwendig sind. Dazu ist es wichtig, einen Outsouring Vertrag gemäß den "Underpinning Contracts" von ITIL zu vereinbaren. Darin müssen ebenfalls SLAs enthalten sein, “[...] in denen die Parameter der Leistungserbringung festgeschrieben werden”. Dazu gehören “[...] Availability, Capacity, Service Continuity, Security, Service Transition, Service Operation, aber auch Service Improvement, also die Verbesserung der Dienstleistung.” Für die Steuerung der in den Verträgen festgehaltenen SLAs ist erneut die IT-Abteilung zuständig.

Die oben beschriebene “Retained Organization” ist weiterhin für die Aufnahme der Cloud Services in das eigene Serviceportfolio, den Servicekatalog und die mit den Fachbereichen vereinbarten SLAs zuständig. So ist der Cloud Anbieter für die Fachbereiche transparent, da sie die Services über die “Retained Organization” der IT-Abteilung beziehen. So existiert z.B. nur noch ein Incident-Management-Prozess, der für die internen als auch für die Cloud Services gilt. Dazu müssen die folgenden ITIL-Prozesse in den Outsourcing Vertrag und den SLAs mit aufgenommen werden:

  • Supplier-, Service-Level- und Financial-Management
  • Incident-, Problem- und Access-Management
  • Request Fulfillment

Dierlamm beschreibt auf Basis des Service Lifecycles, welche ITIL Prozesse durch den Kunden und welche durch denCloud Anbieter verwaltet werden.

  1. Service Strategy: Zunächst gilt es eine Strategie zu entwickeln und zu entscheiden, ob die Cloud Services in die Servicestrategie, die Architekturplanung und das Sourcing Konzept hineinpassen. Anschließend muss die Auswahl des Anbieters gut vorbereitet werden. Hier ist insbesondere der Prozess “Financial-Management” von besonderem Interesse, der für die Bewertung des Anbieters und der IT-Assets genutzt wird. Speziell die IT-Assets sind interessant, da diese in Zukunft nicht mehr auf eigene Kosten angeschafft und bilanziert werden müssen, da dies der Cloud Anbieter übernimmt. Der Anbieter selbst wird die dadurch entstehenden Aufwände wiederum auf die Servicepreise anrechnen, die über den “Charging-Prozess” des IT-Controlling refinanziert werden. Hinzu kommt, dass die freigesetzten Hardware- und Rechenzentrumskapazitäten durch den zukünftigen Bezug über den Cloud Anbieter ebenfalls vorzubereiten und zu verwalten sind.
  2. Service Design: Speziell die Prozesse und Tätigkeiten des Supplier-Management und dem Service-Level-Management nehmen im Service Design eine bedeutende Rolle ein. So sind angemessene IT-Verträge für beide Seiten notwendig, um den ständig steigenden Compliance Anforderungen gerecht zu werden. Dazu müssen alle Parameter aus dem Service Design wie Verfügbarkeiten, Kapazitäten etc. in die Verträge und das Service-Level-Controlling integriert werden. Hier gilt es auch, Kennzahlen für die Anwendungen direkt (End-to-End-Service-Levels) und nicht nur für die IT-Infrastruktur festzulegen. Die fertigen Verträge müssen anschließend hinsichtlich Kosten, Kennzahlen und Qualität aktiv verwaltet werden. Dazu gehört auch die Integration in das eigene Servicekatalog- und Service-Level-Management. Insbesondere auf die Zusage von Verfügbarkeiten, sehr wichtig für das Risiko Management, aber auch auf das Thema Datenschutz sollte geachtet werden.
  3. Service Transition: Die Prozesse Change-, Release- und Configuration-Management werden in den Verträgen und SLAs zwischen dem Cloud Anbieter und dem Kunden festgehalten. Die Assets und Lizenzen werden durch den Anbieter bereitgestellt. Der Cloud Anbieter muss jedoch über eine passende Steuerung dieser Prozesse verfügen und seinem Kunden dieses ebenfalls nachweisen können. Bezieht ein Unternehmen zum ersten mal einen Cloud Service, muss es es sich um die Auswirkungen auf seine Endgeräte und Clients wie z.B. dem Web-Frontend oder die eigenen Anwendungen sowie der Netzintegration Gedanken machen.
  4. Service Operation: Ein entscheidener Faktor für eine erfolgreiche Nutzung von Cloud Services ist die Integration des Incident- und Problem-Managements sowie das Request Fulfillment in die eigenen Prozesse. In Bezug auf die Requests und Incidents muss eine lückenlose Kette vom Unternehmen über die (steuernde) IT-Abteilung bis bin zum Cloud Anbieter vorhanden sein. Der Cloud Anbieter hat die Aufgabe, Störfälle und Probleme zu beseitigen und Requests abzuarbeiten. Auf Grund der Compliance gilt es aber, die IT-Abteilung des Unternehmens ebenfalls mit in die Prozesse einzubeziehen.
  5. Continual Service Improvement: Auch Cloud Services müssen den Anforderungen einer kontinuierlichen Serviceverbesserung unterliegen, für die der Cloud Anbieter zuständig ist und was im Vertrag festgehalten werden muss. An dieser Stelle gilt es, festzulegen, in welchen Abständen was gemessen, analysiert und verbessert werden muss. Die IT-Abteilung stellt hier die Business Anforderungen sicher und liefert die Cloud Kennzahlen an die entsprechenden Stellen im Unternehmen.


Die Herausforderungen des Cloud Computing: Governance

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Governance

Für die Leitung und Überwachung setzen Unternehmen seit vielen Jahren auf den Einsatz einer Corporate Governance, um damit neuartige externe Interessen berücksichtigen zu können. Speziell börsennotierte Unternehmen unterliegen besonderen Rahmenbedingungen, die sich auf die Strukturen und Prozesse der Führung, Verwaltung und Kontrolle auswirken. Vor allem Regulierungen zwingen Unternehmen dazu, betriebliche Abläufe transparenter zu gestalten und führen zu einem höheren internen Kontrollbedarf, der bestmöglich automatisiert in die Geschäftsprozesse integriert wird. Speziell hier hat die Corporate Governance einen nahtlosen Einfluss auf die IT eines Unternehmens, was IT-Entscheider dazu bewegt, aus der Corporate Governance eine IT-Governance abzuleiten.

Der Schwerpunkt der IT-Governance liegt, gemäß den aktuellen und zukünftigen Anforderungen durch die Unternehmensseite (intern) und der Kundenseite (extern), auf der Transformation der IT. Zudem stellt eine IT-Governance mittels organisatorischer Strukturen und Prozesse sicher, dass alle eingesetzten Funktionen der IT eines Unternehmens die Gesamtunternehmensstrategie optimal unterstützt. Aus diesem Grund hängt die IT-Governance unmittelbar von der Corporate Governance ab. Somit leiten sich die IT-Prozesse neben der IT-Strategie ebenfalls aus den Geschäftsprozessen ab. Die Aufgabe der IT-Governance besteht darin, die Organisation und die Steuerung dieses Abstimmungsprozesses zu übernehmen.
Ein Blick auf die Bereiche einer Unternehmensarchitektur, zu denen auch die Corporate Governance und somit die IT-Governane gehört, zeigt, dass zu der Unternehmensstrategie, den Geschäftsprozessen und der Geschäftsinfrastruktur ebenfalls die entsprechenden Pendants wie eine IT-Strategie, die IT-Prozesse und eine IT-Infrastruktur gehören.

Während der IT-Nutzung über das eigene Rechenzentrum oder dem Bezug der Ressourcen mittels des klassischen Outsourcings hat oder vielmehr sollte die IT-Abteilung die Kontrolle über die Gestaltung und Einhaltung der IT-Governance haben. Dies ändert sich in Zeiten von Public Cloud Angeboten. Mit einer Kreditkarte stehen ihnen quasi unbegrenzte Ressourcen zur Verfügung, die sie ohne Kenntnis der IT-Abteilung nutzen können. Mitarbeitern ist jedoch in der Regel nicht bewusst, was sie durch ein unkontrolliertes Cloud Sourcing in den Strukturen eines Unternehmens anrichten. So entstehen voneinander separierte Dateninseln und zueinander nicht kompatible Cloud Services, die zu einer fragmentierten IT-Unternehmensarchitektur führen. Auch der Transfer personenbezogener Daten oder kritischer Unternehmensdaten zu einem nicht europäischen Public Cloud Anbieter kann rechtswirksame Probleme nach sich ziehen. Des Weiteren kann der unkoordinierte Wechsel zu einem Cloud Vendor Lock-in mit hohen Exitkosten führen.

Unternehmen, die über den Einsatz von Cloud Computing nachdenken, müssen damit ebenfalls ihre (IT)-Governance Prozesse überarbeiten und an die Bedürfnisse einer Cloud Strategie anpassen. Neben technischen müssen dabei ebenfalls rechtliche, finanzielle und organisatorische Aspekte berücksichtigt und der Lebenszyklus der jeweiligen verwendeten Cloud Services mit betrachtet werden.

Der “Leadership Council for Information Advantage” ist der Meinung, dass alte Governance Modelle den Ansprüchen der Cloud mehr gerecht werden und neue Ansätze benötigen, da “[...] mit dem Einstieg in Hybrid- oder Public-Clouds das Risiko steigt, die Kontrolle über die eigenen Daten zu verlieren.“ Da bei der Nutzung einer Private Cloud ein Unternehmen die Verantwortung und Kontrolle über alle Informationen behält, “[..] können sie etablierte Governance-Richtlinien mit mehr oder weniger Aufwand an eine Cloud-Infrastruktur anpassen.” Hingegen verändern sich die Anforderungen und Verantwortlichkeiten, “[...] wenn öffentliche Clouds oder hybride Mischangebote ins Spiel kommen. Sie erfordern vollkommen neuartige Information-Governance-Ansätze, die den Gegebenheiten verteilter IT-Architekturen gerecht werden.”

Das führt dem “Leadership Council for Information Advantage” demnach zu vier Risiken bei der Nutzung von Cloud Services:

  • Die unkontrollierte Ausbreitung untereinander inkompatibler Cloud-Services
  • Fragmentierung der Informationsarchitektur durch isolierte Dateninseln auf verschiedenen Cloud-Plattformen
  • Die zunehmende Gefahr der Abhängigkeit von einzelnen Anbietern (Vendor Lock-in)
  • Schwierigkeiten beim Etablieren durchgehender Sicherheits- und Governance-Mechanismen durch verteilte Verantwortlichkeiten in Cloud-Umgebungen.

Lothar Lockmaier hält die “[...] Gewährleistung der Datensicherheit und das Einhalten von länderspezifischen Regularien” speziell in Kombination mit der Nutzung von Public Cloud Services für “[...] eine enorme Herausforderung für Unternehmen” und nennt folgende Ansätze bzw. Fragen, die für eine auf Cloud Computing angepasste IT-Governance geklärt werden müssen.

  • Wo werden die Daten physisch gespeichert? Bestimmte Daten dürfen nicht ohne weiteres bei nicht-europäischen Cloud Providern verarbeitet bzw. gespeichert werden. Das betrifft u.a. personenbezogene Daten.
  • Wie sind die Schnittstellen abgesichert? Es gilt nicht nur Cloud-Zugriff auf den Cloud-Dienst selbst sondern auch auf die Provisionierung von Benutzern, das Management der Umgebung oder auf das Monitoring zu haben. Die Schnittstellen müssen aus diesem Grund gegen Schwachstellen wie z.B. einer schwachen Authentisierung, der Übermittelung von Daten in Klartext und einer falschen Autorisierung geschützt sein.
  • Wie schützt man sich gegen interne Angreifer? Ein interner Angreifer hat innerhalb einer Cloud Computing Umgebung möglicherweise Zugriff auf Daten mehrerer Kunden. Der Cloud Provider muss daher transparent aufzeigen, wie autorisierte Benutzer behandelt werden und wie internen Angriffen vorgebeugt wird.
  • Wie wird die Vertraulichkeit der Daten gewährleistet? Auf Grund der hohen Komplexität der gesamten Architektur können minimale Fehler beim Cloud Provider eine große Auswirkung haben. Der Cloud Provider muss nicht nur transparent aufklären, wie die Vertraulichkeit der Daten bei der Übertragung, Verarbeitung und Speicherung sichergestellt wird sondern auch wie die Vertraulichkeit über den ganzen Lebenszyklus der Hardware garantiert wird und was mit den Daten passiert, nachdem der Vertrag abgelaufen oder gekündigt ist. Dazu gehört ebenfalls die sichere Entsorgung der Datenträger etc.
  • Wie sind die Security-Management-Prozesse implementiert? Zur Bestimmung des Risikoprofils benötigt der Kunde eine Einsicht in die Prozesse in den Bereichen Security Incident Management, Hardening, Patching, Logging, etc. des Cloud Provider. Auch Zertifizierungen wie ISO 27001/2, SAS70 oder PCI DSS zeigen die Vertrauenswürdigkeit. Jedoch sollte sich jeder Kunde über die Einhaltung der Prozesse erkundigen und Audit-Reports prüfen.


Die Herausforderungen des Cloud Computing: Compliance

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Compliance

Der Begriff Compliance bezeichnet die Einhaltung von extern vorgegeben Gesetzen, Regeln und Richtlinien, die von einem Unternehmen zu erfüllen sind. Die bekanntesten Gesetze in diesem Bereich sind der Sarbanes-Oxley Act (SOX), Solvency II und Basel II; Aber auch die elektronische Buchhaltung sowie die Archivierung der Geschäftsunterlagen fallen in den Bereich Compliance. In vielen Fällen, u.a. bei SOX, führt eine Nichteinhaltung der Gesetze zu einer Vorstandshaftung, wodurch vor allem die Unternehmensführung daran interessiert ist, dass ihr Unternehmen inkl. seiner IT compliant ist.

Dr. Markus Böhm beschreibt Cloud Compliance als eine “[...] nachweisbare Einhaltung von Regeln zur Nutzung oder Bereitstellung von Cloud Computing.” Diese hat das Ziel, “[...] Transparenz und Sicherheit für alle Anspruchsgruppen (Stakeholder) zu schaffen.” und soll dabei unterstützen “[...] die bestehende Zurückhaltung und die Vorbehalte gegenüber den Angeboten zum Cloud Computing aufzulösen”, wodurch die Cloud Compliance eine wichtige Basis schafft, “[...] um alle Vorteile des Cloud Computings für Anbieter und Provider vollumfänglich nutzbar zu machen.”

Böhm sieht vor allem die “[...] Neuartigkeit und die damit verbundene Komplexität des Themas, die Vielzahl von Service-Angeboten und Geschäftsmodellen der Anbieter mit derzeit oft noch unklaren bzw. sich widersprechenden Cloud Definitionen sowie die fehlenden Standards im Markt ” als besondere Herausforderungen der Cloud Compliance an. Für die Erreichung einer passenden Cloud Compliance gilt es daher “[...]die Anforderungen insgesamt zu kennen und hinsichtlich ihrer Bedeutung zu bewerten.” Dabei kann die Kategorisierung der Anforderungen “[...] schematisch nach primär externen Vorgaben (Gesetzen und externen Regelwerken) sowie primär internen Vorgaben (interne Verpflichtungen und Verträge) erfolgen. Die Identifikation als auch die Kategorisierung sollten sowohl Nutzer als auch Anbieter von Cloud Computing individuell für ihre Geschäftszwecke vornehmen.” Ein Compliance Management Systems (CMS), welches zugleich von dem Cloud Nutzer sowie vom Cloud Anbieter eingesetzt werden kann, soll dabei helfen die Ziele und Herausforderungen zu unterstützen. Grundsätzlich gelten für das Cloud Computing keinen eigenen Compliance Regeln, wodurch “[...] die allgemeinen IT-Compliance-Anforderungen Anwendung finden.” Hier gilt es also passende Maßnahmen für klassische IT-Risiken zu ergreifen. Dazu gehören u.a. Sicherheit, Verfügbarkeit, Vollständigkeit und Nachvollziehbarkeit. “Diese verlangen jedoch in jedem Fall eine gesonderte Auseinandersetzung mit den für Cloud Computing spezifischen Risiken.”

Ewald Glöckl empfiehlt das Erstellen einer Anforderungsliste, in der detailliert im ersten Schritt spezifiziert wird, “[...] welche Dienstleistungen sich überhaupt in die Cloud verlagern lassen und welche intern bleiben sollen.” In diesem Zuge muss weiterhin festgelegt werden, “[...] welche Systeme und Services unternehmenskritisch sind oder wichtiges geistiges Eigentum enthalten.” Auf Basis einer Risikoeinstufung wird dann entschieden, welches System bzw. welcher Service für die Cloud geeignet ist und welcher nicht. “Je höher die Risikoeinstufung, desto geringer die Eignung für die Cloud.” Der zweite Schritt sieht eine Überprüfung der Anforderungsliste vor, um zu bestimmen, ob sich die Inhalte der Anforderungsliste so realisieren lassen und wie ein “[...] Kosten-Nutzen-Risiko-Verhältnis für die Umsetzung aussehen würde.” Im Anschluß erfolgt die Evaluation möglicher Cloud Computing Anbieter. Für eine erfolgreiche Einführung von Cloud Services im Unternehmen sieht er eine “[...] sorgfältige Beschreibung aller relevanten, vereinbarten Leistungen in den Vertragsgrundlagen mit dem Dienstleister.” Sollen kritische Geschäftsprozesse mit Hilfe des Cloud Computing unterstützt werden, führt das ebenfalls zu einer Abhängigkeit vom Cloud Computing Anbieter, die ebenfalls als kritisch zu bewerten ist.

Demnach sind laut Glöckl im Vertrag wichtige Details zu definieren. Dazu gehören “[...] die Aufrechterhaltung der Services im Notfall, das Eskalationsmanagement, Vergütungskriterien”, “[...] Regelungen über Teilleistungen und deren Kündigung”, “[...] notwendige Nutzungsrechte von urheberrechtlich geschützten Programmen”, “[...] Lizenzrechte, Haftung, Datenschutz, Datensicherheit” und “[...] Rechte auf Daten bei Beendigung des Vertrags.”



Die Cloud Printing Alliance wächst

Cloud-Printing ist ein ziemlich abstrakter Begriff, aber das Konzept ist revolutionär und birgt sowohl für Unternehmen als auch Verbraucher eine Menge Potential. So kann mittels Cloud Printing unabhängig vom Ort und Endgerät jederzeit gedruckt werden.

Die Cloud Printing Alliance ist eine Partnerschaft von Cortado mit Drucker & WLAN-Router Herstellern sowie Hotspot-Anbieter, Softwareentwicklern und Mobilfunkbetreibern, um gemeinsam das on-demand Drucken für jeden Inhalt, mit jedem Endgerät und an jedem Ort zu ermöglichen.

Zu den Unternehmen die vor kurzem der Cloud Printing Alliance beigetreten sind zählen u.a. Samsung, Sharp, Dell und Toshiba. Das Herz der Vereinigung bildet Cortado, ein Anbieter von mobilen Desktop-Lösungen, der mit seiner Software "Workplace" als Bindeglied zwischen den Druckerherstellern und den mobilen Systemen wie iOS, BlackBerry, Android und Symbian dient. Nutzer des Tools erhalten 2 GB freien online Speicherplatz, den sie nutzen können, um ihre Dokumente zu speichern, um dann on demand via WLAN oder Bluethooth zu drucken.

Laut Cortado handelt es sich bei Workplace aktuell um die einzige Cloud Printing Lösung die unabhängig von mobilen Endgeräten, Druckern und Dateitypen arbeitet. Das Unternehmen hostet derzeit mehr als 5.000 Druckertreiber um damit die Verfügbarkeit der Netzwerkdrucker zu gewährleisten.

Derzeit hat die Cloud Printing Alliance mehr als 184.000 Benutzer weltweit. Das bedeutet eine Steigerung von 84% seit der Gründung der Gruppe im März 2011. Zu den Partnern der Cloud Printing Alliance gehören zurzeit Brother, Dell, Funkwerk, Kodak, Konica Minolta, Kyocera Mita, Lexmark, OKI und Toshiba.

Mehr unter http://www.cloud-printing-alliance.com



Die Herausforderungen des Cloud Computing: Service Level Agreements

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Service Level Agreements

In einem Service Level Agreement (SLA) werden die von einem Anbieter zu erbringenden Leistungen und Abrechnungen fest vereinbart, wodurch die Dienstgüte zwischen dem Anbieter und seinem Kunden vertraglich und rechtsbindend festgelegt wird. Dabei wird der gemeinsame Vertrag aus der Sicht des Kunden beschrieben und der Anbieter hält im Gegenzug die Eigenschaften, den Umfang und die Qualität seiner Leistungen in einem Katalog fest.

Neben den Verfügbarkeiten der Leistungen sind in einem SLA ebenfalls die Ressourcenzuteilungen, die Verfügbarkeitsquote, die Reaktions- und Wartungszeiten sowie Vereinbarungen über Sicherheiten, Priorisierungen, Garantien und Abrechnungsmodelle enthalten. Des Weiteren werden ebenfalls Regelungen bzgl. des Supports und Fehlerbehebungen über bestimmte Fehlerklassen definiert und Reaktions- und Problemlösungszeiten festgelegt. Die entsprechenden Vereinbarungen werden jeweils über einen so genannten Key Performance Indikator (KPI) festgehalten und gemessen.

Darüber hinaus werden in einem SLA Regelungen festgehalten, die bei einem Verstoß des Anbieters gegen die zugesagten Leistungen, Rechtsfolgen nach sich ziehen. Bei der Nichteinhaltung der Verfügbarkeit wird hier z.B. das Malussystem eingesetzt. Aber auch die Pauschalisierung von Schadensersatzregelungen und die Voraussetzungen für eine beiderseitige Kündigung werden hier festgehalten.

Heinz Schick hat dazu einen Katalog mit zwanzig Eckpunkten erstellt, auf die bei der Erstellung eines SLAs geachtet werden sollte.

  1. Systembeschreibung: Detaillierte Anforderungsbeschreibung eines Services durch den Nutzer.
  2. Gültigkeitszeitraum für die SLAs: Festgelegter Zeitraum, in dem die Leistungen erfüllt werden müssen.
  3. Hauptrollen in dem SLA: Zuständigkeitsverteilung, die festlegt, wer für welche Aufgabe verantwortlich ist.
  4. Nutzerzufriedenheit: Spiegelt die Erwartung des eigentlichen Anwenders wieder.
  5. Verfügbarkeit: Legt Zeiträume fest, in denen der Anwender auf den Service uneingeschränkt zugreifen kann.
  6. Geplante Ausfallzeiten: Festgelegte Zeiträume, in denen Wartungen und Notfallübungen vorgenommen werden.
  7. Serviceschnittstellen: Wechselwirkungen zwischen den unterschiedlichen IT-Diensten werden untersucht und detailliert beschrieben.
  8. Zuverlässigkeit: Misst, wie häufig ein System ausfällt und wie lange benötigt wird, bis der Dienst nach der vereinbarten Dienstgüte wiederhergestellt ist.
  9. Leistungserwartung: Beschreibt z.B. die erwarteten Antwortzeiten und Durchsatzraten.
  10. Problem-Reporting und -lösung: Der Betrieb eines Services muss festgehalten werden. Dazu muss zu jedem KPI ein Messverfahren fest definiert und der Umfang des Reporting festgelegt werden.
  11. Benachrichtigungs- und Eskalationswege: Die Eskalationswege im Fehlerfall müssen festgelegt werden. Zudem sollte ein Anbieter bereits frühzeitig auf Probleme hinweisen.
  12. Wartung: Die Systeme müssen regelmäßigen Wartungszyklen unterzogen werden.
  13. Wachstum und Veränderungen: Der Anbieter muss auf Grund seiner eigenen Planungssicherheit von dem Kunden über das erwartete zukünftige Wachstum informiert werden.
  14. Backup und Wiederherstellung: Dabei gilt es Backup- und Recovery Prozesse einzuhalten und über entsprechend ausgebildetes Ersatzpersonal zu verfügen.
  15. Archivierung und Datenspeicherung: Die gesetzlichen und betrieblichen Archivierungsregeln müssen erfüllt werden. Des Weiteren muss ein Archivierungskonzept für die Speichersysteme vorhanden sein.
  16. Business-Recovery und -Continuity: Beschreibt einen Maßnahmenkatalog und eine Notfallplanung im Fehlerfall inkl. der Auswirkung auf die Geschäftsprozesse und einer Risikobewertung.
  17. Security: Ganzheitliche Maßnahmen und Konzepte zum Thema Sicherheit für einen Service.
  18. Regelmäßige Lagebesprechung: Intensive Kommunikation zwischen dem Kunden und dem Anbieter. Dazu gehören ebenfalls die monatliche Überprüfung der KPIs und Diskussionen über weitere Anforderungen und Verbesserungsvorschläge.
  19. Unterschrift: Der Anbieter übernimmt die Verantwortung für die bei ihm gehosteten und von ihm bezogenen Services.
  20. Kontinuierliche Administration: Permanente Kontrolle durch den Kunden. Dazu gehören das Überprüfen der Berichte und Abrechnungen.

Dienstleistungen und Produkte können kostengünstig angeboten werden, wenn sie standardisiert werden. Diesem Konzept bedienen sich auch Cloud Computing Anbieter. Neben ihren Infrastrukturen, Services etc. sind sie auch dazu übergegangen Standard-SLAs anzubieten, die für jeden Kunden gleichermaßen gelten. Auf Nachfrage, je nach Unternehmensgröße und gegen Aufpreis können die SLAs jedoch nachverhandelt und den Unternehmensbedürfnissen angepasst werden.

Daher gilt es für ein Unternehmen, eine sorgfältige Leistungsbeschreibung auf Basis des genutzten Services vorzunehmen. Hier kann sich das Unternehmen zunächst an die unterschiedlichen Servicearten des Cloud Computing, Infrastrucuture-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS) orientieren, um zu bestimmen welche Dienstgüte für welchen genutzten Service benötigt wird.

Aus diesem Grund ist und kann kein SLA gleich sein. Das betrifft auch die Standard SLAs eines jeweiligen Anbieters. Nutzt ein Unternehmen bspw. eine ERP Anwendung auf Basis von SaaS, interessiert hier u.a. die Verfügbarkeit und eine schnelle Antwortzeit der Anwendung. Die Verfügbarkeit der darunter liegenden virtualisierten Umgebung, auf der sich die Anwendung befindet, ist nicht von Interesse. Wird hingegen Infrastruktur auf Basis von IaaS genutzt, ist die Verfügbarkeit eines virtuellen Servers von besonderer Bedeutung. Ebenfalls die Verfügbarkeit aber vor allem die Zuverlässigkeit bei der Nutzung eines Cloud Storage Service muss betrachtet werden. Die Anforderungen an die jeweiligen Cloud Services unterscheiden sich also grundlegend in ihren Eigenschaften und ihrer Abstraktionsebene.

Die folgenden grundlegenden Bereiche, sollte ein Cloud Computing SLA beinhalten:

  • Überblick: Nennt und beschreibt die Parteien (Kunde, Anbieter), die Gegenstand des SLA sind und erläutert grob den Inhalt und die vereinbarten Services, die bezogen werden sollen.
  • Umfang der Arbeiten: Eine ausführlichere Übersicht über die Services, die dem Kunden bereitgestellt werden.
  • Leistungsmessungen: Definition von Metriken, die regelmäßig gemäß den Vereinbarungen überprüft werden müssen. Dazu gehören z.B. die Betriebszeiten, der Durchsatz und die Anzahl der Benutzer, die parallel versorgt werden können. An dieser Stelle gilt es für das Unternehmen sehr genau die Metriken und Messpunkte festzulegen, die den Unternehmensanforderungen im Detail gerecht werden.
  • Vorgehen im Problemfall: Vom Unternehmen muss fest vorgegeben werden, wie sich der Anbieter im Fehlerfall verhält. Also in welchem Zeitraum er den Fehler dem Unternehmen mitteilt und wie er vorgeht, um das Problem zu lösen.
  • Gebührenstruktur: Legt im Detail die Preise fest, die der Anbieter dem Unternehmen für eine entsprechende Leistung abrechnet.
  • Pflichten des Kunden: Legt fest, wie und mit welchen Umfang das Unternehmen den Anbieter mit Informationen versorgt.
  • Zusicherungen/ Garantien: Der Anbieter muss dem Unternehmen gegenüber garantieren und erklären, wie er sicherstellen wird, die Vereinbarungen einzuhalten.
  • Security: Beschreibt die Sicherheitsfunktionen der Services inkl. den Maßnahmen, die vorgenommen werden, wenn es zu einer Sicherheitsverletzung kommt.
  • Compliance: Viele Unternehmen müssen branchenspezifische und regulatorische Anforderungen erfüllen, wie Informationen ausgetauscht werden müssen und wie dieses im Detail sichergestellt wird. Der Anbieter muss dem Unternehmen gegenüber versichern, dass er sich an diese Regelungen ebenso exakt halten wird und einen Notfallplan vorlegen, was vorgenommen wird, wenn es zu einer Außnahmesituation kommt.
    Vertrauliche Informationen und geistiges Eigentum: Es muss im Detail festgehalten werden, wem welches geistige Eigentum obliegt. Ebenso ist der Umgang mit vertraulichen Informationen für beide Seiten zu klären.
  • Haftungsschutz: In einer Cloud befinden sich die Daten eines Unternehmens über viele Standorte hinweg verteilt und werden ggf. von mehreren anderen Unternehmen weiterverarbeitet. Daher muss an dieser Stelle der Haftungsschutz eindeutig festgelegt werden. Dazu gehört neben dem Spezifizieren der Standorte, an denen die Daten des Unternehmens möglicherweise verarbeitet werden könnten ebenso das Sicherstellen, dass jedes weitere Unternehmen, das an dem Verarbeitungsprozess der Daten beteiligt ist, ebenfalls compliant zu den regulatorischen Anforderungen ist.
  • Regelmäßige Überprüfung: Um sicherzustellen, dass unvorhergesehene Probleme noch während der Vertragslaufzeit aufgedeckt werden, müssen feste Termine für regelmäßige Überprüfungen festgelegt werden.
  • Kündigung: Wie es in jedem Vertrag üblich ist, muss auch in dem SLA festgehalten werden, wie der Vertrag von beiden Seiten gekündigt werden kann. Dazu gehören ebenfalls die Schritte nach der Kündigung inkl. einer Beschreibung, wie die Daten in eine neue Umgebung übertragen werden, zusammen mit einem dazugehörigen Zeitplan.
  • Umsetzung: Es muss ein Zeitplan erstellt werden, auf den sich beide Parteien geeinigt haben. Darin wird festgehalten, wann die Übertragung zu dem neuen Service beginnt, der Zeitpunkt, zu dem der neue Service starten soll sowie die wichtigsten Meilensteine und Ergebnisse für beide Seiten.

Ein SLA ist sehr speziell und sollte daher nur für eine bestimmte Art eines Cloud Computing Services gelten. So liegt bspw. bei der Nutzung einer SaaS Applikation das Bereitstellen der Internetverbindung im Verantwortungsbereich des Unternehmens. Allerdings ist speziell die Leistung wie der Durchsatz und die Antwortzeiten sowie die Verfügbarkeit bei der Nutzung einer SaaS Applikation sehr kritisch. Eine performante und verfügbare Internetverbindung des Kunden kann der Cloud Computing Anbieter jedoch nicht garantieren. Hier muss der Kunde mit seinem Netzanbieter über ein separates SLA eine entsprechende Vereinbarung festlegen und Übergabepunkte definieren.



Der Einfluss des Cloud Computing

Cloud Computing steht für den nächsten Paradigmenwechsel in der IT. Jedoch führen der flexible und auf Basis des Verbrauchs abgerechnete Bezug von Ressourcen ebenfalls zu Einflüssen, denen sich Unternehmen stellen müssen.

Cloud Computing bietet Unternehmen eine Vielzahl von Vorteilen in Bezug auf die Art der Nutzung von IT-Ressourcen wie Hard- und Softwaresysteme. So sind Unternehmen im Normalfall für die Wartung der Systeme alleine verantwortlich, was zu hohen Aufwendungen in Zeit und Kapital führt. Durch den Einsatz von Cloud Computing konzentriert sich ein Unternehmen ausschließlich auf den eigentlichen Unternehmenszweck und bezieht die dafür benötigten Ressourcen. So stehen einem Unternehmen quasi unendliche Speicherkapazitäten zur Verfügung, welche Sie auf Grund der hohen Investitionskosten alleine nicht hätten aufbauen können. Dasselbe gilt für das Mitwachsen der IT mit dem Unternehmen. Neue Mitarbeiter erfordern neben der Vergrößerung der Büroflächen ebenfalls die Erweiterung der IT-Infrastruktur, was implizit dazu führt, dass ebenfalls das Wartungspersonal der Infrastruktur im Laufe der Zeit mitwachsen muss.

Wandel von fixen zu variable Kosten

Neben den technischen Vorzügen, die Cloud Computing gegenüber einer eigenen IT-Infrastruktur bietet, stehen auch die finanziellen Vorteile im Vordergrund, die intensive Auswirkungen auf die Kostenstruktur eines Unternehmens mit sich bringen.

Während des Betriebs einer eigenen Infrastruktur oder eines Rechenzentrums befindet sich ein Unternehmen in der Situation während der Anschaffung von Hard- und Softwaresystemen in Vorleistung zu gehen und darüber hinaus weitere Investitionen und Kosten für den Betriebsaufwand zu übernehmen. Die Kostenstruktur des Unternehmens wird damit durch einen enormen Fixkostenblock belastet. Kapital, das fest und auf einen langen Zeitraum hinweg investiert wird.

Cloud Computing Anbieter dagegen investieren gezielt in ihre Infrastruktur, um diese anschließend als Dienstleistung anzubieten. Das Unternehmen reicht seine Kapitalaufwendungen somit an den Cloud Computing Anbieter weiter und bezahlt nur für den Betriebsaufwand, also die tatsächlich genutzten Ressourcen. Das entlastet die Kostenstruktur des Unternehmens, wodurch der Fixkostenblock verkleinert wird und fixe zu variablen Kosten transformiert werden. Die Kapitaldifferenz steht damit für andere Aufwendungen und Projekte zur Verfügung.

Cloud Computing bietet neben der Variabilisierung der Kosten aber deutlich mehr Vorteile und Möglichkeiten. Es ermöglicht Unternehmen den Wandel zu einer flexibleren Organisation und stärkt damit die Agilität.

Erhöhung der Agilität

Mit dem flexiblen Bezug und der bedarfsgerechten Abrechnung der tatsächlich genutzten Ressourcen sind Unternehmen in der Lage agiler auf die aktuellen Anforderungen reagieren zu können. Das betrifft zum einen den Markt, in dem sich das Unternehmen bewegt und zum anderen die eigenen Mitarbeiter, deren Anforderungen an Ressourcen für die Umsetzung neuer Ideen stetig wächst. Eine Studie von CA ergibt, “[...] dass IT-Profis davon ausgehen, dass Cloud Computing die Agilität (63 Prozent), die Innovation (58 Prozent) und die Zusammenarbeit mit dem Geschäftsbereich (57 Prozent) beschleunigen und vorantreiben.”

Dass ebenfalls der Zusammenarbeit mit den Geschäftsbereichen von den IT-Profis ein hoher Stellenwert beigemessen wird, ist nicht verwunderlich. So gilt die Agilität als eine kontinuierliche und enge Abstimmung zwischen den Geschäftsbereichen und der IT.

So ist es nur eine logische Konsequenz, dass die aus der Nutzung des Cloud Computing gewonnene Agilität zur Entwicklung neuer Produkte und Dienstleistungen führt. Das liegt unter anderem darin begründet, dass sich die IT-Mitarbeiter nicht mehr um die tiefgreifenden Details der IT kümmern müssen, die erforderlich sind, wenn ein neues Projekt initiiert wird und dadurch mehr Zeit gewinnen. Dazu gehören bspw. die Beschaffung neuer oder weiterer Serverressourcen oder die Verwaltung des Projektpersonals (Rechtevergabe, Aufnahme in Projektgruppen etc.).

Die Agilität wird zudem dadurch weiter unterstützt, indem mehr ungebundenes Kapital zur Verfügung steht, welches sonst fix und auf eine langen Zeitraum in die IT-Infrastruktur investiert worden wäre. Diese Kapitalressourcen stehen nun neuen Ideen und Projekten zur Verfügung, auf die Mitarbeiter zurückgreifen können um den Status des Unternehmens zu festigen und weiter auszubauen.

Konzentration auf die Kernkompetenzen

Durch die Nutzung des Cloud Computing versetzen sich Unternehmen in die Lage, sich nicht mehr selbst um die Installation, Wartung und Pflege ihrer IT-Infrastruktur kümmern zu müssen. Stattdessen können sie sich auf ihre Kernkompetenzen fokussieren, was vor allem für kleine und mittelständische Unternehmen von besonderem Interesse ist, da diese im Vergleich zu einem großen Unternehmen in der Regel über ein geringes IT-Budget verfügen. Zudem erhöhen Sie ihre Flexibilität im Kerngeschäft, da die benötigten Anforderungen an und durch die IT schneller umgesetzt werden können.

Unternehmen konzentrieren sich somit auf ihren eigentlichen Unternehmenszweck und nutzen die IT lediglich für die Umsetzung ihrer Ziele. Das kommt auch den IT-Abteilungen entgegen, die oft in der Kritik stehen, keinen konkreten Wertbeitrag in das Unternehmen einfließen zu lassen. Auf Basis schnell verfügbarer Ressourcen können die IT-Abteilungen zusammen mit den Fachbereichen neue Anwendungen entwickeln, die bei der Umsetzung der Kernkompetenzen helfen und das Unternehmen damit nachhaltig und messbar unterstützen.

Erzielen von Wettbewerbsvorteilen

Mit dem Einsatz von Cloud Computing müssen sich Unternehmen nicht mehr um den Betrieb und die Wartung der IT-Infrastruktur (Hardware und Software) kümmern. Das führt dazu, dass die Zeit und personellen Ressourcen, die dadurch freigesetzt werden, damit gezielt auf das eigentliche Vorhaben konzentriert werden können. Hinzu kommt, dass Ressourcen deutlich schneller bezogen werden können, wodurch Ideen schneller umgesetzt und die Laufzeit von IT-Projekten verkürzt wird. So wird der Time to Market von IT-basierten Produkten beschleunigt. Mit der flexiblen Anpassung der IT-Ressourcen kann des Weiteren umgehend auf neue Kundenwünsche oder neue Marktverhältnisse reagiert werden.

Einen weiteren Wettbewerbsvorteil erhalten Unternehmen durch die zeit- und ortsunabhängige Zusammenarbeit ihrer Mitarbeiter. Durch den Einsatz bspw. von SaaS über einen Webbrowser oder das Speichern von Dokumenten in der Cloud mittels Storage-as-a-Service ist die Kollaboration nicht mehr auf eine Stadt, ein Land oder einen Kontinent beschränkt. Somit haben Unternehmen nun die Möglichkeit, weltweit die besten Mitarbeiter zu rekrutieren ohne diese aus ihrem gewohnten Umfeld herausreißen zu müssen.

Neustrukturierung von Geschäftsprozessen

In der Cloud steht Unternehmen ein riesiger Marktplatz mit einer Vielzahl von Services zur Verfügung, mit denen ganze Geschäftsprozesse oder nur Teile unterstützt werden können. So ist es durchaus vorstellbar, dass ein Unternehmen seine gesamten Prozesse in die Cloud verlagert und nur dann aktiv nutzt, wenn diese benötigt werden. Das kann sogar soweit führen, dass ein vollständiger Geschäftsprozess innerhalb der Cloud über mehrere Anbieter hinweg verteilt abgebildet wird. Vorstellbar wäre, dass ein Anbieter den Teilprozess A verarbeitet, ein weiterer den Teilprozess B. Ein dritter Anbieter verarbeitet den Teilprozess C und nutzt dabei die Teilprozesse A und B. Oder es wird eine Vielzahl voneinander unabhängiger Services von unterschiedlichen Anbietern verwendet, die zu einem einzigen Service integriert werden. Der Komplexität sind keine Grenzen gesetzt. Ein vermeintlich trivialeres Beispiel hingegen wäre, dass die Daten bei einem Anbieter A gespeichert sind und ein Anbieter B soll diese Daten verarbeiten.

Speziell im Bereich der Logistik werden bereits jetzt viele Teilprozesse unabhängig voneinander integriert. So stehen einem Versandhaus bspw. die Lager vom Unternehmen I und II zur Verfügung, das Schiff von Unternehmen III, die LKWs von den Unternehmen IV, V und VI, die Rechnungsabwicklung von Unternehmen VII sowie die Archivierungsprozesse von Unternehmen VIII.

Das Cloud Computing Konzept kann auf Grund seiner quasi unendlichen Viehlzahl an Services dabei noch deutlich komplexer werden und über den Ansatz des traditionellen IT-Outsourcing weit hinausgehen.

Die Cloud ist daher eine ideale Umgebung, in der Unternehmen die eigenen Geschäftsprozesse bereitstellen können, um diese gezielt spezifischen Märkten und Kunden anzubieten. Dabei stellt das Business Process Management (BPM) die Grundlage für die Bereitstellung dieser Prozesse über die Cloud dar. Mittels BPM erstellen mehrere Unternehmen gemeinsam einen auf eine spezielle Kundengruppe zugeschnittenen Geschäftsprozess. Ein BPM System ist dann für die Überwachung und das Messen der Performanz der unternehmensübergreifenden Geschäftsprozesse zuständig und stellt allen Parteien Echtzeitinformationen zur Verfügung, um den jeweiligen Teilprozess so zu justieren, dass der Gesamtprozess optimal genutzt werden kann.

Die Studie im Auftrag von CA ergab, “[...] dass die IT zunehmend die Form einer Lieferkette (Supply Chain) annimmt. Das traditionelle Supply Chain-Modell kommt aus der Fertigung. Dort werden für die Lieferung von Gütern und Dienstleistungen an die Kunden verschiedene Ressourcen – Technologie, Prozesse, Güter, Services und Personal – in logischer Weise organisiert. Im Rahmen der Migration von Applikationen, Infrastruktur und sogar von Geschäftsprozessen in die Cloud, werden nun auch IT-Abteilungen zu den Managern einer IT-Lieferkette. Dabei nutzen IT-Manager verschiedene interne und externe Ressourcen mit dem Ziel, das Unternehmenswachstum voranzutreiben.”

IT-Abteilungen müssen sich verändern

Der Ansatz und die Konzepte des Cloud Computing beeinflussen auch insbesondere die IT-Abteilungen der Unternehmen, an denen es nun liegt, entsprechende Lösungen in die IT-Strategie des Unternehmens einfließen zu lassen.

Die CA Studie legt offen, dass mehr als die Hälfte der Teilnehmer (54%) der Meinung ist, “[...], dass der aktuelle Wert der IT größtenteils durch ihre Aufgabe als Betreiber der IT-Infrastruktur definiert ist. Die Befragten gehen jedoch davon aus, dass innerhalb der nächsten zwei Jahre die Hauptrolle der IT in der Verwaltung der IT-Supply Chain liegen wird. 50 Prozent gaben an, dass eine Zunahme der cloud-basierten Services – besonders der bisher intern verwalteten – zu dieser Entwicklung beiträgt.”

Nach Christian Wirth wird es in Zukunft Service-Manager geben, die nicht nur zwischen den Geschäftsbereichen und der IT vermitteln müssen, “[...] sondern sich darüber hinaus auch mit verschiedensten Fragen auseinandersetzen, die durch die Einführung von Cloud Computing eine neue Dimension erlangen.“

So ist laut Wirth der Service-Manager neben der Sicherheit der Daten ebenfalls für die Anforderungen an die Compliance, die Einhaltung der SLAs sowie die Zuverlässigkeit und die Performanzsicherstellung des Cloud Service verantwortlich. So muss der Service-Manager, “[...] im Cloud-Zeitalter beim Überprüfen der Performance die Perspektive der Endanwender einnehmen können, um sicherzustellen, dass sie stabilen Zugriff auf Anwendungen haben, die vollständig oder teilweise in die Cloud ausgelagert wurden. Liegt ein Problem außerhalb des Unternehmensnetzes, ist es zudem entscheidend, schnell zu ermitteln, ob es grundsätzlich in bestimmten Regionen oder nur bei bestimmten Internet-Providern auftritt.”
Die oben genannten Veränderungen werden mit der Studie von CA nochmals bekräftigt. „Da die IT-Abteilungen sich von einer Owner- und IT-Betreiber-Infrastruktur zum Manager komplexer interner und externer Services auf mehreren Plattformen wandeln, stehen CIOs vor der Aufgabe, den Wert der IT für das Business neu zu definieren“, [...] „Diese Veränderung schafft für IT-Fachkräfte interessante Möglichkeiten, ihre Fähigkeiten zu erweitern und zum strategischen Berater des Unternehmens zu werden.“

Zudem nennt die Studie konkrete Berufsbezeichnung und Rollen für das Zeitalter des Cloud Computing. Dazu gehören:

  • Cloud Architekt
  • Cloud Service Manager
  • Cloud Integrationsspezialist und -Experte
  • Cloud Security Manager und -Ingenieur
  • Director Cloud Infrastructure
  • Executive Vice President of Cloud Technologies

Anwendungen für die Cloud

Greift ein Unternehmen auf Services aus der Cloud zurück, verwendet es in erster Linie das Konzept des Software-as-a-Service, also der Nutzung von Applikationen über einen Webbrowser. Hier gilt es daher die Entscheidung zu treffen, welche Anwendungen aus der Cloud genutzt und welche weiterhin lokal betrieben werden sollen. Im Falle eines Startups ist die Entscheidung nicht so schwierig, da die Software mit dem Unternehmen langsam mitwachsen kann. Zudem werden unnötige Investitionen in Lizenzen, die Wartung, Installation etc. vermieden. Bei einem renommierten Unternehmen mit einer vorhandenen IT-Infrastruktur und zahlreichen lokalen Softwareinstallationen gestaltet sich die Entscheidung etwas schwieriger. So existieren Anwendungen und ihre Eigenschaften, die prädestiniert dafür sind, in eine Cloud Computing Infrastruktur ausgelagert zu werden bzw. über die Cloud genutzt zu werden.

Dazu gehören zum einen Stand-Alone Anwendungen, bei denen das Risiko für das Unternehmen sehr gering ist. Das betrifft den Ausfall des Systems oder den Diebstahl bzw. die Kompromittierung von Daten. Weiterhin sollten Anwendungen in Betracht gezogen werden, die nur schwer zu berechnende und sehr volatile Datenmengen verarbeiten. Dazu gehören ebenfalls genauso Test- und Entwicklungsplattformen wie Anwendungen, bei denen viele externe Unternehmen gemeinsam auf Informationen zugreifen und miteinander in einer Wertschöpfungskette kollaborieren.



Der KOALA Cloud Manager

Derzeit existieren drei unterschiedliche Arten bzw. Tools wie Cloud Computing Infrastrukturen gesteuert und verwaltet werden können, SaaS-Lösungen, Browser Plugins und Kommandozeilentools. Diese haben je nach Einsatzgebiet ihre Vor- und Nachteile.

So ist die AWS Management Console sehr proprietär und kann ausschließlich dazu genutzt werden, um die AWS Infrastruktur zu verwalten. Angebote wie bspw. Rightscale, Enstratus und Ylastic sind kostenpflichtig zu nutzen und unterstützen darüber hinaus nicht alle Cloud Infrastrukturen am Markt. Hinzu kommt, dass bei diesen Drittanbietern sämtliche Zugangsdaten für den Zugriff auf die Cloud Infrastrukturen hinterlegt werden müssen, was das Vertrauen in den Anbieter voraussetzt.

Betrachten wir die Browser Plugins, existieren derzeit nur wenig nennenswerte, wie bspw. Elasticfox oder Hybridfox, die jedoch ausschließlich für den Firefox verfügbar sind. Darüber hinaus muss hier eine lokale Installation erfolgen, die regelmäßigen Updates unterzogen werden muss, wenn sich Eigenschaften an der zu verwaltenden Cloud Infrastruktur vorgenommen ändern.

Die letzte Kategorie sind die Kommandozeilentools. Die EC2 API Tools unterstützen lediglich die AWS Cloud. Die Euca2ools der Eucalyptus Cloud hingegen bereits sich selbst und die AWS Cloud API. Auch hier ist eine lokale Installation erforderlich und die Administration per Kommandozeile ist heutzutage auch nicht mehr jedermanns Sache!

Eine mögliche Lösung?

Der KOALA (Karlsruhe Open Application (for) cLoud Administration) Cloud Manager möchte bei allen oben genannten Problemen Abhilfe verschaffen. Dabei handelt es sich um einen Cloud Service, der IaaS Nutzern dabei helfen soll, Amazon Web Services (AWS) kompatible Cloud Services und Cloud Infrastrukturen zentralisiert zu verwalten. Dazu unterstützt KOALA die AWS Public Cloud Services sowie die Private Cloud Infrastrukturen Eucalyptus, Nimbus und OpenNebula. Darüber hinaus werden die Cloud Storage Services von Google und Host Europe unterstützt. (Anmerkung der Redaktion: Da der Host Europe Cloud Storage auf der Cloud Storage Technology von Scality basiert, sollte KOALA ebenfalls weitere Cloud Storage Services unterstützen.)

KOALAs ist in der Lage mit Cloud Services zu kommunizieren, welche die APIs der Elastic Compute Cloud (EC2), des Simple Storage Service (S3), des Elastic Block Store (EBS) und des Elastic Load Balancing (ELB) implementieren. Der Benutzer kann mit KOALA Instanzen starten, stoppen und monitoren sowie Volumes und Elastic IP Addresses verwalten. Darüber hinaus können Buckets in Amazon S3, S3-kompatiblen Storage Services wie Walrus und Google Storage erstellt und gelöscht werden. Die Verwaltung ist hier vergleichbar mit dem S3Fox oder dem Google Storage Manager.

Der KOALA Cloud Manager selbst wurde als Service in Python für die Google App Engine entwickelt und kann entweder auf der App Engine direkt (Public Cloud) oder als Private Cloud Variante innerhalb eines App Engine kompatiblen Dienstes wie AppScale oder typhoonAE betrieben werden. AppScale als auch typhoonAE können dabei entweder innerhalb einer Public Cloud wie Amazon EC2 oder einer Private Cloud wie Eucalyptus genutzt werden, um bspw. Sicherheits- und Datenschutz-Bedenken vorzubeugen.

Der KOALA Cloud Manager kann kostenlose genutzt werden. Der Quellcode steht unter der Apache License, Version 2.0. und ist somit Open Source.

Weitere Infos unter http://koalacloud.appspot.com.



Cloud Computing vs. On-Premise und Managed Services

Arten, wie Unternehmen Informationstechnologie für sich einsetzen, gibt es im Grunde genommen nicht viele. Die eine besteht darin, alles selbst zu machen. Die andere darin, alles zu einem Drittanbieter auszulagern. Die dritte ist, eine hybride Lösung zu nutzen, also bestimmte Dinge selbst zu betreiben und gewisse Bereiche verarbeiten zu lassen.

Grundsätzlich unterscheiden wir also den Betrieb einer eigenen IT-Infrastruktur, auch als On-Premise bezeichnet, und den Ansatz des Outsourcingmodells. Für das Outsourcing wird auch oft der englische Begriff Managed Services verwendet.

On-Premise

Beim On-Premise, also dem Betrieb einer eigenen IT-Infrastruktur, verfügt ein Unternehmen über eine vollständig eigene intern zu verwaltende IT-Umgebung. Das gilt selbst dann, wenn das Unternehmen Server in einer Co-Location eines Rechenzentrums angemietet hat. In diesem Fall müssen also sämtliche Vorabinvestitionen in Hardware und Software sowie Kosten für Strom, Kühlung und Personal geleistet werden. Fällt einer oder mehrere Server aus, entstehen dadurch weitere Kosten sowie der Zwang, diese schnellstmöglich durch funktionsfähige Geräte zu ersetzen.

Managed Services

Bei den Managed Services, also der Auslagerung des Betriebs und der Verwaltung der IT-Aufgaben, wird ein externer Dienstleister mit der Wartung beauftragt. In diesem Fall befinden sich die Server im Eigentum des Dienstleisters. Dieser ist für den reibungslosen Betrieb der Infrastruktur zuständig und hat dafür zu sorgen, dass ein fehlerhafter Server umgehend oder je nach dem vereinbarten Service Level Agreement (SLA) auszutauschen.

Der Dienstleister verfügt somit über die Expertise, dem Unternehmen den einwandfreien Betrieb der Server zu garantieren. Des Weiteren ist er für die Wartung der Betriebssysteme verantwortlich, die auf den Servern installiert sind. Das beinhaltet die Versorgung mit Patches etc. und die Betreuung der gesamten Netzwerkinfrastruktur, in der die Server untergebracht sind. Das Unternehmen hat mit dem Dienstleister in der Regel einen langfristigen Vertrag und zahlt diesem für die erbrachten Leistungen eine monatliche oder jährliche Gebühr.

Der Vergleich

Zu diesen beiden IT-Nutzungsmodellen gesellt sich nun das Cloud Computing. In Diskussionen zum Thema Cloud Computing wird von Skeptikern in der Regel die Meinung vertreten, dass Cloud Computing keine nennenswerten Vorteile birgt und es sich dabei nur um alten Wein in neuen Schläuchen handelt.

IT-Manager stehen immer denselben Situationen gegenüber. Dabei entstehen Fragen hinsichtlich der korrekten Softwarelizensierung, in deren Falle viele Unternehmen tappen, da die Übersicht dabei schnell verloren gehen kann. Auch der Zeitpunkt und die Art und Vorgehensweise beim nächsten unternehmensweiten Softwareupdate darf an dieser Stelle nicht unterschätzt werden. Wie verhält es sich beim Ausfall einer Hardware in der Nacht? Zum einen muss dafür das benötigte Personal verfügbar und zum anderen die entsprechende Ersatzhardware vorhanden sein. Ähnlich verhält es sich bei der grundsätzlichen Verwaltung der bestehenden Serverlandschaft und der Entsorgung ausrangierter Althardware, die ordnungsgemäß beseitigt werden muss. Ein weiterer nicht zu unterschätzender Punkt ist die Erweiterung der IT-Infrastruktur. Von der Planung über die Entscheidung bis hin zur letztendlichen Bestellung, Lieferung, der endgültigen Installation und des Testlaufs können dabei mehrere Monate verstreichen. Aber auch steuerrechtliche Themen wie die Abschreibung der IT-Vermögenswerte sind Bereiche, die bei dem Betrieb einer IT-Infrastruktur mit bedacht werden müssen.

Ein Vergleich soll zeigen, dass dem nicht so ist. George Reese hat zu diesem Thema die oben genannten Nutzungsmodelle, On-Premise und Managed Services dem Cloud Computing gegenübergestellt und die Attribute “Investitionskapital”, “Betriebskosten”, “Bereitstellungszeit”, “Flexibilität”, “Anforderungen an das Mitarbeiter KnowHow” und “Zuverlässigkeit” miteinander verglichen. Hierbei hat er eine Gewichtung bzgl. der Wichtigkeit der jeweiligen Attribute auf die entsprechende IT-Nutzung vorgenommen.

Investitionskapital

  • On-Premise:            signifikant
  • Managed Services:   moderat
  • Cloud Computing:     unerheblich

An dieser Stelle gilt es die Frage zu stellen, wie viel Kapital zur Verfügung steht, um die eigene Infrastruktur aufzubauen bzw. Änderungen an dieser vorzunehmen. Bei dem Betrieb eines Eigenen Rechenzentrums muss bspw. in die dafür benötigte Hardware vorab gezielt investiert werden, selbst dann, wenn die Hardware zu dem Zeitpunkt noch nicht benötigt wird. Somit kommt dem Investitionskapital eine hohe Bedeutung zu. Im Falle der Managed Services entstehen Setup Gebühren für die Einrichtung des Systems, die jedoch als angemessen betrachtet werden können. Beim Cloud Computing entstehen keine Vorabinvestitionen und Verpflichtungen. Das Investitionskapital ist an dieser Stelle daher marginal.

Betriebskosten

  • On-Premise:            moderat
  • Managed Services:   signifikant
  • Cloud Computing:     nutzungsbasiert

Die laufenden Kosten für das eigene Rechenzentrum beziehen sich auf die Kosten für das Personal und/ oder Subunternehmer, die für die Verwaltung und den Betrieb der Infrastruktur zuständig sind. Dazu kommen die Kosten für die Gebäude sowie die Nebenkosten, die während des Betriebs entstehen. Erhebliche Abweichungen der laufenden Kosten entstehen speziell mit Subunternehmern, wenn Notfälle oder andere Probleme eintreten und Sonderzahlungen z.B. durch Mehrarbeit entstehen. Managed Services sind verhältnismäßig teuer, jedoch sind die monatlichen Kosten vertraglich fest geregelt, sodass die Aufwendungen, die aufgebracht werden müssen, planbar sind, da diese sehr selten variieren. Die laufenden Kosten beim Einsatz von Cloud Computing hängen von der Art, Länge und Häufigkeit der jeweiligen Nutzung ab. Jedoch besteht hier der entscheidene Vorteil darin, dass nur dann Kosten entstehen, wenn ein Service genutzt wird. Die Abrechnung erfolgt auf Basis der tatsächlichen Nutzung - nicht mehr und nicht weniger. Im Vergleich zu den Managed Services sind die Personalkosten höher, aber deutlich günstiger als bei dem Betrieb eines eigenen Rechenzentrums.

Bereitstellungszeit

  • On-Premise:            signifikant
  • Managed Services:   moderat
  • Cloud Computing:     keine

Die Bereitstellungszeit ist ein entscheidender Faktor, wenn es darum geht, wie lange es dauert, bis z.B. ein neuer Server der bestehenden Infrastruktur hinzugefügt wird. Im Falle eines eigenen Rechenzentrums oder der Managed Services erfolgt zunächst die Planung gefolgt von der sich anschließenden Bestellung und der damit verbunden Wartezeit, bis die neue Komponente endgültig in Betrieb genommen und zunächst getestet wird, bis sie dann am Ende in den Live-Betrieb gehen kann. Bei der Zusammenarbeit mit einem Managed Services Provider ist die Wartezeit geringer im Vergleich zum eigenen Rechenzentrum, vorausgesetzt der Provider hat die benötigten Komponenten vorrätig. Bei der Nutzung des Cloud Computing vergehen von der Entscheidung für einen neuen Server bis zu seiner vollständigen Bereitstellung hingegen nur wenige Minuten.

Flexibilität

  • On-Premise:            limitiert
  • Managed Services:   moderat
  • Cloud Computing:     flexibel

Infrastrukturen sind heutzutage z.T. extremen Anforderungen und unerwarteten Belastungen ausgesetzt. Aus diesem Grund gilt es darauf zu achten, inwieweit eine Infrastruktur etwaige unvorhergesehene Spitzenlasten beherrschen kann, indem sie bei Bedarf weitere Ressourcen bereitstellt. Ein Beispiel wäre eine beschränkte Speicherplatzgröße. Wie verhält sich die Infrastruktur, wenn das Limit des Speicherplatzes plötzlich erreicht ist. Rechenzentren, die selbst betrieben werden, haben von Natur aus eine sehr feste Kapazität und das Hinzufügen von weiteren Ressourcen kann bei Bedarf nur durch den Einsatz von mehr Kapital vorgenommen werden. Zudem ist der Zeitraum von der Notwendigkeit weiterer Ressourcen bis zur endgültigen Bereitstellung sehr lang. Ein Managed Service Provider kann hier temporär mit weiteren Ressourcen aushelfen, indem bspw. die Bandbreite erhöht oder der kurzfristige Zugriff auf alternative Speichermöglichkeiten gewährt wird. Bei der Verwendung des Cloud Computing hingegen kann die entsprechende Cloud Infrastruktur so eingerichtet werden, dass sie im Falle weiterer benötigter Kapazitäten diese automatisch hinzufügt und wieder entfernt, wenn sie nicht mehr benötigt werden.

Anforderungen an das Mitarbeiter Know How

  • On-Premise:            signifikant
  • Managed Services:   limitiert
  • Cloud Computing:     moderat

Bei diesem Attribut geht es um die Frage, wieviel Know How innerhalb des Unternehmens benötigt wird, um die IT-Umgebung zu betreiben. Beim dem Betrieb eines eigenen Rechenzentrums werden entsprechendes Personal oder Subunternehmer benötigt, die über die notwendigen Kenntnisse der Infrastruktur verfügen. Dazu gehört u.a. das Wissen über die Serverhardware und die Betriebssysteme sowie die Betreuung der Systeme, z.B. das Einspielen von Patches, um die Systeme auf dem aktuellen Stand zu halten. Den Vorteil haben an dieser Stelle die Managed Services Provider, da diese sich um die Wartung der Infrastruktur kümmern. Je nachdem wie die Nutzung von Cloud Computing erfolgt, sind entweder mehr oder weniger Kenntnisse erforderlich. Unterstützung bieten hier bspw. Cloud Infrastruktur Manager (Software), die dabei helfen, die verwendete Cloud Umgebung zu verwalten. Jedoch sind hier trotzdem Kenntnisse bzgl. der Einrichtung und der Konfiguration der virtuellen Maschinen Images notwendig.

Zuverlässigkeit

  • On-Premise:            variiert
  • Managed Services:   hoch
  • Cloud Computing:     moderat bis hoch

Die Zuverlässigkeit der Infrastruktur ist ein weiterer wichtiger Punkt, den es zu beachten gilt. Der Aufbau einer hochverfügbaren Infrastruktur im eigenen Rechenzentrum hängt von dem jeweiligen Personal und des verfügbaren Kapitals ab, das in die Infrastruktur investiert werden soll. Ein Managed Services Provider ist an dieser Stelle die bewährteste Alternative. Jedoch ist hier ein Standortvorteil, den eine Cloud auf Grund ihrer Rendundanz bietet, nicht vorhanden. Einer Cloud Infrastruktur fehlt hingegen (noch) die nachgewiesene Erfolgsbilanz der Stabilität.

Fazit

Der Vergleich zeigt, dass es für den Großteil der Unternehmen keinen Sinn mehr ergibt, eine eigene Infrastruktur von Grund auf neu aufzubauen. Lediglich Unternehmen, die bereits hohe Investitionen in das eigene Rechenzentrum vorgenommen haben oder diejenigen, die auf Grund von rechtlichen Hindernissen oder anderweitiger Regularien ihre Daten nicht bei einem Drittanbieter speichern dürfen, können zunächst davon absehen. Sie sollten sich für zukünftige Investionen aber zumindest Gedanken über den Ansatz eines Hybrid Cloud Modells machen.

Alle anderen Unternehmen sollten schließlich auf einen Managed Service Provider oder einen Cloud Computing Anbieter zurückgreifen. Speziell das Pay as you Go Modell und der flexible Ressourcenbezug des Cloud Computing führt bei jedem Unternehmen zu einer höheren Flexibilität und somit einer besseren Agilität und erhöht die Innovationsfreudigkeit bei den Mitarbeitern.



Google vs. Microsoft: Der Kampf um die Vorherrschaft in der Business Cloud

Was mit dem Einstieg von Bing im Suchmaschinenmarkt und der anschließenden Einführung von StreetSide bei der Katalogisierung der Welt begann, weitet sich nun auch auf den Unternehmensbereich aus. Hatte Google mit Google Apps for Business auch hier das erste Produkt, zieht Microsoft nun mit Office 365 nach.

Es wird wahrscheinlich der spannendste Kampf in der Cloud überhaupt. Noch interessanter als bspw. Google vs. Apple oder Google vs. Facebook - der Kampf um die vorherschende Stellung in den Unternehmen, wenn es darum geht, welche Office und Collaboration Suite in Zukunft in der Cloud eingesetzt wird. Microsoft ist der Platzhirsch der lokalen Installation. Google hat sich von Beginn an auf die Nutzung von Cloud Applikationen konzentriert und bewegt sich mit seinen Google Apps for Business derzeit gezielt auf die Unternehmen zu. Das hat auch Microsoft erkannt und schickt im Gegenzug sein Office 365 ins Rennen.

Google geht den Microsoft Weg

Microsofts Weg in die Unternehmen ging damals über die Heimanwender von Windows, Office und Outlook Produkten. Die Strategie ging auf. Wer auch am Abend mit den "bekannten" Programmen aus Redmond arbeitet, hat es tagsüber bei der Arbeit leichter, da er sich damit auskennt. Auch die Empfehlungen für ein Produkt von Microsoft durch die Mitarbeiter war dadurch vorprogrammiert. Dasselbe galt für die Windows Server. Wenn ein Windows Betriebssystem so einfach zu bedienen und zu konfigurieren ist, dann kann ein Server schließlich nicht viel komplizierter sein. Damit konnten auch die Entscheider ins Boot geholt werden.

Googles Strategie könnte bzw. sollte ähnlich verlaufen. Schätzungsweise nutzen bereits 200 Millionen Nutzer weltweit Google Mail. Damit erhalten diese ebenfalls kostenlosen Zugriff auf die Produkte Google Calendar als auch Google Docs, neben Google Groups die drei Kernanwendungen der Google Apps for Business. Ideal, um potentielle Unternehmensanwender mit dem Google Gen zu infizieren und damit Google Apps for Business in den Unternehmen zu platzieren.

Google hat gegenüber Microsoft den Vorteil, dass Sie in der Cloud "geboren" sind und darin "leben". Microsoft hingegen ist erst "eingezogen" und ist noch dabei (technologisch) seinen Platz zu finden. Microsofts Vorteil besteht eindeutig in seinen bestehenden Beziehungen zu den Unternehmenskunden. Weltweit nutzen schätzungsweise 80% der Unternehmen Produkte aus dem Hause Microsoft, darunter Windows, Office, Outlook und Exchange. Nicht zu vergessen weitere Produkte wie Dynamics CRM usw. Damit hat Microsoft einen enormen Vertrauensvorsprung gegenüber Google. Auch die Wechselkosten bspw. von einer On-Premise Exchange Installation hin zu Office 365 scheinen deutlich günstiger und einfacher, da die Schnittstellen auf beiden Seiten durch Microsoft spezifiziert sind. Hier muss jedoch fairerweise gesagt werden, dass Google über gute Migrationstools von unterschiedlichen Systemen hin zu Google Apps verfügt.

Googles Schwierigkeit besteht jedoch darin Vertrauen aufzubauen. Das Unternehmen aus Mountain View gilt immer noch als die alleinherrschende Datenkranke und ist zudem bei den meisten weiterhin "nur" als eine Suchmaschine bekannt. Aber auch technologisch muss Google nachbessern. Wer aus der Windowswelt kommt, kennt die zentralen Ordnerstrukturen auf den Dateiservern. Die Ordnerstruktur unter Google Docs ist hier sehr unelegant gelöst. Es existiert kein zentraler Bereich, in dem die Nutzer ihre Daten allen zur Verfügung stellen können. Stattdessen erhalten andere Benutzer nur über persönliche Freigaben den Zugriff auf die Daten eines bestimmten Nutzers. Natürlich kann alles über die integrierte Suche gefunden werden, was auch zu Google passt, ist für den Unternehmenseinsatz jedoch sehr unpraktisch.

Die Mobile Cloud

Google hat insbesondere im wichtigen Unternehmensbereich der Mobile Cloud die Nase vorne. Die vollständige Integration von Google Apps (Google Mail, Google Kalender, Google Kontakte usw.) in Android, den Chrome Webbrowser und somit auch in den Chromebooks per sync bzw. push über eine drahtlose Internetverbindung (WLAN, 3G) ist ein entscheidener Vorteil gegenüber Microsoft.

Microsoft hat es seit jeher nicht geschafft ein gutes und stabiles Betriebssystem für mobile Endgeräte zu entwickeln und darüber hinaus eine nahtlose und gute Integration (sync) bspw. zu Outlook zu schaffen. Zudem muss alles per Active Sync vorgenommen werden, wozu das Endgerät an den lokalen Computer angeschlossen werden musste. Windows Phone 7 könnte möglicherweise ein erster guter Schritt sein.

Tipps für Google

Für Google gilt es in erster Linie Vertrauen zu schaffen und über den Schatten der Suchmaschine weiter hinauszukommen. Das Image der Datenkrake wird wahrscheinlich niemals vollständig verschwinden, aber über den Aufbau von Vertrauen zu den Unternehmen kann daran aber gearbeitet werden.

Darüber hinaus sollte die Strategie verfolgt werden, über den privaten Google Nutzer in die Unternehmen zu gelangen. Der gewöhnliche Mitarbeiter hat doch mehr Einfluss als gedacht.

Technologisch und organisatorisch muss Google Docs unbedingt nachgebessert werden. Das Nichtvorhandensein einer zentralen Ordnerstruktur führt zu einer schlechten Übersicht der Daten, da sich diese überall und bei jedem Benutzer, der zu der Google Apps Domain gehört, befinden können. Wir haben uns bisher so geholfen, dass wir bei einem Benutzer die Ordnerstruktur aufgebaut haben in der alle anderen Nutzer neue Ordner und Dokumente ablegen. Das ist jedoch sehr unpraktisch. Die Idee für den Privatbereich ist gut, um einem Freund mal eben schnell nur eine bestimmte Datei freizugeben. Für den Einsatz im Unternehmen, ist dieses Vorgehen aber nicht praktikabel. Vermutlich handelt es sich dabei um eine Funktion, die aus den Versionen für den privaten Einsatz einfach übernommen wurden. Es sollte daher zwar private Bereiche geben, aber ebenfalls einen zentralen Ort, auf denen alle Benutzer zugreifen können ohne das vorher Freigaben etc. erstellt werden müssen.

Die Angst bzgl. des Datenschutzes, der Datensicherheit und der Compliance ist den Köpfen der Entscheider weiterhin sehr hoch angesiedelt. Insbesondere der Zugriff von Regierungen und staatlichen Behörden auf die Unternehmensdaten ist ein Knock-Out Kriterium. Google muss sich hier eindeutig davon distanzieren, jemals den Zugriff durch staatliche Organe usw. auf die Daten zu gewähren und dieses seinen Kunden vertraglich zusichern. Dieses kann durch politische Vorgaben, wie bspw. dem Patriot Act oder einem Abkommen zwischen zwei Staaten jedoch erschwert werden. Im zweiten Fall wird bspw. geregelt, dass ein Staat A einem anderen Staat B im Verdachtsfall die Daten aushändigen muss. Und das gilt ebenfalls unabhängig davon, ob es sich bei dem Unternehmen um einen Cloud Computing Anbieter handelt oder ob sich die Daten auf einem Server im eigenen Rechenzentrum befinden.

Darüber hinaus könnten die Google Apps for Business als On-Premise Lösunge für die Unternehmen angeboten werden, die über eine Private Cloud verfügen und ihre Daten nicht aus der Hand geben wollen, dürfen oder können.

Tipps für Microsoft

Microsoft hat auf Grund der aktuellen Präsenz im On-Premise Geschäft die besseren Karten. Jedoch war die Aussage, Regierungen und stattlichen Behörden auf Anfrage ggf. den Zugriff auf die Daten zu gewähren, ein schwerwiegender Fehler, wodurch das Vertrauen in Microsoft gesunken ist. Zumindest zeigen das die Diskussionen vergangener Tage, zu denen sogar die Cloud Infrastrukturanbieter keine konkrete Stellung beziehen wollen.

Insbesondere in dem Bereich der Mobile Cloud muss Microsoft kräftig investieren und Boden gut machen. Die Mobilität und der Wunsch auf die Daten und Anwendungen zu jeder Zeit und an jedem Ort zuzugreifen wird weiter steigen. Hier muss ein Umdenken stattfinden. Einen Chromebook Clone auf Basis von Windows zu entwickeln wird da nicht ausreichen.

Fazit

Der Kampf um den Bereich für Unternehmensanwendungen in der Cloud hat erst begonnen und es bleibt weiter spannend. Speziell Microsofts Aussage, mit den Regierungen zusammenarbeiten zu wollen, könnte Google das Stück Vertrauen verschaffen das für den Einsatz von Google Apps im Unternehmen notwendig ist.

Es bleibt zudem interessant zu sehen, wie sich das Windows Phone 7 und die Integration der Office 365 Cloud Services entwickeln werden, damit Microsoft auch hier Boden gut machen kann.

Alles in allem stehen hier zwei Unternehmen mit ihren Produkten gegenüber, die es beide verdient hätten, in den Unternehmen eingesetzt zu werden - am Ende entscheidet jedoch die jeweilige Cloud Strategie.



Einrichtung einer openQRM Cloud mit KVM auf Ubuntu Lucid Lynx

Dieses Tutorial dient als Schritt für Schritt Anleitung zur Einrichtung einer openQRM Cloud auf einem Ubuntu 10.04 Lucid Lynx und der KVM Virtualisierungstechnologie. Benötigt wird dafür ein physikalisches System, auf welchem VT (Virtualization Technology) aktiviert ist.

1. Los geht es mit einer neuen Ubuntu Lucid Linux Installation

Während der Installation des Systems nehmen wir eine manuelle Partitionierung vor und erstellen 3 Partitionen:

  • 1 - primary ext4 mounted at / (the rootfs)
  • 2 - primary swap
  • 3 - primary "nicht verwenden" (wird zum Speichern des Server-Image benötigt)

An dieser Stelle ist es wichtig zu beachten, ein benutzerspezifisches Partitionsschema zu wählen und eine dedizierte Partition zu erstellen, auf der später die Server-Images gespeichert werden. Diese Partition wird dann als "do not use" markiert.

Wenn die Installation abgeschlossen ist, starten wir das System neu und melden uns an. Wurde zu beginn die Ubuntu-Server Version installiert muss zusätzlich das "ubuntu-desktop" package installiert werden.

matt@cloud:~$ sudo apt-get install ubuntu-desktop

2. Vorbereiten des Netzwerks

Zunächst installieren wir die "bridge-utils".

matt@cloud:~$ sudo apt-get install bridge-utils
Reading package lists... Done
Building dependency tree
...
Setting up bridge-utils (1.4-5ubuntu2) ...
matt@cloud:~$

Anschließend editieren wir "/etc/network/interfaces" und richten eine Bridge mit einer statischen, privaten IP-Adresse ein.

matt@cloud:~$ sudo /etc/init.d/networking restart
* Reconfiguring network interfaces...
Waiting for br0 to get ready (MAXWAIT is 2 seconds).
ssh stop/waiting
ssh start/running, process 2864
matt@cloud:~$

Wir führen den Befehl "brctl show" aus und überprüfen damit die Netzwerkkonfiguration.

matt@cloud:~$ brctl show
bridge name bridge id STP enabled interfaces
br0 8000.002215be747a no eth0
matt@cloud:~$

Nun hinterlegen wir die statische IP-Adresse (in unserem Fall "192.168.88.3") und den Hostname (in unserem Fall "cloud") in der /etc/hosts. Der Hostname darf hierbei nicht in der ersten Zeile zusammen mit 127.0.0.1 stehen!

matt@cloud:~$ cat /etc/hosts
127.0.0.1 localhost
192.168.88.3 cloud.openqrm cloud
# The following lines are desirable for IPv6 capable hosts
::1 localhost ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
matt@cloud:~$

3. Vorbereiten des Speicherplatz für die Server-Images

Wir installieren lvm2, nfs-kernel-server, iscsi-target und vblade.

matt@cloud:~$ sudo apt-get install lvm2 nfs-kernel-server iscsitarget vblade
Reading package lists... Done
Building dependency tree
...
ldconfig deferred processing now taking place
Processing triggers for initramfs-tools ...
update-initramfs: Generating /boot/initrd.img-2.6.32-21-server
matt@cloud:~$

Nun bereiten wir die dedizierte Partition aus Schritt 1 so vor, dass sie zusammen mit lvm genutzt werden kann. Anschließend erstellen wir eine Logical Volume Group "vol".

matt@cloud:~$ sudo pvcreate /dev/sda3
Physical volume "/dev/sda3" successfully created
matt@cloud:~$ sudo pvs
PV VG Fmt Attr PSize PFree
/dev/sda3 lvm2 -- 186.23g 186.23g
matt@cloud:~$ sudo vgcreate vol /dev/sda3
Volume group "vol" successfully created
matt@cloud:~$ sudo vgs
VG #PV #LV #SN Attr VSize VFree
vol 1 0 0 wz--n- 186.22g 186.22g
matt@cloud:~$

Wir editieren /etc/default/iscsitarget und konfigurieren "iscsitarget" so, dass es während des Bootvorgangs startet.

matt@cloud:~$ cat /etc/default/iscsitarget
ISCSITARGET_ENABLE=true
matt@cloud:~$

Nun starten wir "iscsitarget" und die "nfs-kernel-server" Services.

matt@cloud:~$ sudo /etc/init.d/iscsitarget start
* Starting iSCSI enterprise target service
matt@cloud:~$
matt@cloud:~$ sudo /etc/init.d/nfs-kernel-server start
* Exporting directories for NFS kernel daemon...
* Starting NFS kernel daemon
matt@cloud:~$

4. Vorbereiten der Datenbank

Als Datenbank für den openQRM Server nutzen wir das Package "mysql-server".

matt@cloud:~$ sudo apt-get install -y mysql-server
Reading package lists... Done
Building dependency tree
...
Setting up mysql-server (5.1.41-3ubuntu12) ...
Processing triggers for libc-bin ...
ldconfig deferred processing now taking place
matt@cloud:~$

Aus Gründen der Einfachheit wird in diesem Beispiel das MySQL Passwort leer gelassen.

5. Vorbereiten von KVM

Dafür installieren wir das "kvm" Package.

matt@cloud:~$ sudo apt-get install -y kvm
Reading package lists... Done
Building dependency tree
.....
Setting up qemu-kvm (0.12.3+noroms-0ubuntu9) ...
qemu-kvm start/running
Setting up kvm (1:84+dfsg-0ubuntu16+0.12.3+noroms+0ubuntu9) ...
Processing triggers for libc-bin ...
ldconfig deferred processing now taking place
matt@cloud:~$

6. Installation von openQRM

openQRM wird in diesem Tutorial aus den Sourcen erstellt. Diese sind in dem Subversion Repository des openQRM Projects verfügbar. Für die Installation sind hier lediglich ein Subversion Client und "make" notwendig. Diese sollten also installiert werden.

matt@cloud:~$ sudo apt-get install -y subversion make
Reading package lists... Done
Building dependency tree
...
Setting up subversion (1.6.6dfsg-2ubuntu1) ...
Processing triggers for libc-bin ...
ldconfig deferred processing now taking place
matt@cloud:~$

Nun müssen die openQRM Sourcen aus dem SVN Repository ausgecheckt werden.

matt@cloud:~$ svn co https://openqrm.svn.sourceforge.net/svnroot/openqrm openqrm
....
matt@cloud:~$

Wir wechseln in das src/ Verzeichnis.

matt@cloud:~$ cd openqrm/trunk/src/
matt@cloud:~/openqrm/trunk/src$

Anschließend führen wir "make" aus. Dafür wird eine funktionsfähige Internetverbindung benötigt. Sollte dieses nicht der Fall sein, können die Sourcen auch von http://sourceforge.net/projects/openqrm/files/openQRM-4.6/source/openqrm-thirdparty-cache.tgz/download heruntergeladen werden. Diese müssen danach in das Home-Verzeichnis entpackt werden.

matt@cloud:~/openqrm/trunk/src$ make
....

Alle Ergebnisse der Kompilierung werden vom openQRM-Build System automatisch gecached. Um sicherzustellen, dass alle Komponenten richtig erstellt wurden, kann "make" einfach erneut ausgeführt werden.

matt@cloud:~/openqrm/trunk/src$ make
Checking requirements for the compilation phase
openqrm-server requires: make, gcc, portmap, rsync, zlib1g-dev, wget, tar, bzip2, unzip, wget, netbase, patch
found make installed
found gcc installed
found portmap installed
found rsync installed
found zlib1g-dev installed
found wget installed
found tar installed
found bzip2 installed
found unzip installed
found wget installed
found netbase installed
found patch installed
openqrm-plugin-aoe-storage requires:
openqrm-plugin-aws requires:
openqrm-plugin-citrix requires:
openqrm-plugin-cloud requires:
openqrm-plugin-collectd requires:
openqrm-plugin-dhcpd requires:
openqrm-plugin-dns requires:
openqrm-plugin-equallogic-storage requires:
openqrm-plugin-highavailability requires:
openqrm-plugin-image-shelf requires:
openqrm-plugin-iscsi-storage requires:
openqrm-plugin-kvm requires:
openqrm-plugin-kvm-storage requires:
openqrm-plugin-linux-vserver requires:
openqrm-plugin-linuxcoe requires:
openqrm-plugin-local-server requires:
openqrm-plugin-local-storage requires:
openqrm-plugin-lvm-storage requires:
openqrm-plugin-nagios2 requires:
openqrm-plugin-nagios3 requires:
openqrm-plugin-netapp-storage requires:
openqrm-plugin-nfs-storage requires:
openqrm-plugin-puppet requires:
openqrm-plugin-sanboot-storage requires:
openqrm-plugin-solx86 requires:
openqrm-plugin-sshterm requires:
openqrm-plugin-tftpd requires:
openqrm-plugin-tmpfs-storage requires:
openqrm-plugin-vbox requires:
openqrm-plugin-vmware-esx requires:
openqrm-plugin-vmware-server requires:
openqrm-plugin-vmware-server2 requires:
openqrm-plugin-windows requires:
openqrm-plugin-xen requires:
openqrm-plugin-xen-storage requires:
openqrm-plugin-zabbix requires:
openqrm-plugin-zfs-storage requires:
Checking for required components to compile openQRM finished successfully
if [ -d ./thirdparty ]; then mkdir -p ../buildtmp; cp -aR ./thirdparty/* ../buildtmp/; fi
-> found component kvm-nic-bios (kvm-nic-bios-1.1.tgz) already downloaded
-> found component gpxe (undionly.kpxe.0.9.9.tgz) already downloaded
-> found component sshterm-component (openqrm-plugin-sshterm-components-1.0.tgz) already downloaded
-> found component openqrm-client.windows (openQRM-Client-4.6.1-setup.exe) already downloaded
Creating the default initrd-template
-> found component busybox (busybox-1.14.2.tar.bz2) already downloaded
-> Found busybox-1.14.2/_install/bin/busybox already in the build-cache
-> Skipping compilation, taking the ready built component from the cache
-> found component pciutils (pciutils-3.1.4.tar.gz) already downloaded
-> Found pciutils-3.1.4/pcimodules already in the build-cache
-> Skipping compilation, taking the ready built component from the cache
-> found component dropbear (dropbear-0.52.tar.gz) already downloaded
-> Found dropbear-0.52/dropbear already in the build-cache
-> Skipping compilation, taking the ready built component from the cache
/lib64/ld-2.11.1.so /lib64/ld-linux-x86-64.so.2
Adding /sbin/portmap to default initrd-template
Adding /sbin/rpc.statd to default initrd-template
Adding /bin/bash to default initrd-template
Adding /usr/bin/rsync to default initrd-template
Adding /usr/bin/wget to default initrd-template
Adding /sbin/modprobe to default initrd-template
Adding /sbin/depmod to default initrd-template
Adding /sbin/insmod to default initrd-template
Adding /sbin/lsmod to default initrd-template
Adding /sbin/mke2fs to default initrd-template
Adding /sbin/sfdisk to default initrd-template
Adding /sbin/udevd to default initrd-template
Adding /sbin/blkid to default initrd-template
/lib64/libnss_files-2.11.1.so /lib64/libnss_files.so.2
-> found component jquery (jquery-1.3.2.tgz) already downloaded
-> found component js-interface (interface_1.2.zip) already downloaded
-> found component openqrm-client.centos.i386 (openqrm-client.4.6.1.centos.i386.tgz) already downloaded
-> found component openqrm-client.centos.x86_64 (openqrm-client.4.6.1.centos.x86_64.tgz) already downloaded
-> found component openqrm-client.debian.i386 (openqrm-client.4.6.1.debian.i386.tgz) already downloaded
-> found component openqrm-client.debian.x86_64 (openqrm-client.4.6.1.debian.x86_64.tgz) already downloaded
-> found component openqrm-client.ubuntu.i386 (openqrm-client.4.6.1.ubuntu.i386.tgz) already downloaded
-> found component openqrm-client.ubuntu.x86_64 (openqrm-client.4.6.1.ubuntu.x86_64.tgz) already downloaded
-> found component openqrm-initrd-template.centos.i386 (openqrm-initrd-template.4.6.1.centos.i386.tgz) already downloaded
-> found component openqrm-initrd-template.centos.x86_64 (openqrm-initrd-template.4.6.1.centos.x86_64.tgz) already download
-> found component openqrm-initrd-template.debian.i386 (openqrm-initrd-template.4.6.1.debian.i386.tgz) already downloaded
-> found component openqrm-initrd-template.debian.x86_64 (openqrm-initrd-template.4.6.1.debian.x86_64.tgz) already download
-> found component openqrm-initrd-template.ubuntu.i386 (openqrm-initrd-template.4.6.1.ubuntu.i386.tgz) already downloaded
-> found component openqrm-initrd-template.ubuntu.x86_64 (openqrm-initrd-template.4.6.1.ubuntu.x86_64.tgz) already download
-> found component kvm-nic-bios (kvm-nic-bios-1.1.tgz) already downloaded
-> found component gpxe (undionly.kpxe.0.9.9.tgz) already downloaded
-> found component sshterm-component (openqrm-plugin-sshterm-components-1.0.tgz) already downloaded
-> found component openqrm-client.windows (openQRM-Client-4.6.1-setup.exe) already downloaded
matt@cloud:~/openqrm/trunk/src$

Nun führen wir "sudo make install" aus.

matt@cloud:~/openqrm/trunk/src$ sudo make install
Creating the openqrm-client boot-service package
include/
include/openqrm-plugin-kvm-functions
.... further install output
sbin/
sbin/openqrm-kvm-storage-monitord
matt@cloud:~/openqrm/trunk/src$

Am Ende initialisieren und starten wir openQRM mittels "sudo make start".

matt@cloud:~/openqrm/trunk/src$ sudo make start
.... runtime dependency check, automatic install additional requirements
...
openqrm-plugin-xen requires: , screen
-> found screen installed
openqrm-plugin-xen-storage requires: , screen
-> found screen installed
openqrm-plugin-zabbix requires:
openqrm-plugin-zfs-storage requires: , open-iscsi
-> found open-iscsi installed
Checking for required components finished successfully
First startup detected. Running initialization.

Adding system startup for /etc/init.d/openqrm ...
/etc/rc0.d/K24openqrm -> ../init.d/openqrm
/etc/rc1.d/K24openqrm -> ../init.d/openqrm
/etc/rc6.d/K24openqrm -> ../init.d/openqrm
/etc/rc2.d/S98openqrm -> ../init.d/openqrm
/etc/rc3.d/S98openqrm -> ../init.d/openqrm
/etc/rc4.d/S98openqrm -> ../init.d/openqrm
/etc/rc5.d/S98openqrm -> ../init.d/openqrm
Looking for syslinux/pxelinux.0...found: /usr/lib/syslinux/pxelinux.0
Creating custom apache config.../etc/apache2/conf.d/openqrm-httpd.conf
Checking /usr/share/openqrm/etc/openqrm-server.conf for OPENQRM_WEB_PROTOCOL=https.. * Reloading web server config apache2
Adding password for user openqrm
Initializing dropbear...
Will output 1024 bit rsa secret key to '/usr/share/openqrm/etc/dropbear/dropbear_rsa_host_key'
Generating key, this may take a while...
Public key portion is:
ssh-rsa xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxroot@cloud
Fingerprint: md5 28:46:66:b4:b7:59:b6:28:70:ec:2b:6f:16:4a:dd:70
Adding public key to /root/.ssh/authorized_keys...
Starting the openQRM-server ver. 4.6.
Initialization complete. Please configure your openQRM Server at: http://[server-ip-address]/openqrm/
-> User: openqrm -> Password: openqrm
matt@cloud:~/openqrm/trunk/src$

"make start" führt zusätzlich eine Check-Routine aus, die überprüft, dass alle Abhängigkeiten für die Einwandfreie Nutzung von openQRM vorhanden sind. Ggf. nicht vorhandene Pakete werden automatisch installiert.

Während des ersten Starts wird der openQRM Server initialisiert. Nachdem openQRM vollständig installiert wurde, kann nun die Konfiguration mittels der Weboberfläche vorgenommen werden.

7. Konfiguration von openQRM

Wir melden uns am openQRM Server per http://localhost/openqrm an. Der Benutzer und das Passwort sind jeweils "openqrm". Nach der Konfiguration sollten diese Daten geändert werden.

Als erstes wählen wir als Netzwerkkarte die Bridge Schnittstelle für das openQRM Management.

Als Datenbank für das openQRM Backend wählen wir "myslq".

Anschließend konfigurieren wir die Verbindungsinformationen für die Datenbank.

openQRM ist nun vollständig konfiguriert.

Wir werden automatisch zum Datacenter Dashboard weitergeleitet.

8. Vorbereiten der Server-Images

Als Nächstes müssen wir die folgenden Plugins aktivieren und starten:

  • cloud
  • dhcpd
  • image-shelf
  • kvm
  • lvm-storage
  • tftpd

Anschließend wechseln wir nach Base >> Components >> Create >> Storage. Dort erstellen wir einen neuen Speicher vom Typ "Lvm Storage Server (NFS)" und wählen den openQRM Server als Ressource.

Wir geben dem Storage Server einen Namen und speichern diesen.

Die Liste der verfügbaren Speicher sind nun wie folgt aus.

Wir klicken auf den "Mgmt" Button des neu erstellten "lvm-nfs" Storage Server.

Hier wählen wir die Volume Group "vol".

Nun erstellen wir ein neues Volume mit dem Namen "ubuntu64" und einer Größe von 5000 MB.

Im Anschluss erstellen wir ein weiteres Volume mit dem Namen "debian64" und einer Größe von 5000 MB.

Nun wechseln wir nach Base >> Components >> Create >> Image und erstellen Images aus den eben erstellten Volumes. Im ersten Schritt wählen wir den Storage Server auf dem die Images physikalisch gespeichert sind.

Anschließend geben wir dem Image einen Namen (in diesem Beispiel "ubuntu64") und wählen das "ubuntu64" Volume als das Root-Device.

Dieses wiederholen wir für ein weiteres Image und geben diesem den Namen "debian64" und wählen das "debian64" Volume als das Root-Device.

Die Liste der verfügbaren Images sind nun wie folgt aus.

Auf der Konsole erhalten wir folgende Ausgabe:

matt@cloud:~$ df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda1 38543848 3470824 33115088 10% /
none 1523376 324 1523052 1% /dev
none 1528204 200 1528004 1% /dev/shm
none 1528204 164 1528040 1% /var/run
none 1528204 0 1528204 0% /var/lock
none 1528204 0 1528204 0% /lib/init/rw
none 38543848 3470824 33115088 10% /var/lib/ureadahead/debugfs
/dev/mapper/vol-ubuntu64
5039616 141212 4642404 3% /vol/ubuntu64
/dev/mapper/vol-debian64
5039616 141212 4642404 3% /vol/debian64
matt@cloud:~$ sudo exportfs
/vol/ubuntu64 192.168.88.3
/vol/debian64 192.168.88.3
matt@cloud:~$ ls /vol/ubuntu64/
lost+found
matt@cloud:~$ ls /vol/debian64/
lost+found
matt@cloud:~$

Mittels des "image-shelf" Plugin werden die weiterhin noch leeren Images mit dem Root Dateisystem befüllt.

Dazu gehen wir nach Plugins >> Deployment >> Image-Shelf >> Import und wählen das "openqrm-enterprise" Image-Shelf.

Hier erhalten wir nun eine liste von verfügbaren Server Templates. Wir wählen das "Ubuntu x86_64" und klicken auf "get".

Nun wählen wir das Image zu dem die Server Templates hinzugefügt werden sollen. Wir nehmen das "ubuntu64" Image, dass wir vorhin erstellt haben und klicken "put".

Image-Shelf verarbeitet nun die Anfrage im Hintergrund. Dabei werden die ausgewählten Server Templates heruntergeladen und auf dem Storage Server entpackt. Der gesamte Vorgang nimmt ein wenig Zeit in Anspruch.

Derselbe Vorgang muss für das "debian64" Image ebenfalls vorgenommen werden.

Nachdem Image-Shelf die Verarbeitung abgeschlossen hat, erhalten wir folgende Konsolenausgabe:

matt@cloud:~$ df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda1 38543848 3552184 33033728 10% /
none 1523376 324 1523052 1% /dev
none 1528204 200 1528004 1% /dev/shm
none 1528204 164 1528040 1% /var/run
none 1528204 0 1528204 0% /var/lock
none 1528204 0 1528204 0% /lib/init/rw
none 38543848 3552184 33033728 10% /var/lib/ureadahead/debugfs
/dev/mapper/vol-ubuntu64
5039616 1144532 3639084 24% /vol/ubuntu64
/dev/mapper/vol-debian64
5039616 1084104 3699512 23% /vol/debian64
matt@cloud:~$ sudo exportfs
/vol/ubuntu64 192.168.88.3
/vol/debian64 192.168.88.3
matt@cloud:~$ ls /vol/ubuntu64/
bin cdrom etc initrd.img lib64 media opt root selinux sys usr vmlinuz
boot dev home lib lost+found mnt proc sbin srv tmp var
matt@cloud:~$ ls /vol/debian64/
bin cdrom emul home lib lib64 media opt root selinux sys usr vmlinuz
boot dev etc initrd.img lib32 lost+found mnt proc sbin srv tmp var
matt@cloud:~$

Beide Images sind nun mit einem validen Root Dateisystem befüllt. Die Konfiguration der openQRM Cloud kann nun fortgeführt werden.

9. Erstellen eines KVM Host

Nun müssen wir openQRM die virtualisierten Hosts mitteilen. Dazu gehen wir nach Base >> Appliances >> Create und wählen "openQRM Server" als "resource".

Wir geben der neuen Appliance einen Namen (in diesem Beispiel "kvm-host"), setzen den "resource-type" auf "KVM Host" und speichern.

Die Liste der Appliances sieht nach dem Erstellen der "kvm-host" Appliance wie folgt aus.

10. Konfiguration der openQRM Cloud

Nun wechseln wir nach Plugins >> Cloud >> Configuration >> Main Config und konfigurieren die folgenden Punkte:

  • cloud_admin_email > eine valide E-Mail Adresse
  • auto_provision → true
  • external_portal_url → (optional) externe URL zu einem Cloud Portal
  • request_physical_systems → false
  • auto_give_ccus → 100
  • show_disk_resize → (optional) true
  • show_private_image → true
  • cloud_currency → (optional) auf US oder Euro setzen
  • cloud_1000_ccus → Wie viele 1000 CCUs wie viel US/Euro entsprechen

Für alle weiteren Konfigurationspunkte können die Standardwerte genommen werden. Speichern nicht vergessen!

Der folgende Screenshot zeigt die Hauptseite zur Konfiguration der Cloud.

Als nächstes müssen die Cloud Produkte mittels des "Cloud-Selector" konfiguriert werden.

Dazu gehen wir nach Plugins >> Cloud >> Configuration >> Products >> Kernel und erstellen ein neues "Ubuntu64" Kernel Produkt.

Diesen Schritt wiederholen wir, um ein "Debian64" Kernel Produkt zu erstellen.

Im Anschluss erstellen wir ein "KVM VM" Virtualisierung Produkt.

Das sieht dann wie im folgenden Screenshot aus.

Der nächste Schritt besteht darin, der Cloud mitzuteilen, welche Images den Cloud Benutzern angezeigt werden sollen. Dazu wechseln wir nach Plugins >> Cloud >> Configuration >> Private Images und wählen in den Checkboxen "All" für das "ubuntu64" und "debian64" Image.

Nun erstellen wir einen oder mehrere Cloud Benutzer. Hierfür gehen wir nach Plugins >> Cloud >> User und fügen einen neuen Benutzer inkl. einer gültigen E-Mail Adresse hinzu.

Die Liste der Cloud Benutzer sieht im Anschluss wie folgt aus.

Als Cloud Administrator kann man sich mit jedem beliebigen Cloud Benutzer anmelden, indem man auf den Namen des Cloud Benutzers klickt.

Das openQRM Portal sieht nach einem erfolgreichen Login dann wie folgt aus.

Wir klicken auf den 2ten Tab mit dem Namen "Visual Cloud Designer".

Der Virtual Cloud Designer zeigt alle verfügbaren Komponenten innerhalb der Cloud an. Mittels Drag and Drop kann nun eine eigene Cloud Appliance konstruiert werden.

Anschließend sollten die Kosten (stündlich, täglich, moantlich) für die Appliance betrachtet werden.

Mit einem einzigen Klick kann die Appliance der Cloud hinzugefügt werden.

11. Nutzen der openQRM Cloud

Um Zugriff auf die "KVM VM" Konsole zu erhalten, muss das "xtightvncviewer" Package installiert werden.

matt@cloud:~$ sudo apt-get install xtightvncviewer
Reading package lists... Done
...
Setting up xtightvncviewer (1.3.9-6) ...
update-alternatives: using /usr/bin/xtightvncviewer to provide /usr/bin/vncviewer (vncviewer) in auto mode.
matt@cloud:~$

Um sich per VNC an der ersten Cloud Appliance (KVM VM) anzumelden nutzen wir den folgenden Befehl.

matt@cloud:~$ vncviewer localhost:1

Der folgende Screenshot zeigt den Bootvorgang der Cloud Appliance in einer KVM VM.

Die openQRM Cloud schickt dem Cloud Benutzer automatisch eine E-Mail, in der die IP-Adresse und alle Anmeldeinformationen enthalten sind.

Wir können uns nun anmelden und mit der Cloud Appliance arbeiten.

12. Die nächsten Schritte

  • Separierung des Storage, Hypvervisors und openQRM auf dedizierte Systeme
  • openQRM Server als Hochverfügbarkeitslösung
  • Hinzufügen weiterer virtualisierter Hosts unterschiedlichen Typs (XEN, VMwAre, etc.)
  • Hinzufügen von physikalischen Systemen
  • Hinzufügen von weiteren Storage Systemen
  • Aktivieren des automatischen Monitorings
  • IP- und Netzwerkmanagement
  • Cloud-Billing
  • Cloud Integration / SOAP WebService

Quelle

  • HowTo: Setup your own openQRM Cloud with KVM on Ubuntu Lucid Lynx


Die 11 besten Open Source Cloud Computing Projekte 2009

Auf Basis von John Willis's Cloud Computing Awards 2009 - "The Cloudies", hat Mark Hinkle seine Top 11 Open Source Cloud Computing Projekte 2009 ausgewählt. Da ich Open Source und Cloud Computing für unzertrennlich halte, stelle ich die Projekte - Chef, collectd, Eucalyptus, OpenNebula, openQRM, Puppet, RabbitMQ, Zenoss, Bitnami, ECP und Ubuntu Enterprise Cloud jeweils kurz vor.

Chef

Bei Chef handelt es sich um ein Integrations-Framework für das Konfigurationsmanagement aller Arten von IT Infrastrukturen, aber speziell für die Bereitstellung von Cloud Umgebungen. Dazu wird mittels eines Quellcodes beschrieben, wie jeder Teil der Infrastruktur aufgebaut werden soll. Diese Infrastrukturbeschreibung wird anschließend einem Server zugeordnet. Das Ergebnis ist eine voll automatisierte Infrastruktur.

Webseite: http://wiki.opscode.com/display/chef/Home

collectd

collectd ist ein Daemon, der Statistiken der System-Performance sammelt und sie in RRD-Dateien speichert. Der Daemon verfügt über eine Plugin Architektur, die es erlaubt Informationen von einer Vielzahl von Diensten und Servern wie Apache, memcache und Linux-VServer zu sammeln. collectd ist damit die Ideale Erweiterung für bereits vorhandene System Management-Tools.

Webseite: http://collectd.org

Eucalyptus

Eucalyptus steht für "Elastic Utility Computing Architecture Linking Your Programs To Useful Systems" und dient zum Erstellen einer Cloud Computing Infrastruktur auf Cluster Systeme. Die aktuelle Schnittstelle ist mit den Schnittstellen von Amazon EC2, S3 und EBS kompatible. Die Infrastruktur ist allerdings dafür gedacht, mehrere Client-Schnittstellen unterstützen. Eucalyptus basiert auf gängigen Linux-Tools und grundlegenden Web-Service-Technologien, die eine einfache Installation und Wartung ermöglichen.

Ich habe Eucalyptus bereits vor kurzem ausführlich vorgestellt. Der Artikel kann HIER nachgelesen werden.

Webseite: http://open.eucalyptus.com

OpenNebula

Mit OpenNebula kann jegliche Art von Cloud Umgebung aufgebaut werden. Darüber hinaus können damit virtuelle Infrastrukturen in einem Rechenzentrum oder einem Cluster verwaltet werden, oder eine lokale Infrastruktur mit einer Public Cloud Infratruktur verbunden und kombiniert werden, um damit hoch skalierbare Hosting Umgebungen zu entwickeln. OpenNebula unterstützt ebenfalls Public Clouds, indem Schnittstellen zur Verfügung stehen mit denen virtuelle Machinen, Speichersysteme und das Netzwerk verwaltet werden können.

Webseite: http://www.opennebula.org

openQRM

openQRM ist eine Open Source Lösung zur Verwaltung und dem automatisierten und skalierbaren Betrieb von Rechenzentren- und Cloud-Computing-Plattformen. Die Administration der physikalischen Server und der virtuellen Maschinen erfolgt dabei in einer übergreifenden zentralen Managementkonsole. Mit einer Snapshot-Funktion können Serversysteme dupliziert und Backup/Restore, sowie Server-Versionierung und eine dynamische Anpassung des Speicherplatzes vorgenommen werden.

Webseite: http://www.openqrm.com

Puppet

Puppet ist ein Model-Driven Open Source-Framework für den automatisierten Aufbau und die Konfiguration von Servern. Mit Puppet können administrative Aufgaben wie z.B. das Hinzufügen von Benutzern, die Installation von Software oder die Aktualisierung der Serverkonfiguration auf vielen unterschiedlichen Arten von Systemen vorgenommen werden. Der Clou hierbei ist allerdings, dass immer derselbe Code verwendet werden kann, obgleich die Systeme auf völlig unterschiedlichen Betriebssystemen laufen.

Webseite: http://reductivelabs.com/products/puppet

RabbitMQ

RabbitMQ is ein Enterprise Messaging System welches auf dem AMQP Standard aufsetzt. AMQP ist ein Standard, mit dem Middleware Systeme, untereinander Nachrichten austauschen können.

Webseite: http://www.rabbitmq.com

Zenoss

Zenoss dient zur Überwachung der Amazon Web Services und vielen weiteren Arten von Cloud Computing Umgebungen und virtuellen Infrastrukturen.

Webseite: http://community.zenoss.org/index.jspa

Bitnami

Bitnami vereinfacht die Bereitstellung von Web Anwendungen, sowohl virtuell als auch in einer Cloud. Jeder BitNami Stack beinhaltet eine Anwendung, die mit jeder von ihr benötigten Software so ausgestattet ist um vollständig ausgeführt zu werden. BitNami Stacks sind kostenlos als gewöhnliche Installationsroutinen, virtuelle Machine Images und Cloud Templates erhältlich. Systeme die z.B. BitNami Anwendungen verwenden sind u.a. Drupal, Joomla!, Wordpress, SugarCRM, Alfresco, Redmine und Subversion.

Webseite: http://www.bitnami.org

Enomaly’s Elastic Computing Platform (ECP)

ECP ist eine programmierbare virtuelle Cloud Infrastruktur für kleine, mittlere und große Unternehmen. Es unterstützt beim Design, Bereitstellen und Verwalten von virtuellen Anwendungen innerhalb einer Cloud. Weitere Funktionen sind die automatische Skalierung von virtuellen Maschinen, Load Balancing, Systemanalysse, sowie die Konfiguration und Optimierung der Cloud Kapazitäten.

Webseite: http://src.enomaly.com

Ubuntu Enterprise Cloud

Die Ubuntu Enterprise Cloud (UEC) ist in der Ubuntu Server Edition enthalten und beinhaltet eine Vielzahl an Open Source Projekten wie z.B. Eucalyptus. Anwendern steht damit die Möglichkeit offen eine eigene Private Cloud aufzusetzen.

Ein Tutorial zum Einrichten einer eigenen Private Cloud mit der Ubuntu Enterprise Cloud habe ich gestern HIER veröffentlicht.

Webseite: http://www.ubuntu.com/cloud

Quelle

Mark Hinkle
John Willis



Erste Schritte mit der Ubuntu Enterprise Cloud

Das Eucalyptus System kann auf viele unterschiedliche Umgebungen beliebig angepasst werden. Diese Installations-Anleitung zeigt die Einrichtung einer Privat Cloud auf Basis von Eucalyptus mit der Ubuntu Enterprise Cloud.

Ziel dieses Tutorials

Dieses Tutorial beschreibt die Installation, Konfiguration und Registierung, sowie weitere Schritte für die Arbeit mit einer grundlegenden Eucalyptus Einrichtung. Am Ende haben wir eine Cloud mit einem "Front-End" Controller und einem Knoten, auf dem mehrere Instanzen von Virtual Machines ausgeführt werden können, vollständig eingerichtet. Siehe dazu die Schritte 1 - 3.

In den Schritten 4 - 6 lernen wir die ersten Schritte für die Einrichtung einer Private Cloud und wie diese z.B. mit der RightScale Cloud Management Platform verbunden werden kann.

  • Schritt 1: Die Voraussetzungen
  • Schritt 2: Installation & Konfiguration
  • Schritt 3: Registrierung der Eucalyptus Komponenten
  • Schritt 4: Erster Login
  • Schritt 5: Erstellen eines Virtual Machine Image
  • Schritt 6: Starten eines Images

1. Schritt: Die Voraussetzungen

Das Eucalyptus System hat drei grundlegende Bestandteile:

  • eucalyptus-cloud: Beinhaltet den Cloud Controller (Front-End Services) und das Walrus Speichersystem.

  • eucalyptus-cc : Beinhaltet den Cluster Controller der für das virtuelle Netzwerk zuständig ist.

  • eucalyptus-nc: Beinhaltet den Node Controller zur Verwaltung der einzelnen Knoten, der mit der KVM (Kernel basierende Virtual Machine) kommuniziert und die jeweiligen Virtual Machines verwaltet.

Eine einfache Eucalyptus Umgebung besteht aus zwei Systemen, einem Front-End und einem Node. Das Front-End ist für eucalyptus-cloud und eucalyptus-cc zuständig. In einer komplexeren Umgebung mit mehreren Systemen können/ sollten die oben genannten Teile des Front-Ends voneinander getrennt betrieben werden. Da die Kommunikation vollständig über das Netzwerk erfolgt, ist diese Separierung einfach vorzunehmen.

Das folgende Diagramm zeigt einen einfachen Aufbau einer Eucalyptus Umgebung:

Vor der Installation der Pakete gibt es ein paar Voraussetzungen die erfüllt sein müssen, damit am Ende ein voll funktionsfähiges Eucalyptus System vorhanden ist. Zunächst muss das Front-End in der Lage sein E-Mails zu verschicken. Die Administrations-Tools von Eucalyptus nutzen E-Mails um den Administrator zu benachrichtigen, das er die Anmeldeinformationen von Benutzern prüfen muss. Dazu sollte Postfix installiert werden und als 'mailhost' der 'localhost' eingetragen werden (z.B. als Eintrag in die /etc/hosts).

Auf dem Node auf welchem von Eucalyptus die Virtual Machines ausgeführt werden, muss die erste Netzwerkschnittstelle als Bridge (BR0) konfiguriert werden. Sie dazu (Ubuntu Server Guide Bridging - in Englisch). Dieser Bridge fügt Eucalyptus für jede vorhandene Virtual Machine eine virtuelle Netzwerkschnittstelle (Virtual Network Interfaces) hinzu, bevor die Netzwerkverbindung einer Virtual Machine aktiviert wird.

Des Weiteren benötigt Eucalyptus einen DHCP Server der automatisch IP-Adressen vergibt. Ab dem Zeitpunkt wo die Virtual Machines über die Bridge mit dem lokalen Netzwerk verbunden sind, führen sie ihren lokalen DHCP Client aus, um eine IP-Adresse zu erhalten.

Auf jedem Host der einen Eucalyptus Client nutzt, sollten die Amazon Elastic Compute Cloud (EC2) API und AMI Tools installiert werden. Dafür wird folgendes benötigt:

http://s3.amazonaws.com/ec2-downloads/ec2-api-tools-1.3-30349.zip
http://s3.amazonaws.com/ec2-downloads/ec2-ami-tools-1.3-26357.zip

Damit die ec2-ami-tools einwandfrei funktionieren müssen zusätzlich die Pakete ruby, libopenssl-ruby und curl installiert werden.

Für den Zugriff der EC2-ami-Tools auf die Meta-Daten (wie z.b. EC2-bundle-vol), muss folgender Eintrag vorgenommen werden. Bei der CC_IP handelt es sich um die IP-Adresse des Rechners auf dem Eucalyptus-cc ausgeführt wird.

vi ec2ami/lib/ec2/amitools/instance-data.rb
(set META_DATA_URL="http://:8773/latest/meta-data")

  • Ports: Um auf Eucalyptus auch hinter einer Firewall zugreifen zu können muss der Port 8773 geöffnet werden. Das ist z.B. dann der Fall, wenn sich die EC2- und AMI-Tools sowie die Eucalyptus Cloud auf unterschiedlichen Seiten der Firewall befinden. Wenn das Eucalyptus System mit einer Cloud Management Platform verbunden werden soll, müssen zusätzlich die Ports 8773 und 8443 geöffnet werden.

Schritt 2: Installation & Konfiguration

Zuerst werden die eucalyptus-cloud und eucalyptus-cc Pakete auf der Front-End Machine installiert.

sudo apt-get install eucalyptus-cloud eucalyptus-cc

Anschließend erfolgt die Installation des eucalyptus-nc Pakets auf jedem Node.

sudo apt-get install eucalyptus-nc

Am Ende wird der eucalyptus-nc Service auf dem Node gestoppt und die /etc/eucalyptus/eucalyptus.conf editiert. In der eucalyptus.conf erhält die Bridge den Namen der ersten Netzwerkschnittstelle. Danach wird der eucalyptus-nc Service wieder gestartet.

Die oben beschriebenen Schritte können wie folgt umgesetzt werden:

sudo /etc/init.d/eucalyptus-nc stop
sudo vi /etc/eucalyptus/eucalyptus.conf
(set VNET_BRIDGE="br0")
sudo /etc/init.d/eucalyptus-nc start

Das folgende Diagramm zeigt, wie die Umgebung danach aussehen sollte:

Das Netzwerk sollte außerdem so konfiguriert werden, dass der IPv4 Datenverkehr von den IPv6 Ports weitergeleitet wird, da das Eucalyptus Web-Frontend standardmäßig IPv6 verwendet.

sudo vi /etc/sysctl.conf
(uncomment net.ipv4.ip_forward=1)
sudo sysctl -p

Schritt 3: Registrierung der Eucalyptus Komponenten

Eucalyptus setzt voraus, das jeder Node innerhalb des Systems zu einem Cluster gehört. Ein Cluster wiederum gehört zu einer Cloud. Auf jedem Node wird eine Kopie von eucalyptus-nc ausgeführt. Genauso muss auf jedem Cluster eine Kopie von eucalytpus-cc ausgeführt werden. In unserem Beispiel wird der eucalytpus-cc auf der selben Maschine ausgeführt wie der Cloud Controller (eucalyptus-clc). Diese Komponenten müssen sich vor dem Start des Systems nun gegenseitig registrieren.

Für die Registrierung eines Cluster wird der folgende Befehl benötigt:

sudo euca_conf -addcluster localhost

Dabei entspricht dem Namen des Clusters, den die Benutzer sehen werden. Es handelt sich dabei um einen reinen logischen Namen, der nur lokal zu Eucalyptus gehört und mit einer Verfügbarkeitszone übereinstimmt, wie sie bei den Client-Tools angezeigt wird.

Um nun einen Node bei einem Cluster zu registrieren, ist der folgende Befehl notwendig.

sudo euca_conf -addnode

Später können weitere Nodes - auf denen eine Kopie von eucalyptus-nc ausgeführt wird - hinzugefügt werden, indem der obige Befehl erneut für jeden Node ausgeführt wird.

Schritt 4: Erster Login

Nach dem ersten Start von Eucalyptus muss die Administrationsumgebung der Cloud eingerichtet werden. Dazu öffnen wir im Webbrowser folgende UR:

https://[front-end-ip-address]:8443

Mit den Standardzugangsdaten Benutzername: admin und Passwort: admin erfolgt die erste Anmeldung, bei der das Passwort geändert werden muss. Nun folgen wir den Anweisungen auf dem Bildschirm. Ist die Konfiguration abgeschlossen klicken wir auf den Reiter credentials und anschließend auf Download Certificate.

Wichtig ist hierbei zu beachten, dass wir eine sichere Verbindung nutzen, also "https" anstatt "http". Wir erhalten eine Warnung auf Grund des Sicherheitszertifikats. Dafür müssen wir eine Ausnahme eintragen, um die Seite sehen zu können. Wird für diese Seite keine Ausnahme eingetragen, kann die Konfigurationsseite von Eucalyptus nicht angezeigt werden.

Jetzt müssen wir mittels X.509 Zertifikaten die EC2 API und AMI Tools auf unserem Server wie folgt einrichten.

mkdir ~/.euca
cd ~/.euca
mv ~/Desktop/euca2-admin-x509.zip ~/.euca
unzip euca2-admin-x509.zip

Die Installation kann mittels eines Skripts (ec2toolsinstall.sh) wie folgt durchgeführt werden.

cd ~/.euca
# Eucalyptus is not compatible with the newer ec2tools so we will
# install and remove them to insure all dependencies get installed
sudo apt-get install ec2-api-tools ec2-ami-tools
sudo apt-get remove ec2-api-tools ec2-ami-tools
wget http://s3.amazonaws.com/ec2-downloads/ec2-api-tools-1.3-30349.zip
unzip ec2-api-tools-1.3-30349.zip
mv ec2-api-tools-1.3-30349 ec2
wget http://s3.amazonaws.com/ec2-downloads/ec2-ami-tools-1.3-26357.zip
unzip ec2-ami-tools-1.3-26357.zip
mv ec2-ami-tools-1.3-26357 ec2ami
echo 'export JAVA_HOME=/usr' >> eucarc
echo 'export EC2_HOME=~/.euca/ec2' >> eucarc
echo 'export EC2_AMITOOL_HOME=~/.euca/ec2ami' >> eucarc
echo 'export PATH=$PATH:$EC2_HOME/bin:$EC2_AMITOOL_HOME/bin' >> eucarc

Vergabe der Zugriffsrechte:

chmod +x ec2toolsinstall.sh

Das Skript sollte die Datei eucarc erzeugt haben, die noch noch ge-sourced werden muss.

source ~/.euca/eucarc

Optional: Registrierung bei RightScale

RightScale bietet eine Cloud-Management-Plattform für den Einsatz mit Eucalyptus. Diese Cloud Management Software wird als Service innerhalb der Amazon Web Services ausgeführt und muss daher die Möglichkeit haben, mit dem Eucalyptus Cloud Controller (eucalyptus-clc) der hinter einer Firewall steht, zu kommunizieren.

Daher müssen die Ports 8443 und 8773 (Richtung > Internet) geöffnet werden, damit RightScale mit der Eucalyptus Cloud kommunizieren kann.

Um unsere Eucalyptus Cloud bei RightScale zu registrieren, folgen wir den Anweisungen in der unten verlinkten Anleitung:

  • Registrieren der Eucalyptus Cloud bei RightScale.

Schritt 5: Erstellen eines Virtual Machine Image

Mit dem vmbuilder können wird ein Virtual Machine Image erstellen, das mit Eucalyptus gestartet werden kann.

Zunächst erstellen wir eine Datei mit dem Namen part, in der die Größe, der Typ und der Mountpunkt der Virtual Machine beschrieben ist:

root 400
/mnt/ephemeral 0 /dev/sda2
swap 1 /dev/sda3

Anschließend erstellen wir eine Skriptdatei mit dem Namen firstboot. Dieses Skript wird ausgeführt wenn das Image das erste Mal in Eucalyptus gestartet wird und installiert dabei einen SSH Daemon.

apt-get -y install openssh-server

Nun erstellen wir ein Image mit dem vmbuilder und übergeben beim Aufruf die beiden Skripte als Parameter.

sudo vmbuilder xen ubuntu --part ./part --firstboot ./firstboot

Mit Hilfe der EC2 API Tools packen und registrieren wir abschließend den Kernel, die Ramdisk und das Image.

mkdir kernel
ec2-bundle-image -i /boot/vmlinuz-2.6.28-11-generic -d ./kernel --kernel true
ec2-upload-bundle -b kernel -m ./kernel/vmlinuz-2.6.28-11-generic.manifest.xml
EKI=`ec2-register kernel/vmlinuz-2.6.28-11-generic.manifest.xml | awk '{print $2}'`
echo $EKI

mkdir ramdisk
ec2-bundle-image -i /boot/initrd.img-2.6.28-11-generic -d ./ramdisk --ramdisk true
ec2-upload-bundle -b ramdisk -m ramdisk/initrd.img-2.6.28-11-generic.manifest.xml
ERI=`ec2-register ramdisk/initrd.img-2.6.28-11-generic.manifest.xml | awk '{print $2}'`
echo $ERI

mkdir image
ec2-bundle-image -i ubuntu-xen/root.img -d ./image --kernel $EKI --ramdisk $ERI
ec2-upload-bundle -b image -m ./image/root.img.manifest.xml
EMI=`ec2-register image/root.img.manifest.xml | awk '{print $2}'`
echo $EMI

Der Kernel, die Ramdisk und das Image sind nun in der Eucalyptus Cloud und können dort genutzt werden.

Zur Bestätigung geben wir folgenden Befehl ein:

ec2-describe-images

Die Ausgabe sollte nun einen registrierten Kernel, Ramdisk und Image anzeigen, die als "available" gekennzeichnet sind.

Schritt 6: Starten eines Images

Bevor eine Instanz eines Image gestartet wird, müssen wir ein Schlüsselpaar (SSH Key) erstellen um uns nach dem Start als Root anmelden zu können. Der Schlüssel wird gespeichert, daher muss dieser Schritt nur einmal durchgeführt werden.

ec2-add-keypair mykey > ~/.euca/mykey.priv
chmod 0600 ~/.euca/mykey.priv

Falls wir unseren Key mal vergessen sollten, können wir uns mittels ec2-describe-keypairs eine Liste aller erstellten und auf dem System gespeicherten Schlüssel anzeigen lassen.

Nun können wir Instanzen von unserem registrierten Image wie folgt erstellen.

ec2-run-instances $EMI -k mykey

Während des ersten Starts einer Instanz erstellt das System einen Cache für das Image aus welchem die Instanz erstellt wird. Da die Images in der Regel sehr groß sind, kann dieser Vorgang etwas dauern.

Der aktuelle Status der Instanz kann mit folgendem Befehl abgefragt werden.

ec2-describe-instances

Die Ausgabe zeigt die aktuellen Informationen und den Status der Instanz. Während des ersten Starts sollte sich die Instanz im Status "pending" befinden. Ist die Instanz gestartet, sollte der Status auf "running" wechseln. Nachdem die Instanz über DHCP eine IP-Adresse erhalten hat können wir uns mittels des oben generierten SSH Keys mit der Instanz verbinden.

ssh -i ~/.euca/mykey.priv root@

Die Umgebung der Eucalyptus Cloud sollte nun diesem Diagramm entsprechen.

Weitere Informationen

  • Log Dateien: /var/log/eucalyptus
  • Konfigurationsdateien: /etc/eucalyptus
  • Init Skripte: /etc/init.d/eucalyptus-cc, /etc/init.d/eucalytpus-cloud und /etc/init.d/eucalytpus-nc
  • Datenbank: /var/lib/eucalyptus/db
  • Neustart (Anmerkung): Bei einem Neustart wird Eucalyptus nicht automatisch neu gestartet. Die Services müssen daher manuell geladen werden.
  • Umgebung (Anmerkung): Bevor der Client gestartet wird, sollten die Quellen unter ~/.euca/eucarc ge-sourced werden.

Quellen

Eucalyptus-Jaunty