Cloud Computing in der deutschen Politik (Baden-Württemberg)

Mit diesem Artikel möchte ich auf das Interesse zum Thema Cloud Computing in der deutschen Politik - hier im Speziellen aus dem Bundesland Baden-Württemberg - aufmerksam machen.

Ich zitiere hierbei aus einem Dokument, welches ich vor kurzem entdeckt habe. Es handelt sich dabei um einen Antrag des Abgeordenten Dr. Reinhard Löffler MdL, in welchem er eine Stellungnahme des Innenministeriums zum Thema Public Cloud Computing erwünscht. Die Stellungnahme ist ebenfalls in dem Dokument enthalten und wird hier von mir zitiert.

Antrag

Der Landtag wolle beschließen,
die Landesregierung zu ersuchen
zu berichten,

1. ob sie die Auffassung teilt, dass Cloud Computing nicht nur für mittelständische
Unternehmen, sondern auch für die öffentliche Verwaltung ein
IT-Management-Konzept ist, das die IT-Kosten senken und die IT-Flexibilität
erhöhen könnte;

2. ob ihr bekannt ist, dass Unternehmen ihre IT-Kosten durch die Nutzung
von Cloud Computing bis zu 80 % der herkömmlichen IT-Kosten senken
können und ob sie vergleichbare Einsparpotenziale auch bei der öffentlichen
Verwaltung für möglich erachtet;

3. inwieweit sie Überlegungen anstellt, Cloud Computing als Alternative zum
herkömmlichen IT-Betrieb zu eruieren und ob sie eine wissenschaftliche
Anhörung zu diesem Thema für sinnvoll hält;

4. welche Voraussetzungen vorliegen müssen, Cloud Computing für die
öffentliche Verwaltung nutzbar zu machen;

5. welche sicherheitstechnischen und datenschutzrechtlichen Einwände gegen
die Einführung von Cloud Computing in der öffentlichen Verwaltung
bestehen und welche Lösungsmöglichkeiten sie sieht, diese Probleme zu
lösen;

6. ob ihr Erfahrungen über die Anwendung von Cloud Computing im europäischen
Ausland bekannt sind und wie sie diese bewertet;

7. ob sie der Meinung ist, dass Cloud Computing in sicherheitsunbedenklichen
Teilbereichen, z. B. Mailverkehr oder bei Büroanwendungen, nutzbar
gemacht werden können und ob sie darin Vorteile gegenüber der heutigen
Situation sieht;

8. ob sie es sich vorstellen könnte, zusammen mit den Informatikfakultäten
baden-württembergischer Universitäten ein geschlossenes Public Cloud
Computing Modell zu entwickeln, in dem sich alle Behörden der Kommunen
und des Landes wiederfinden könnten.

Begründung

Cloud Computing beschreibt einen internetzentrierten Entwicklungsansatz,
bei dem ein Anbieter komplexe Leistungen aus Soft- und Hardware in Form
eines abstrakten Dienstes bereitstellt. Speicher, Rechenzeit oder komplexere
Dienste können über festgelegte Schnittstellen abgefordert werden, wobei es
keine Rolle spielt, auf welcher Hardware diese letztendlich ausgeführt werden.
Dabei können Nutzer nicht nur Daten auslagern, sondern ganze Programme
auf angemieteten Servern ablaufen lassen, etwa die Mailsoftware oder häufig
gebrauchte Bürosoftware. Cloud Computing ist die am stärksten wachsende
IT-Dienstleistung, die Unternehmen erhebliche Kostenvorteile und größere
Flexibilität bringen kann. Für den Bereich Public Cloud Computing können
solche Dienstleistungen aus sicherheitstechnischen und datenschutzrechtlichen
Gründen Hindernisse aufwerfen, sofern Anbieter nicht eine geschlossene
Public Cloud anbieten. Bei konsequenter Nutzung von Cloud Computing
kann die öffentliche Hand auf den Eigenbetrieb einer IT-Infrastruktur
verzichten.

Stellungnahme

1. ob sie die Auffassung teilt, dass Cloud Computing nicht nur für mittelständische
Unternehmen, sondern auch für die öffentliche Verwaltung ein
IT-Management-Konzept ist, das die IT-Kosten senken und die IT-Flexibilität
erhöhen könnte;

4. welche Voraussetzungen vorliegen müssen, Cloud Computing für die
öffentliche Verwaltung nutzbar zu machen;

Zu 1. und 4.:
Das Innenministerium versteht unter Cloud Computing einen Dienst, mit
dem ein privater Anbieter oder ein Landesrechenzentrum einem oder mehreren
Auftraggebern Rechenkapazität in grundsätzlich unbeschränktem Umfang
anbietet und bei dem die Abrechnung der entstandenen Kosten entsprechend
der tatsächlichen Inanspruchnahme der Rechenkapazität erfolgt.

Das Innenministerium sieht durchaus die Möglichkeit, dass Cloud Computing
auch die IT-Kosten der öffentlichen Verwaltung senken kann, wenn bestimmte
Bedingungen erfüllt sind. So müssen die mit der Rechenkapazität des Cloud
Computings betriebenen IT-Anwendungen bestimmten technischen Standards
entsprechen, die Netzkapazitäten im Landesverwaltungsnetz müssen ausreichend
sein, das Abrechnungs- und Betriebsmodell müssen wirtschaftlich
sein sowie der Datenschutz und die Datensicherheit müssen gewährleistet
werden. Bei der Beauftragung von privaten Dienstleistern müssen insbesondere
auch die vergaberechtlichen Voraussetzungen erfüllt werden.

2. ob ihr bekannt ist, dass Unternehmen ihre IT-Kosten durch die Nutzung
von Cloud Computing bis zu 80 % der herkömmlichen IT-Kosten senken
können und ob sie vergleichbare Einsparpotenziale auch bei der öffentlichen
Verwaltung für möglich erachtet;

Zu 2.:
Dem Innenministerium ist bekannt, dass bei bestimmten Fallgestaltungen hohe
Einsparungen möglich sind. Deutliche Einsparungen könnten in besonderen
Fällen auch für Anwendungen der öffentlichen Verwaltung realisiert werden,
falls ein Markt dafür entstehen sollte. Denkbar sind etwa Publikationsdienste
im Internet, die nur bei bestimmten Ereignissen benötigt werden.

3. inwieweit sie Überlegungen anstellt, Cloud Computing als Alternative zum
herkömmlichen IT-Betrieb zu eruieren und ob sie eine wissenschaftliche
Anhörung zu diesem Thema für sinnvoll hält;

Zu 3.:
Das Innenministerium vertritt die Auffassung, dass Cloud Computing als
mögliches Modell für die Verwaltung vertieft untersucht werden sollte, etwa
in einer Arbeitsgruppe mit Vertretern der Wissenschaft, Verwaltung und Wirtschaft.

5. welche sicherheitstechnischen und datenschutzrechtlichen Einwände gegen
die Einführung von Cloud Computing in der öffentlichen Verwaltung bestehen
und welche Lösungsmöglichkeiten sie sieht, diese Probleme zu lösen;

Zu 5.:
Nach Auffassung des Innenministeriums handelt es sich bei Cloud Computing
um Datenverarbeitung im Auftrag. Die datenschutzrechtlichen Probleme des
Cloud Computing können wie bei anderen internen und externen Outsourcing-
Vorhaben gelöst werden. Die Fragen der Standardisierung und der Wirtschaftlichkeit
dürften schwieriger zu lösen sein.

6. ob ihr Erfahrungen über die Anwendung von Cloud Computing im europäischen
Ausland bekannt sind und wie sie diese bewertet;

Zu 6.:
Dem Innenministerium sind Überlegungen aus dem Ausland bekannt. Es
sieht auch dort diese IT-Dienstleistung im Entstehen. Vollständige und ohne
Weiteres übertragbare Modelle sind nicht bekannt.

7. ob sie der Meinung ist, dass Cloud Computing in sicherheitsunbedenklichen
Teilbereichen, z. B. Mailverkehr oder bei Büroanwendungen, nutzbar
gemacht werden können und ob sie darin Vorteile gegenüber der heutigen
Situation sieht;

Zu 7.:
Nach den bisherigen Überlegungen sieht das Innenministerium einfachere
und technische Lösungen etwa für Internet-Auftritte für geeignet, um Cloud
Computing zu erproben. Das derzeitig laufende Outsourcing der Bürokommunikation
lässt sich jedoch nicht einfach durch Cloud Computing ersetzen,
da der Dienstleister beim Cloud Computing nicht in erster Linie die volle
Verantwortung für die IT-Anwendung (also E-Mail oder Bürokommunikation
einschließlich Client-Rollout, Pflege, Technologie-Refreshment) übernimmt,
sondern nur Rechnerkapazitäten bereitstellt.

8. ob sie es sich vorstellen könnte, zusammen mit den Informatikfakultäten
baden-württembergischer Universitäten ein geschlossenes Public Cloud
Computing Modell zu entwickeln, in dem sich alle Behörden der Kommunen
und des Landes wiederfinden könnten.

Zu 8.:
Das Innenministerium erwägt, gemeinsam mit anderen Ressorts und Beteiligten
einen „Runden Tisch Cloud Computing“ einzusetzen.

Siehe Anmerkung Ziffer 3. Ergebnis der dort angesprochenen Arbeitsgruppe
könnte durchaus ein solches Modell sein.

Quelle



UEC: Einsatz des Storage Controller

Dieser Artikel beschreibt, wie die Funktionen des Eucalyptus Storage Controller (SC) innerhalb der Ubuntu Enterprise Cloud (UEC) verwendet werden kann. Der Storage Controller ist vergleichbar mit den Amazon Elastic Block Storage (EBS). Mit diesem können Block Devices wie z.B. virtuelle Festplatten von virtuellen Maschinen (Images) gemounted werden. Die Daten werden dabei außerhalb der virtuellen Maschine (VM) gespeichert und sind dabei unabhängig von dem aktuellen Status dieser VM. Das bedeutet, dass die Daten weiterhin persitent gespeichert beliben, auch wenn die virtuelle Maschine beendet wird.

Wurde die Ubuntu Enterprise Cloud mit einer CD installiert und existiert eine separate physikalische Netzwerkschnittstelle, mit der das Front-End mit den Eucalyptus Node Controllers (NCs) verbunden wird, muss sichergestellt sein, dass der Storage Controller das Private Network Interface verwendet.

Mit Hilfe der Weboberfläche kann diese Konfiguration unter Configuration -> Clusters -> Storage Controller vorgenommen werden. Dabei muss darauf geachtet werden, dass die IP-Adresse welche unter Host eingetragen ist zu dem private Interface gehört und das es sich bei diesem Interface auch um das physikalische Interface zu dem privaten Netzwerk handelt.

Für die Konfiguration mittels der Kommandozeile werden die folgenden Befehle verwendet.

sudo euca_conf --deregister-sc

sudo euca_conf --register-sc

Wichtig! Alle Volumes die vor der Ausführung des obigen Befehls erstellt wurden, werden anschließend nicht mehr funktionieren und sollten mit nachfolgendem Befehl entfernt werden.

Arbeiten mit dem Storage Controller

Das Erstellen von Volumes

Zum Erstellen eines Eucalyptus Storage Controller Volumes nutzen wir den Befehl

euca-create-volume -s 1 -z myzone

Dabei entspricht -s die Größe in GB und -z den Namen der UEC Verfügbarkeitszone.

Mit dem Befehl

euca-describe-availability-zones

wird der Name des UEC Storage Controller Volumes ausgegeben.

VOLUME vol-xxxxxxxx

Das Benutzen von Volumes

Um ein Volume einer bereits gestarteten Instanz hinzuzufügen nutzen wir den Befehl

euca-attach-volume -i i-xxxxxxxx -d /dev/sdb vol-xxxxxxxx

Wobei -i den Identifier der Instanz und -d dem Namen des Endgerätes entspricht, dass dem Storage Controller Volume zugewiesen werden soll.

Mit dem Befehl

euca-describe-volumes

erhalten wir detaillierte Informationen zu den gemounteten Volumes.

VOLUME vol-xxxxxxxx 1 myzone in-use 2009-10-23T14:41:47.375Z
ATTACHMENT vol-xxxxxxxx i-xxxxxxxx /dev/sdb 2009-10-23T14:42:10.274Z

Anschließend sollte das hinzugefügte Endgerät im Verzeichnis /dev der Instanz vorhanden sein. Anschließend sollten wir in der Lage sein mittels

sudo fdisk /dev/sdb

mit dem Volume zu arbeiten. Dieses also zu partitionieren, formatieren, zu mounten und das Volume so zu nutzen, als wäre es wie ein physikalisches Endgerät vorhanden und an unserer Instanz angeschlossen.

Quelle



openQRM Enterprise wird Partner des Canonical Software Partner Programms

Das Kölner Unternehmen openQRM-Enterprise, Anbieter der gleichnamigen Cloud Computing Plattform openQRM, ist dem Canonical Software Partner Programm beigetreten und wird in diesem Zuge mit Professional Services und einem langfristigen Support die openQRM Cloud auf den Ubuntu Server Distributionen unterstützen.

Canonical ist Distributor von Ubuntu Linux und stellt mit der Ubuntu Enterprise Cloud eine auf Eucalyptus basierende Cloud Computing Infrastruktur Lösung bereit.

Weitere Informationen sind auf den Webseiten von Ubuntu zu finden:

Quelle

  • openQRM-Enterprise


Eucalyptus: Arbeiten mit Walrus

Bei Walrus handelt es sich um den Speicherdienst von Eucalyptus, dessen Schnittstelle zu den Simple Storage Services (S3) von Amazon kompatibel ist. Mittels Walrus können Daten persistent in Buckets und Objekten gespeichert und verwaltet werden.

Für die Verwaltung der Eucalytpus Virtual Machine Images innerhalb von Walrus - also dem Speichern, Registrieren und Löschen - können die offiziellen Amazon Tools genutzt werden. Es existieren aber auch Tools von Drittanbietern die in diesem Artikel vorgestellt werden.

S3 curl

S3 Curl kommuniziert mit Walrus, indem Sicherheitsparameter als Curl Header hinzugefügt werden. Mit S3 Curl stehen Funktionen zum Erstellen, Löschen und Auflisten der Buckets, sowie dem Hoch- und Herunterladen von Objekten und der Verwaltung von Zugriffsrechten zu Verfügung.

Für die Nutzung von S3 Curl wird das "perl-Digest-HMAC package" benötigt. Weiterhin muss in der s3curl.pl der Hostname des "Endpoints" z.B. wie folgt angepasst werden.

my @endpoints = ( 's3.amazonaws.com' );

nach

my @endpoints = ( 'your-host' );

Bei "your-host" handelt es sich um die IP-Adresse bzw. dem Hostnamen auf dem Walrus ausgeführt wird. Für die Authentifizierung ist es notwendig, dass es sich bei "your-host" um den selben Host handelt, der von eucarc für $S3_URL in den Umgebungsvariablen gesetzt wurde.

Beim Anpassen der s3curl.pl darf nur der Hostname, aber nicht die Portnummer oder ein Pfad angegeben werden. Es sollte also nur abc.de und nicht abc.de:8773/services/Walrus verwendet werden!

Bevor die nachfolgenden Befehle ausgeführt werden, sollte sichergestellt sein das "eucarc" eingebunden ist.

~/.euca/eucarc

Dann kann es losgehen. Zunächst wird der Access Key sowie der Secret Key des Amazon Accounts benötigt. An dieser Stelle wäre es vorteilhaft, diese Daten in die ".s3curl" Konfigurationsdatei zu schreiben.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY

Zum Erstellen eines Buckets nutzen wir den nachfolgenden Befehl. Dabei entspricht "bucketName" dem Namen des Buckets der erstellt werden soll.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --put /dev/null -- -s -v $S3_URL/bucketName

Ein Objekt wird mit dem folgenden Befehl erstellt/hochgeladen (put), wobei "objectName" dem Namen des Objekts entspricht, das erstellt werden soll.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --put -- -s -v $S3_URL/bucketName/objectName

Für die Abfrage der MD5 Checksumme, sowie die Größe und das Datum der letzten Änderung an einem Objekt, nutzen wir diesen Befehl.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --head -- -s -v $S3_URL/bucketName/objectName > object.head

cat object.head

Hiermit laden (get) wir ein Objekt.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --get -- -s -v $S3_URL/bucketName/objectName > object

Ein Objekt kann wie folgt gelöscht werden.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --del -- -s -v $S3_URL/bucketName/objectName

Einen Bucket löschen wir mit diesem Befehl. An dieser Stelle ist zu beachten, dass Buckets vollständig leer sein müssen, bevor sie gelöscht werden können.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --del -- -s -v $S3_URL/bucketName

Die Zugriffssrechte für einen Bucket erhalten wie folgt.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --get -- -s -v $S3_URL/bucketName?acl | xmlindent > bucket.acl

Der Inhalt eines Buckets wird mit diesem Befehl angezeigt.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --get -- -s -v $S3_URL/bucketName | xmlindent > bucket.list

Eine Liste aller Buckets von einem Benutzer kann so angezeigt werden.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --get -- -s -v $S3_URL | xmlindent > bucketlisting

S3cmd

Mit S3cmd können Daten in Amazon S3 hoch- und heruntergeladen sowie verwaltet werden. Es eignet sich darüber hinaus gut für Skripte und automatisierte Backups die von cron gesteuert werden.

Installation

Zunächst wird python und python-openssl benötigt.

Nach dem Herunterladen und Entpacken von S3cmd muss der Patch unter dem Dateinamen s3cmd-0.9.8.3.patch abgespeichert werden.

Das S3cmd Verzeichnis muss in s3cmd-0.9.8.3 umbenannt und der Patch mittels patch -p1 < s3cmd-0.9.8.3.patch hinzugefügt werden.

Konfiguration

Nun muss eine Konfigurationsdatei mit dem Namen s3cfg.walrus für Walrus erstellt werden, für die folgende Beispielkonfiguration genutzt werden kann.

[default]
access_key = ACCESSKEY
acl_public = False
bucket_location = US
debug_syncmatch = False
default_mime_type = binary/octet-stream
delete_removed = False
dry_run = False
encrypt = False
force = False
gpg_command = /usr/bin/gpg
gpg_decrypt = %(gpg_command)s -d --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_encrypt = %(gpg_command)s -c --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_passphrase =
guess_mime_type = False
host_base = localhost:8773
host_bucket = localhost:8773
service_path = /services/Walrus
human_readable_sizes = False
preserve_attrs = True
proxy_host =
proxy_port = 0
recv_chunk = 4096
secret_key = SECRET
send_chunk = 4096
use_https = False
verbosity = WARNING

Als Beispielkonfiguration für Amazon S3 kann die folgende verwendet werden.

[default]
access_key = ACCESSKEY
acl_public = False
bucket_location = US
debug_syncmatch = False
default_mime_type = binary/octet-stream
delete_removed = False
dry_run = False
encrypt = False
force = False
gpg_command = /usr/bin/gpg
gpg_decrypt = %(gpg_command)s -d --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_encrypt = %(gpg_command)s -c --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_passphrase =
guess_mime_type = False
human_readable_sizes = False
preserve_attrs = True
proxy_host =
proxy_port = 0
recv_chunk = 4096
secret_key = SECRET
send_chunk = 4096
simpledb_host = sdb.amazonaws.com
use_https = False
verbosity = WARNING

Nutzung von S3cmd

Erstellen eines Bucket.

s3cmd -c s3cfg.walrus mb s3://testbucket

Löschen eines Bucket.

s3cmd -c s3cfg.walrus rb s3://testbucket

Auflisten aller Buckets.

s3cmd -c s3cfg.walrus ls

Den Inhalt eines Buckets anzeigen.

3cmd -c s3cfg.walrus ls s3://testbucket

Ein Objekt hochalden (put).

s3cmd -c s3cfg.walrus put s3://testbucket

Ein Objekt laden (get).

s3cmd -c s3cfg.walrus get s3://testbucket/

Löschen eines Objekts.

s3cmd -c s3cfg.walrus del s3://testbucket/

Quelle



Ubuntu Enterprise Cloud Terminologie

Bei dem Einsatz der Ubuntu Enterprise Cloud (UEC) wird eine eigene Terminologie verwendet, die für das Verständnis und dem Umgang doch wichtig ist. Dieses Glossar fasst alle notwendigen Begriffe und ihre Bedeutung zusammen.

Cloud
Ein Verbund von physikalischen Maschinen, die mit Hilfe von virtuellen Maschinen Rechnerressourcen dynamisch bereitstellen und "wieder einsammeln".

Cloud Controller (CLC)
Komponente von Eucalyptus die eine Weboberfläche (HTTPS Server auf Port 8443) bereitstellt und die Amazon EC2 API implementiert. Es sollte maximal einen Cloud Controller für eine UEC Installation geben. Der CLC wird durch das Ubuntu Package eucalyptus-cloud zur Verfügung gestellt.

Cluster
Ein Verbund von Nodes, die einem Cluster Controller zugeordnet sind. Dabei kann es mehr als einen Cluster in einer UEC Installation geben. Cluster bestehen in einigen Fällen aus physikalisch räumlich voneinander getrennten Nodes.

Cluster Controller (CC)
Eine Eucalyptus Komponente die für die Verwaltung der Node Ressourcen zuständig ist. Der CC wird durch das Ubuntu Package eucalyptus-cc zur Verfügung gestellt.

EBS
Elastic Block Storage

EC2 - Elastic Compute Cloud
Amazons Public Cloud Computing Angebot auf Basis von virtuellen Servern, bei dem die Abrechnung pro Stunde bzw. pro Gigabyte erfolgt.

EKI
Eucalyptus Kernel Image

EMI
Eucalyptus Machine Image

ERI
Eucalyptus Ramdisk Image

Eucalyptus
Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems.
Bei Eucalyptus handelt es sich um ein Open Source Projekt, welches ursprüglich an der University of California in Santa Barbara entwickelt wurde und mittlerweile durch Eucalyptus Systems unterstützt wird.

Front-end
Ein oder mehrere physikalische Server, auf denen die Eucalytpus Komponenten (cloud, walrus, storage controller, cluster controller) ausgeführt werden.

Node
Bei einem Node handelt es sich um eine phyiskalische Maschine, die in der Lage ist virtuelle Maschinen und einen Node Controller auszuführen. Innerhalb von Ubuntu bedeutet dies, dass eine CPU die VT Erweiterung unterstützt und den KVM Hypervisor ausführen kann.

Node Controller (NC)
Eine Eucalyptus Komponente die auf den Nodes ausgeführt wird, welche die virtuellen Maschinen beherbergen die wiederum der Cloud zugeordnet sind. Der NC wird durch das Ubuntu Package eucalyptus-nc zur Verfügung gestellt.

S3 - Simple Storage Service
Amazons Public Cloud Computing Angebot für das Speichern der EC2- und anderer Daten, bei dem die Abrechnung pro Gigabyte erfolgt.

Storage Controller (SC)
Eine Eucalyptus Komponente die zur Verwaltung des dynamic block storage services (EBS) dient. Jeder Cluster innerhalb einer Eucalyptus Installation kann seinen eigenen Storage Controller besitzen. Der SC wird durch das Ubuntu Package eucalyptus-sc zur Verfügung gestellt.

UEC
Ubuntu Enterprise Cloud
Ubuntu's Cloud Computing Lösung auf der Basis von Eucalyptus.

VM
Virtual Machine

VT
Virtualization Technology
Moderne CPUs unterstützen diese Funktion, um die Arbeit (das Hosting) mit den virtuellen Maschinen zu beschleunigen.

Walrus
Eine Eucalyptus Komponente welche die Amazon S3 API implementiert und dafür benötigt wird, die Images der virtuellen Maschinen, sowie die Daten der Benutzer in S3 Buckets mittels put/get zu speichern.



Cloud Computing Nutzen: Content bereitstellen

Unternehmen stehen vor der Herausforderung Inhalte wie Bilder, Videos oder sonstige Downloads auf Ihren Webseiten den Kunden hochperformant und zuverlässig bereitzustellen. Eine Möglichkeit dieses zu realisieren ist das Erhöhen des Durchsatzes sowie die Verringerung der Latenz innerhalb des Netzwerks.

Mittels eines Content Delivery Network (CDN), in welchem die Inhalte auf sogenannten Edge-Servern gespeichert werden und die sich in einem Rechenzentrum dass sich möglichst nah am Benutzern befinden, können Teile der oben genannten Anforderungen erfüllt werden. Zusätzlich können Algorithmen verwendet werden, welche die Inhalte zum Zeitpunkt der Anfrage auf die Server in der Nähe des Benutzers kopieren, wodurch die Leistung weiter erhöht wird.

Soll ein Content Delivery Network eines Anbieters eingesetzt werden, muss zunächst die Zuverlässigkeit und die Größe/Reichweite des Netzwerks bestimmt werden. Weiterhin ist die Kompatibilität und Integrationsmöglichkeit mit den eigenen zu veröffentlichen Ressourcen zu klären.

Neben den technischen Anforderungen sind ebenfalls die vertraglichen Rahmenbedingungen zu prüfen. Mit welchen Kosten muss gerechnet werden. Existieren Mindestgebühren die monatlich gezahlt werden müssen? Entstehen Kosten für die erstmalige Einrichtung und werde ich mich für einen längeren Zeitraum vertraglich binden müssen? Wie ist der Zeithorizont vom Vertragsbeginn bis erstmalig die Inhalte eingestellt werden können? Passt sich der Anbieter/ das System meinen Anforderungen an, wenn diese sich ändern - erfolgt also eine bedarfsabhängige Abrechnung?




Microsoft Intune

Mit Windows Intune stellt Microsoft einen Cloud Service vor, mit dem Unternehmen ihre Computer von einer zentralen webbasierten Konsole aus verwalten und schützen können. Damit kann die Administration aller Rechner von jedem Ort aus erfolgen und Updates sowie Service Packs zentralisiert überwacht und gesteuert werden. Mittels der Malware Protection lassen sich die PCs zusätzlich schützen.

Weiterhin kann ein Administrator mittels einer Remote Konsole den Benutzern aus der Ferne helfen und Hardware und Software inventarisieren.

Ideale Einsatzbereiche für Microsoft Intune sind die Verwaltung und Konfiguration der Systeme von Road Warrior und Consultants, die ständig unterwegs sind und ihre Arbeitsplätze an wechselnende Orten und unteschiedlichen Kunden haben. Ebenso ist die Verwaltung großer IT-Landschaften mit verschiedenen PC Konfigurationen ein Einsatzgebiet von Microsoft Intune.

Funktionen

Updateverwaltung
Zentrale Verwaltung und Bereitstellung der Microsoft Updates und Service Packs für alle inventarisierten PCs.

Schutz vor Malware
Zentraler Schutz der gesamten PC-Umgebung auf Basis der Microsoft Malware Protection Engine, Microsoft Forefront® Endpoint Protection und Microsoft Security Essentials.

Proaktive Überwachung
Automatische Benachrichtigung bzgl. Updates und Bedrohungen für proaktive Aktivitäten, um Probleme bereits im Vorfeld zu identifizieren und zu lösen, bevor die Benutzer bzw. das Business davon direkt betroffen sind.

Remote Unterstützung
Unterstützung der Benutzer von jedem Ort zu jeder Zeit via remote Unterstützung, egal wo sich der Benutzer bzw. der Administrator gerade befindet.

Inventarisierung
Zentrale Inventarisierung der gesamten Hard- und Software Umgebung zur Verwaltung aller Lizenzen und Endgeräte für einen genauen Überblick und der Sicherstellung der Compliance.

Verwaltung der Sicherheitsrichtlinien
Zentrale Verwaltung der Einstellungen bzgl. Updates, Firewalls und des Malware Schutzes innerhalb des gesamten Unternehmensnetzwerks.

Quelle



Cloud Computing Nutzen: Hosting von Anwendungen

Vor der Einführung des Software-as-a-Service Modells (SaaS) (abgesehen von den Application Service Providern - ASP) waren Unternehmen gezwungen eigene Infrastrukturen für die Nutzung und Bereitstellung lokaler Anwendungen aufzubauen und zu warten. Mit SaaS können diese Anwendungen nun online gehostet und verwendet werden. Die Vorteile zeichnen sich auf der einen Seite durch Kosteneinsparungen auf Grund eines nutzungsabhängigen Abbrechnungsmodells, durch automatisierte Updates und Upgrades durch den Anbieter auf der anderen, sowie einer guten Integration in die eigenen bestehenden Systeme ab.

Anbieter von Software as a Service basierten Anwendungen stehen vor der Herausforderung die kostspieligen und komplexen Infrastrukturen, die für das Hosting dieser Anwendungen benötigt werden, aufzubauen sowie skalierbar und hochperformat bereitszustellen. Zumal die Nachfrage durch die Kunden mittels eines Forecast schwierig anzuschätzen ist.

Unternehmen die ihre lokalen Anwendungen in eine Cloud Computing Umgebung migrieren wollen und Anbieter die Anwendungen als SaaS in der Cloud bereitstellen möchten sehen sich Fragen gegenübergestellt, die nicht immer leicht zu beantworten sind.

Wie ist die Plattform des Anbieters bzgl. des technischen Angebots und der Umgebung ausgestattet. Genauer, kann die zu verwendene Programmiersprachen und Webplattform selbst ausgewählt werden oder werden beide vorgegeben? Findet eine Migration statt, muss geklärt werden, ob u.a. die aktuell verwendeten Betriebssysteme und Umgebungen weiter verwendet werden können, oder ob eine vollständige/ teilweise Erneuerung stattfinden muss. Welchen Einfluss habe ich bzgl. der Ressourcenverwaltung - also wie kann ich auf unterschiedliche Auslastungen durch mehr oder weniger Nachfragen an die Anwendungen Einfluss nehmen?

Wie ist die Expertise des Anbieters in dessen Cloud Umgebung ich meine Anwendungen betreiben möchte hinsichtlich einer verteilten, redundanten, hochverfügbaren und skalierbaren Infrastruktur? Kann der Anbieter sicherheitstechnische Maßnahmen bzgl. Datenschutz, Datensicherheit, Risikomanagement etc. nachweisen - ist dieser evtl. sogar durch eine unabhängige Instanz zertifiziert? Wie transparent sind die Verträge des Anbieters? Stichwort: Versteckte Kosten! Werden gesonderte Verfplichtungen mit dem Anbieter eingegangen oder müssen initial Investitionen vorgenommen werden und mögliche Anschaffungen zu finanzieren?



Cloud Computing Nutzen: Bereitstellung von Medieninhalte

Wollen Unternehmen ihren Kunden Medieninhalte über das Internet bereitstellen, stehen sie vor der Herausforderung, Lastspitzen durch nicht kalkulierbare Anfragemengen zu unterschiedlichen Zeitpunkten zu bewältigen, die nicht überschaubar und teuer werden können. Anforderungen an die gesamte Infrastrukturen betreffen hierbei die verfügbare Bandbreite, die Performance, der Speicherplatz und nicht zu vernachlässigen die Sicherheit. All das kann dazu führen, dass die ursprünglich geplanten Kosten deutlich höher ausfallen.

Für die Planung eines solchen Delivery Modells durch einen Cloud Computing Anbieter stellen sich neben den Fragen bzgl. der Kosten und des Aufwands für die Entwicklung der Lösung, der Bereitstellung und dem Speichern der Medieninhalte Fragen zur Infrastruktur, die dafür benötigt wird und einen großen Einfluss auf den Erfolg hat. Grundsätzlich muss zunächst bestimmt werden, wie der Aufbau der gesamten Infrastruktur aussehen soll, also welche Hardware, Software und Netzinfrastruktur genutzt werden soll und wieviel davon jeweils benötigt wird. Ergänzend und einflussnehmend darauf stellt sich die Frage, wie zuverlässig die Inhalte den weltweiten Kunden bereitgestellt werden können und wie in diesem Zusammenhang mit unvorhergesehen Lastspitzen umgegangen wird. Dazu gehört ebenfalls der Aspekt der Sicherheit bzgl. Datenbackups, Disaster Recovery und möglicherweise global verteilten Redundanzen.



Fallbeispiel: Cloud Computing im Unternehmenseinsatz

Um die Möglichkeiten des Cloud Computing im Unternehmenseinsatz darzustellen, wird am Beispiel eines fiktiven Unternehmens, der Spielwaren GmbH, die IT-Infrastruktur analysiert und ein Handlungskonzept für die Migration in die Cloud vorgestellt.

Ausgangssituation

Die Spielwaren GmbH ist ein weltweit agierendes Unternehmen mit vier Standorten in Deutschland, den USA, China und Indien. Das Unternehmen erzielt mit seinen knapp 3.500 Mitarbeitern weltweit einen Umsatz von ca. 1 Milliarde US Dollar pro Jahr. Die IT-Umgebung des Unternehmens wurde in den letzten Jahren weitestgehend nur dann aktualisiert, wenn die Notwendigkeit durch Ausfall eines Servers oder ähnliches bestand. Die Systemumgebung setzt sich wie folgt zusammen.

  • Customer Relationship Management: Microsoft Dynamics CRM
  • Enterprise Resource Planing: Microsoft Navision
  • Verzeichnisdienst/ Domain Controller: Microsoft Active Directory Services
    (ADS)
  • Kommunikationsserver/ E-Mail-Server: Microsoft Exchange 2000
  • Applicationserver: Microsoft Windows 2000 Server
  • Fileserver: Microsoft Windows 2000 Server (für Office Dokumente)
  • Webserver: Microsoft Internet Information Server
  • Betriebssysteme: Windows 2000 Professional
  • Anwendungssoftware: Microsoft Office 2000

Die Kommunikation der Standorte findet über SDSL VPN-Verbindungen statt. Die beschriebene Systemumgebung gilt für jeden Standort. Eine Skizze der IT-Infrastruktur ist in der folgenden Graphik illustriert.

Ausgangssituation der Spielwaren GmbH

Analyse der IT-Umgebung

Eine Analyse der IT-Infrastruktur führte zu folgendem Ergebnis.

  • Microsoft Dynamics CRM: ok
  • Microsoft Navision: veraltet
  • Microsoft Active Directory Services: ok
  • Microsoft Exchange 2000: veraltet, die Maintenance durch Microsoft endet im Juli 2010, Lizenzen können nicht mehr nachbestellt werden.
  • Microsoft Windows 2000 Server: veraltet, die Maintenance durch Microsoft endet im Juli 2010, Lizenzen können nicht mehr nachbestellt werden.
  • Webserver: überdimensioniert, Erweiterungen ohne Konzept, Jahresdurchschnitt ca. 15% Belastung, Hauptzeiten: 80% Zuwachs
  • Windows 2000 Professional: veraltet, die Maintenance durch Microsoft endet im Juli 2010, Lizenzen können nicht mehr nachbestellt werden.
  • Microsoft Office 2000: veraltet, die Maintenance durch Microsoft endet im Juli 2010, Lizenzen können nicht mehr nachbestellt werden.
  • Arbeitsplatzrechner: überwiegend veraltete Systeme, die in den nächsten ein bis zwei Jahren ausgetauscht werden müssen(!)
  • VPN-Verbindungen: instabil(!), der Datenverkehr nimmt durch steigende Synchronisationen zu.

Generell gilt für die vorhandenen Rechenzentren: Die Hardware bei 80% der Server ist am Limit bzw. veraltet und muss dringend augetauscht werden.

Handlungskonzept

Auf Basis der Analyse und der Sondierung des Cloud Computing Marktes erhält die Spielwaren GmbH folgende Handlungsempfehlung.

  • Microsoft Dynamics CRM: Ablösung durch Salesforce.com
  • Microsoft Navision: Ablösung durch Salesforce.com
  • Microsoft Active Directory Services: Migration zu Google Apps mittels Directory Sync, Integration von Salesforce.com in Google Apps Professional mittels Salesforce for Google Apps
  • Microsoft Exchange 2000: Ablösung durch Google Apps Professional (Mail & Kalender)
  • Microsoft Windows 2000 Server: können entfallen, da sämtliche Office Dokumente auf Google Apps abgelegt werden, ggf. können auf GoGrid Fileserver angemietet und über entsprechende APIs mit Salesforce und Google Apps verbunden werden.
  • Webserver: Go Grid Server (Baukastensystem bestehend aus Load Balancer, Datenbankserver, Webserver und Speicherplatz) auf Linux oder Windows Basis
  • Windows 2000 Professional: Kann durch eine Linux Distribution z.B. Ubuntu Linux ausgetauscht werden
  • Microsoft Office 2000: Ablösung durch Google Apps Professional (Text & Tabellen)
  • Arbeitsplatzrechner: Schrittweise Ablösung der Fat-Clients durch Thin-Clients
  • VPN-Verbindungen: Die SDSL Leitungen bleiben vorhanden, die Kommunikation erfolgt vollständig über die Cloud

Die beschriebene Handlungsempfehlung gilt für die gesamte IT-Umgebung der Spielwaren GmbH, wodurch alle Standort betroffen sind. Eine Skizze der möglichen IT-Infrastruktur nach Umsetzung der Handlungsempfehlung ist in der folgenden Graphik illustiert.

Handlungskonzept für die Spielwaren GmbH

Vorteile

Die Migration würde der Spielwaren GmbH folgende Nutzen bringen.

  • Reduzierung der Kosten
    • Lizenzkosten für Software
    • Hardwarekosten (Server, Desktop)
    • Maintenance-Kosten
    • Personalkosten
  • Erhöhung der Datensicherheit
    • Automatisierte Durchführung von Backups durch den Anbietern
  • Optimierung der Zusammenarbeit
    • Standortübergreifende Zusammenarbeit durch Web-Kollaboration
  • Automatisierung der Softwarewartung
    • die Anwendungssoftware ist immer auf dem aktuellen Stand
  • Steigerung der Flexibilität
    • Mitarbeiterverwaltung
    • Hinzufügen neuer Anwendungen
  • Mobilität
    • Mitarbeiter können von überall arbeiten
    • Zugriff auf alle Daten von überall
  • Konzentration auf Kernkompetenzen
    • Erhöhung der Investitionen in das Kerngeschäft

Nachteile

Neben den Nutzen birgt die Migration aber auch einige Gefahren, die aufgezeigt werden müssen.

  • Politische Einflüsse
    • Politische Spionage/ Einschränkungen über die Internetverbindungen (z.B. China)
  • Single point of failure
    • Internetverbindung (kann durch Backupleitungen abgesichert werden)
  • Ausfall eines Anbieters
  • Datensicherheit(!)
    • Alle unternehmenskritischen Informationen befinden sich auf fremden Servern
  • Standorte der Server
    • Ist in der Cloud nicht transparent
  • Abhängigkeit
    • Die Standards der Anbieter müssen eingehalten werden

Kostenbetrachtung

Um den finaziellen Vorteil mit Zahlen zu verdeutlichen, wird die vorgeschlagende Google Apps Professional dem vergleichbaren Microsoft Exchange Server gegenüber gestellt. Die Aufstellung der Kosten ist in der folgenden Graphik nachzuvollziehen.

Vergleich der Kosten von Google Apps Professional mit einer Microsoft Exchange Lösung

Der Vergleich zeigt den deutlichen finanziellen Vorteil durch den Einsatz der Google Apps Professional Lösung. Über einen Zeitraum von drei Jahren liegen die Ersparnisse pro Benutzer bei ca. 62,00 EUR im Vergleich zur Microsoft Exchange Lösung. Das liegt zum einen an den geringeren Lizenzkosten der Google Lösung (Ersparnis: 98.000 EUR), zum anderen an den geringeren Wartungs- (Ersparnis: 53.000 EUR) und Administrationskosten (Erspanis: 68.000 EUR) sowie an den fehlenden Investitionskosten in eine eigene Infrastruktur für die Server (Ersparnis: 20.400 EUR). Werden die gesamten Wartungs-, Administrations und Infrastrukturkosten herausgerechnet (letzte Zeile), liegt der Kostenvorteil der Google Lösung über einen Zeitraum von drei Jahren nur noch bei ca. 8,00 EUR pro Mitarbeiter.

Dieser Vergleich zeigt, wie die Infrastruktur- und Wartungskosten durch den Einsatz von Cloud Computing signifikant gesenkt werden können.

Reflexion

Die Handlungsempfehlungen, die für dieses Beispiel gewählt wurden, sind bewusst ein wenig extrem aber verdeutlichen gleichzeitig, was bereits heute mit dem Cloud Computing für Möglichkeiten bestehen. Ein Unternehmen muss sich gut überlegen, ob es seine Infrastruktur bzw. die unternehmenskritischen Daten in der Form so auslagern möchte. Zu groß ist z.B. das Risiko der Datensicherheit. Werden auf der anderen Seite aber Kunden von Google (Motorola und Procter & Gamble) und Salesforce.com (Dell, Dow Jones und Morgen Stanley) herangezogen, sollte die Attraktivität dieses Outsourcingmodells nicht vernachlässigt werden. Zu so einer Entscheidung gehört auch immer eine subjektive Betrachtung, bei der die Kosten eine immer größer werdene Variable in der Gleichung werden. Aus diesem Grund müssen auch Kompromisse geschlossen werden, wenn Kosten gesenkt werden sollen. Ob die Datensicherheit dabei zweitrangig behandelt werden darf bleibt fraglich.



Cloud Computing Nutzen: High Performance Computing

Die Verarbeitung großer Datenmengen für die eine hohe Rechenleistung benötigt wird ist in den vergangenen Jahren stark angestiegen. Davon betroffen sind vor allem Unternehmen aus den Bereichen der Medizintechnik, Finanzdienstleitungen und Medien.

Für einzelne rechenintensive Projekte werden die Kapazitäten Infrastrukturen oftmals stark erweitert, da die bestehende Infrastruktur nicht leistungsfähig genug ist. Im schlimmsten Fall stehen zusätzlich nicht ausreichend finanzielle Mittel und Zeit zur Verfügung, um die Infrastruktur gemäß den Anforderungen anzupassen. Hinzu kommt der Aufwand zur Errichtung und dem Erweitern der Serverumgebungen und der damit verbundenen Beschaffung und Bereitstellung der Hard- und Software. Das Gewährleisten einer hohen Verfügbarkeit darf ebenso wenig vernachlässigt werden wie die Sicherheit der gesamten Umgebung. Weiterhin muss die Infrastruktur verwaltet (u.a. Zuweisung des Speichers, Konfiguration der Batchprozesse) werden um den Geschäftszweck zu erfüllen, was implizit dazu führt, dass die Mitarbeiter dementsprechend fortgebildet und verwaltet werden müssen.

Eine weitere Herausforderung ist die Verwaltung und Neuzuordung der Ressourcen nach dem erfolgreichen Beenden eines Projekts. Werden die verfügbaren Ressourcen nicht umgehend neuen Projekten oder Aufgaben zugewiesen, stehen diese nur rum und verursachen Kosten ohne einen Wertbeitrag zu liefern.

Mittels Cloud Computing können die Problematiken der oben genannten Punkte minimiert werden und Ressourcen für Projekte aus dem Bereich des High Performance Computing (HPC) bzw. Parallel Computing bedarfsgerecht und kosteneffizient bezogen werden.

Für die Verlagerung von HPC-Projekte in die Cloud eines Anbieters ist zu prüfen, wieviele Speicher- und Rechenkapazitäten zur Verfügung stehen und in welchem Zeitraum weitere benötigte Ressourcen für das Projekt hinzugefügt bzw. wieder freigegeben werden können. In diesem Zusammenhang steht weiterhin die Kostenfrage, also ob langfristige Verträge eingegangen werden müssen oder ob nur die Ressourcen abgerechnet werden, die auch tatsächlich genutzt wurden. Ein weiterer technischer Aspekt sind die verfügbaren Programmiersprachen und Modelle, die der Anbieter zur Verfügung stellt bzw. unterstützt.



openQRM ab sofort mit Service Level Agreements & Professional Services

Die openQRM Enterprise aus Köln bietet ihren Kunden und Nutzern von openQRM per sofort professionelle Service Level Agreements (SLA) auf Basis der Level Basic, Standard und Premium.

Durch die Einführung dieser SLAs setzt sich die openQRM Enterprise damit selbst das Ziel, hochqualitativen Support für die Cloud Computing Plattform openQRM zu liefern, wodurch Kunden direkten Kontakt mit dem openQRM Enterprise Support-Team herstellen können und weiterhin Zugriff auf einen Bug-Tracker erhalten.

Abgerundet werden die SLAs mit Professional Services, mit denen eine direkte Unterstützung bei der Einführung und der Lösung von Problemen mit openQRM geboten wird. Dazu gehören ebenfalls die regelmäßige Unterstützung durch das openQRM Enterprise Support-Team, um den einwandfreien Betrieb und die Wartung (Updates) von openQRM zu gewährleisten und die Entwicklung spezieller und spezifischer Funktionen und Anforderungen durch den Kunden.

Service Level Agreements

  • Vollständiges Zugriff auf das openQRM Enterprise Bug-Tracking System
  • Updates durch die openQRM Enterprise
  • Zertifizierung der openQRM Umgebung durch die openQRM Enterprise
  • openQRM Enterprise Newsletter
  • Monatliche Berichte inkl. Besprechung
  • Direkter Kontakt zum openQRM Enterprise Support-Team

Professional Services

  • Unterstützung der openQRM Umgebung auf Basis der eigenen Anforderungen
  • Automatische openQRM Updates
  • Entwicklung neuer Funktionen für openQRM - auch auf Basis eigener Anforderungen
  • Zertifizierung der openQRM Umgebung durch die openQRM Enterprise
  • openQRM Enterprise Newsletter

openQRM Updates ab sofort durch die openQRM Enterprise

Weiterhin wird die openQRM Enterprise die aktive Entwicklung von openQRM übernehmen, wodurch die Qualität und Innovation von openQRM weiter verbessert werden soll und wichtige Updates zeitnah veröffentlicht werden können.

Wichtig hierbei ist, dass die openQRM Enterprise alle Änderungen und Releases weiterhin auf dem Open-Source Repository von SourceForge.net zur Verfügung stellen wird, so dass jeder openQRM weiter frei nutzen kann.

Quelle

  • openQRM
  • openQRM Enterprise


Cloud Computing Nutzen: Externe E-Commerce Lösungen

Im Bereich des E-Commerce verfügen die meisten Unternehmen nicht über die Kernkompetenzen, ihren Anwendungen die notwendigen Eigenschaften für einen ganzheitlichen Handelsprozess zu etablieren. Dazu gehören der gesamte Zahlungsverkehr, die Auftragsverwaltung, das Kommissionieren und Verpacken der Artikel sowie den Versand zum Kunden. Weiterhin muss die gesamte IT-Infrastruktur auf die E-Commerce Lösung abgestimmt sein, um die Bearbeitung der Kundenanfragen zuverlässig und sicher abzuwickeln und ebenfalls auf saisonale bzw. unerwartete Lastspitzen durch schwankende Anfragen flexibel zu reagieren.

Zahlreiche Cloud Computing Anbieter stellen E-Commerce Lösungen bereit, wodurch Unternehmen auf den Aufbau und die Verwaltung einer eigenen Plattform verzichten können und sich damit auf ihre Kernkompentenzen und ihre Kunden konzentrieren können.

Bei der Auswahl eines Anbieters sind zunächst einfache Randbedingungen zu beachten wie das Angebot der Zahlungsmöglichkeiten (Kreditkarte, EC-Karte etc.) an meinen Kunden und die Reichweite meiner Kunden (lokal, global, Europa, Amerika, etc.). Wie steht es um das mögliche Angebot, dass ich offerieren kann. Beschränkt sich dieses auf materielle Waren oder bin ich ebenfalls in der Lage Dienstleitungen und digitale Güte zu verkaufen. Stellt mir der Anbieter Möglichkeiten zur Verfügung, um meine Waren und Dienstleistungen zu bewerben?

Neben diesen eher technisch fremden Bereichen steht ebenfalls die Infrastruktur des Anbieters im Fokus. Verfügt der Anbieter über ausreichend Ressourcen und Kapazitäten um saisonale Lastspitzen abzufangen und das Backend stabil zu betreiben, also z.B. Lagerbestände in Echtzeit zu kontrollieren und verwalten. Kann ich meine Artikel indizieren, um meinen Kunden eine schnelle Suche über meine Produktpalette anzubieten. Zu guter letzt muss die Plattform auf der die E-Commerce Lösung betrieben wird zuverlässig arbeiten und meine Entwickler unterstützen darauf schnell und unkompliziert neue Anwendungen zu entwickeln und bereitzustellen.



Zoho – Productivity & Collaboration Apps

Mit der ZOHO Office Suite bietet der gleichnamige Anbieter ein webbasiertes Angebot zu der u.a. Tools für die Textverarbeitung, Tabellenkalkulation, Präsentationen, Datenbanken, Wikis, CRMs Projektmangement, Rechnungsstellung etc. gehören. Damit stellt ZOHO derzeit mit Abstand das größte Portfolio bzgl. webbasierter Office & Collaboration Angebote.

Die jeweiligen Angebote werden als Software as a Service bereitgestellt und befinden sich auf den Servern in der Cloud von ZOHO. Für den Zugriff benötigen die Benutzer lediglich einen Standard Webbrowser. Weiterhin existieren Plugins für die lokale Integration z.B. in Microsoft Office und Microsoft SharePoint.

Unterschieden wird derzeit in die Bereiche Productivity & Collaboration Apps, Business Apps und Utilities.

Dieser Artikel zeigt die Angebote aus dem Bereich Productivity & Collaboration Apps.

Zoho Mail

  • Offline-Support
    Auch ohne Internetverbindung können E-Mails gelesen und verfasst werden.
  • Mobilversion
    Zugriff auf Zoho Mail per iPhone und anderer mobiler Geräte.
  • Spamschutz
    Vermeidung von Spam durch selbstlernende Algorithmen.
  • Personalisierte E-Mail-Adresse
    Personalisierte E-Mail-Adresse (d.h. name@unternehmen.de), oder name@zoho.com.
  • Ordner und Beschriftungen
    Unterstütztung von traditionellen Ordnern und Beschriftungen.
  • Instant Messaging
    Integriertes Instant Messaging innherhalb von Zoho Mail ohne die Nutzung eines separaten Clients.
  • Webseite
    http://mail.zoho.com

Zoho Writer

  • Freigabe & Kollaboration
    Kollaboration in Echtzeit durch Freigabe von Dokumente, entweder individuell pro Person oder für Gruppen.
  • Offline Support
    Zugriff und Bearbeitung von Dokumente auch ohne Internetverbindung.
  • Posten zu Blog
    Veröffentlichung vion Dokumente direkt in einem Blog.
  • Import / Export Dokumente
    Hochladen und Herunterladen von Dokumenten und Speichern auf dem lokalen Computer.
  • Vorlage Bibliothek
    Auswahl von vorgefertigten Dokumenten aus einer Vorlagen Bibliothek.
  • Webseite
    http://writer.zoho.com

Zoho Sheet

  • Zugriff von jedem Ort
    Erstellen, Bearbeiten und Zugriff auf Tabellen von jedem Ort ohne vorherige Installation.
  • Gemeinsame Nutzung
    Gemeinsame Nutzung und Bereitstellung von Tabellen für Freunde oder die gesamte Öffentlichkeit.
  • Zusammenarbeit
    Gemeinsame arbeiten von mehreren Benutzern an einer Tabelle zur gleichen Zeit.
  • Import / Export Excel
    Import und Export von Excel Tabellen.
  • Makros und Pivot Tabellen
    Nutzung von VBA Makros und Pivot Tabellen.
  • Entwicklung von Mashups
    Synchronisation von entfernten Daten im Web und Nutzung der Zoho API zum Aufbau von Mashups.
  • Webseite
    http://sheet.zoho.com

Zoho Show

  • Zugang von überall zu jeder Zeit
    Zugriff, Import und Bearbeitung von Präsentationen von überall und zu jeder Zeit.
  • Gemeinsame Nutzung und Zusammenarbeit
    Teilen der Präsentationen mit Ihren Freunden/Kollegen. Gemeinsames Öffnen/Bearbeiten mit einem normalen Browser.
  • Präsentieren Sie von der Ferne
    Darstellung der Präsentation über das Web ohne selber vor Ort zu sein.
  • Integration
    Integration der Präsentation in einem Blog/Webseite ein.
  • Webseite
    http://show.zoho.com

Zoho Docs

  • Online-Speicherung von Dateien
    Speichern der Dokumente online. Zugriff von überall. Pflege mehrerer Dateiversionen.
  • Sichere Dateifreigabe
    Freigabe der Dateien und Fotos online. Gleichzeitiges arbeiten und kollaborieren mehrerer Benutzer in Echtzeit an einem Dokument.
  • Online-Chat und Zusammenarbeit
    Zusammenarbeit und Diskussionen über das Dokument zwischen mehreren Benutzern in verschiedenen Zeitzonen mittels Chat-Funktion.
  • Administratorkonsole
    Hinzufügen von Benutzern und verteilen von Rechten durch einen Administrator.
  • Integriert Zoho Writer, Sheet und Show
    Erstellen, bearbeiten, freigeben, suchen und anzeigen der gesamten Dokumente auf einer einzigen Seite.
  • Online-Arbeitsbereich
    Erstellen von Ordner, und freigeben von Dateien durch das Einladen von weiteren Benutzern. Die Dateien können entsprechend der vom Besitzer festgelegten Berechtigung angezeigt und bearbeitet werden.
  • Erstellen von Ordnern und Tags
    Organisation aller Dateien mittels verschieben (Drag&Drop) in Ordnern und durch versehen mit Tags.
  • Suchen
    Volltextsuche für Metadaten, Inhalte und Tags in jedem gespeicherten Dokument, z. B. PDF, Bilder usw.
  • Webseite
    http://docs.zoho.com

Zoho Notebook

  • Erstellen unterschiedlicher Inhalte
    Erstellen von Texten, Bildern, Audio und Video Inhalten.
  • Zusammenfassung aller Informationen an einem Ort
    Integration unterschiedlicher Inhalte aus mehreren Anwendungen.
  • Zusammenarbeit
    Teilen unterschiedlicher Informationen wie einem kompletten Buch, einer Seite oder einem Objekt auf einer Seite, je nach Rechtevergabe.
  • Versionskontrolle
    Änderungsverfolgung sämtlicher Informationen bis hinunter auf Objektebene.
  • Webseite
    http://notebook.zoho.com

Zoho Wiki

  • WYSIWYG Editor
    WYSIWYG Editor zur Erstellung von Inhalten.
  • Teilen und Zusammenarbeiten
    Gemeinsames verteiltes Arbeiten von jedem Ort.
  • Organisieren und Verwalten von Seiten
    Verwaltung der Seiten von einer zentralen Stelle in einer hierarchischen Ordnerstruktur.
  • Personalisierung
    Auswahl des eigenen Logos, eigenes Design, Anpassung des Header, Footer und der Sidebar.
  • Verwaltung der Zugriffsrechte
    Bestimmung der Zugriffsrechte auf Basis von Gruppen oder auf Seitenebene.
  • RSS Feeds
    Informieren neuer Inhalte durch einen RSS Feed.
  • Webseite
    http://wiki.zoho.com

Zoho Planner

  • Online Organizer
    Hinzufügen, Verwalten und Teilen von Aufgaben, Notizen und Bildern.
  • Aufgabenlisten
    Hinzufügen und Verwalten von mehreren Aufgabenlisten.
  • Erinnerungen erstellen
    Hinzufügen von E-Mail Erinnerungen.
  • Hochladen von Dateien und Bildern
    Hochladen von Dateien und Bildern an eine zentrale Stelle für den Zugriff von jedem Ort.
  • Notizen erstellen
    Hinzufügen von täglichen Notizen.
  • Webseite
    http://planner.zoho.com

Zoho Chat

  • Live Support
    Live Unterstützung von Kunden/Kollegen/Freunden via Chat.
  • Shoutbox
    Integration einer Shoutbox innerhalb eines Blogs oder einer Webseite.
  • Live Chat
    Live Kommunikation mit den Besuchern des eigenen Blogs oder der Webseite.
  • Gruppen Chat
    Möglichkeit zum Aufbau von Chats innerhalb von Gruppen.
  • Multi-Protokol Unterstützung
    Unterstützung von allen gängigen Protokollen wie Yahoo, Google, MSN, AIM, ICQ & Jabber.
  • Hinzufügen von Events im Kalendar
    Hinzufügen von Kalendereinträgen innerhalb von Zoho Chat.
  • Prüfen von E-Mails
    Lesen und Erstellen von E-Mails innerhalb von Zoho Chat inkl. automatischer Benachrichtigung neuer E-Mails.
  • Desktopsharing
    Freigeben des eigenen Desktops für Chatpartner.
  • Webseite
    http://chat.zoho.com


Cloud Computing Nutzen: Webcrawler

Informationen sind im Internet weit verteilt und unorganisiert, wodurch für das Suchen, Abfragen, Verteilen und Verarbeiten dieser Daten hohe Anforderungen hinsichtlich der Verarbeitung und dem Speichern gestellt werden. Weiterhin werden moderne Algorithmen benötigt, mit denen diese Daten manipuliert, indiziert und die Anfragen der Benutzer beantwortet werden können. Der ständige Wandel innerhalb des Internets verstärkt zudem die Situation exakt die Informationen zu finden die gesucht wurden.

Mit Cloud Computing steht im Prinzip jedem die Möglichkeit bzgl. Speicherplatz und Rechenleistung zur Verfügung um einen eigenen Webcrawler zu entwickeln. Dazu müssen Dinge beachtet werden, die auch von der Infrastruktur eines Cloud Computing Anbieter erfüllt werden müssen, auf welcher der Webcrawler dann ggf. ausgeführt wird.

Zunächst stellt sich die grundsätzliche Frage, auf was für eine Infrastruktur zurückgegriffen werden muss, um ein skalierbares System aufzubauen, das den Herausforderungen des heutigen und vor allem zukünftigen Internets gewachsen ist. Das fängt bei der Speicherarchitektur zur Ablage sämtlicher Daten an, die davon abhängt, wie der zukünftige Speicherbedarf aussieht (Wachstumsrate) und wie viel Speicher tatsächlich notwendig ist. Weiterhin muss bedacht werden, wie dynamisch und skalierbar sich die Performance hinsichtlich der Indizierung und dem Durchsuchen der aktuellen und zukünftigen Daten sowie der grundsätzlichen Verarbeitung verhält.



Cloud Computing Nutzen: Datenspeicherung und Datenbackup

Eine der größten Herausforderungen für Unternehmen ist die stetige Zunahme der zu speichernden Daten, welche die Verwaltungsaufgaben immmer komplexer und kostspieliger werden lässt. Nicht nur auf Grund dieser Situation wird die Gewährleistung des Datenschutzes und der Datenverfügbarkeit immer wichtiger. Cloud Storage für das Speichern und Backup der Daten ist hierfür ein idealer Ansatz wenn gewisse Punkte beachtet werden.

Wie kann ich zukünftig auf meine Daten zugreifen und ist der Zugriff ortsunabhängig möglich. Wie ist das Sicherheitsmodell des Anbieters, kann ich den Zugriff verwalten oder hat stets jeder Zugriff auf die Daten? Verfügt der Anbieter über ein Risikomanagement, wodurch Ausfallszeiten und der Verlust meiner Daten vermieden wird? Stehen mir Möglichkeiten zur Verfügung, mit denen ich zuverlässige Backupstrategien implementieren kann und im Worst Case ebenfalls eine Systemwiederherstellung durchführen kann. Wie skalierbar ist die Speicher/Backup Lösung des Anbieters. Wächst diese automatisch mit meinen Bedürfnissen oder bin ich zunächst auf einen fixen Speicherplatz angewiesen der manuell erweitert werden muss, wodurch deutlich höhere Kosten entstehen?



openQRM mit neuen Funktionen

Bereits seit dem 12.03.2010 ist der Funktionsumfang der Cloud Computing Plattform openQRM erweitert. Eines der neuen Features ist die Unterstützung des Windows Betriebssystems. Folgende vier neue Funktionen sind verfügbar:

kvm-storage plug-in

Das kvm-storage Plugin kombiniert die KVM Virtualisierungstechnologie mit der LVM Speichertechnologie. Dadurch können ab sofort lokale virtuelle Maschinen auf Basis von KVM durch die Nutzung von virtuellen Festplatten auf Basis von LVM Volumes schnell bereitgestellt werden.

xen-storage plug-in

Das xen-storage Plugin kombiniert die Xen Virtualisierungstechnologie mit der LVM Speichertechnologie. Dadurch können ab sofort lokale virtuelle Maschinen auf Basis von Xen durch die Nutzung von virtuellen Festplatten auf Basis von LVM Volumes schnell bereitgestellt werden.

sanboot-storage plug-in

Mit dem sanboot-storage Plugin können Windows Betriebssysteme schnell auf dem physischen System bereitgestellt werden. Dazu werden die Windows Server Images auf direktem Weg von einem SAN Speicher (iSCSI oder AOE) mittels gPXE bereitgestellt. Eine der herausragenden neuen Funktionen ist die Möglichkeit Live Snapshots des Windows Betriebssystems direkt in einem SAN zu speichern. Diese Snapshots können anschließend für ein erneutes Deployment/ Rollback verwendet werden.

windows plug-in

Mit dem windows Plugin kann über die Oberfläche des openQRM Servers ein Windows Betriebssystem vollständig verwaltet werden, indem der openQRM-Client auf dem Windows Server Image installiert wird. Durch die Unterstützung des Windows Betriebssystems geht openQRM damit den nächsten Schritt, eine zentrale Management Console für Cloud Computing Rechenzentren und IT-Infrastrukturen bereitzustellen.



Cloud Computing Nutzen: Web-Hosting

Unternehmen haben unterschiedliche Lösungsansätze, um das Web-Hosting ihrer Webseite zu betreiben. Zunächst besteht die Möglichkeit ein eigens Rechenzentrum aufzubauen und zu betreiben. Weiterhin kann ein Drittanbieter damit beaufragt werden die Webseite auf seine dafür dedizierten Servern zu hosten und zu verwalten. Der letzte Ansatz ist die Nutzung Cloud Computing basierter Lösungen.

Egal welcher Ansatz nun verfolgt wird, ist es für Unternehmen unabdingbar eine Infrastruktur auszuwählen, die Ihnen eine größtmögliche Sicherheit, Zuverlässigkeit und Performance bietet. Unabhängig davon rücken die Kosten, also fixe Kosten und variable Kosten immer weiter in den Fokus und betreffen jedes Unternehmen jeder Größe. Zudem ist in den letzten Jahren der Wunsch nach Flexibilität immer weiter gestiegen um die Kosten transparenter im Blick zu behalten.

Cloud Computing Lösungen geben Unternehmen hierbei die Chance ihre vorab Investitionen zu verringern und damit Kapital zu sparen. Ein weiterer Vorteil eine Cloud Lösung besteht in der Skalierbarkeit in beide Richtungen. Steigt die Auslastung an, können die Ressourcen nach oben skaliert werden. Nimmt die Auslastung wieder ab, werden die überschüssigen Ressourcen wieder freigegeben. In beiden Fällen entstehen nur Kosten für die Ressourcen die auch tatsächlich genutzt werden.

Fällt die Entscheidungen auf eine Cloud Computing Lösung müssen sich Unternehmen vorab genau informieren, um nicht doch in eine Kostenfalle oder einen Vendor oder Technik lock-in zu geraten. Dabei sollte zunächst geprüft werden, was für Kosten zu Beginn und während des Webhosting Betriebs entstehen und ob nicht doch versteckte Gebühren in den Verträgen vorhanden sind. Stichwort: Transparenz! Weiterhin ist zu klären, wie verlässlich und hochverfügbar die Infrastruktur des Anbieters ist. Ist dieser ggf. von einer unabhängigen Instanz hinsichtlich dieser Anforderungen geprüft und zertifiziert worden? Wie verhält sich die Infrastruktur des Anbieters, wenn die Anfragen/Last plötzlich unerwartet zunimmt. Wie ist das Ressourcenhandling der Infrastruktur? Hier ist ein unabhängiges Audit eine Möglichkeit (z.B. durch Zusammenschluss mehrerer Kunden).

Wie ist der Anbieter bzgl. seines technischen Angebots und seiner Umgebung ausgestattet. Genauer, gibt der Anbieter die zu verwendenen Programmiersprachen und Webplattform vor, oder kann beides jeweils selbst ausgewählt werden? Findet eine Migration zu dem Anbieter statt, muss geklärt werden, ob u.a. die aktuell verwendeten Betriebssysteme und Umgebungen weiter verwendet werden können, oder ob eine vollständige/ teilweise Erneuerung stattfinden muss.



Scalarium

Scalarium, das Cloud Computing Produkt der Peritor GmbH dient zur Automatisierung der Kommunikation und Konfiguration von Amazon EC2 Cluster.

Eine Beispielkonfiguration für einen Cluster würde z.B. aus einem Load Balancer, drei Rails Applikations-Servern und einem Datenbankserver bestehen. Für den Start dieses Clusters ist anschließend Scalarium verantwortlich, indem es eine Verbindung zur Amazon Compute Cloud (EC2) herstellt und die entsprechenden Instanzen startet. Die Images werden geladen und der Scalarium Agent installiert.

Der Scalarium Agent wird auf jedem Server ausgeführt und ist über eine verschlüsselte Verbindung ständig mit Scalarium in kontakt. Webserver werden dabei automatisch mit Nginx konfiguriert, während Datenbankserver eine MySQL Installation erhalten. Nachdem der Scalarium Agent auf einer Instanz installiert wurde und das System konfiguriert hat, wird die Instanz als online markiert und kann durch den Cluster verwendet werden.

Scalarium bietet die folgenden vier Funktionen, die im Anschluß jeweils kurz vorgestellt werden.

  • Auto Config
  • Auto Healing
  • Auto Scaling
  • One Click Deploy

Auto Config

Mittels der Auto Configuration werden die Server automatisiert konfiguriert, indem die benötigte Software installiert und eingerichtet wird. Werden weitere Instanzen hinzugefügt, konfiguriert Scalarium automatisch die Anwendungen und den gesamten Cluster. Die einzigen Informationen die von Scalarium dazu benötigt werden sind die gewünschten Ubuntu Packages und Rubygems. Anschließend werden alle Pakete und Libraries auf jedem Server installiert und das zu jederzeit.

Weitere Informationen zu Auto Config sind HIER zu finden.

Auto Healing

Mit Auto Healing sorgt Scalarium dafür, dass die vorher festgelegten Services und Hosts des Cluster im Fehlerfall automatisch wiederhergestellt werden. Fällt z.B. ein Server aus, wird dieser durch Scalarium entfernt und in kurzer Zeit durch eine neue Instanz ersetzt, wodurch der gesamte Cluster automatisch neu konfiguriert wird.

Weitere Informationen zu Auto Healing sind HIER zu finden.

Auto-Scaling

Durch das Auto-Scaling können Schwellwerte festgelegt werden die dafür sorgen, dass entweder weitere Instanzen gestartet oder nicht mehr benötigte Instanzen beendet werden. Dazu überwacht Scalarium die CPU- und Arbeitspeicher-Auslastung, sowie die durchschnittliche Belastung jeder Instanz.

Weitere Informationen zu Auto Scaling sind HIER zu finden.

One Click Deploy

Mittels One Click Deploy können Anwendungen über den gesamten Cluster hinweg zu einem Zeitpunkt vollständig automatisiert verteilt, installiert und konfiguriert werden.

Weitere Informationen zu One Click Deploy sind HIER zu finden.

Demo Video

http://www.youtube.com/watch?v=F2UzrYOZNM4

Preise

Quelle