Tag: Technology


ChromeOS in der VirtualBox

In diesem Artikel zeige ich heute, wie man Googles ChromeOS mit der Virtual Box ausführen kann.

Voraussetzungen

In Kürze

Zunächst laden wir uns das ChromeOS VMWare Image herunter, das auch für die VirtualBox genutzt werden kann. Anschließend erstellen wir eine virtuelle Machine für den Typ Linux/Ubuntu und weisen ihr das VMWare Image zu. Ist die virtuelle Machine gestartet, können wir uns mit einem vorhandenen Google Account an ChromeOS anmelden. Achtung!!! Das Tastaturlayout ist auf Englisch voreingestellt.

In Bildern

Nach der Installation starten wir die VirtualBox.

Anschließen öffnen wir den Manager für virtuelle Maschinen über Datei >> Manager für virtuelle Maschinen. Hier fügen wir das ChromeOS VMWare Image als Festplatte hinzu.

Jetzt erstellen wir eine neue virtuelle Maschine, indem wir den blauen Punkt auswählen, geben der virtuellen Maschine einen Namen, hier ChromeOS und wählen als Betriebssystem Linux und Version Ubuntu.

Im nächsten Schritt weisen wir der virtuellen Maschine den für sie verfügbaren Arbeitsspeicher zu, hier 384 MB.

Nun weisen wir der virtuellen Maschine die Festplatte zu, die wir oben über den Manager für virtuelle Maschinen angelegt haben.

VirtualBox zeigt uns am Ende eine Zusammenfassung.

Mit einem Klick auf den grünen Pfeil wird die virtuelle Maschine mit dem ChromeOS gestartet.

Nun können wir uns mit unserem Google Benutzernamen und Passwort bei ChromeOS anmelden.



Erste Schritte mit Amazon EC2 – Windows

Dieses Tutorial beschreibt das Einrichten einer virtuellen Instanz mit einem Windows Server 2008 AMI (Amazon Machine Image) auf Basis der Amazon Elastic Compute Cloud (Amazon EC2). Dazu gehören die vollständige Einrichtung der Instanz und der anschließende Zugriff per Remote Desktop Verbindung von einem Windows 7 Computer.

Voraussetzungen

  • Amazon Web Service Account
  • Amazon EC2 ist für den Account bereits aktiviert
  • RDP Client

Auswahl, Einrichten und Starten der Instanz

Zuerst öffnen wir die Webseite der Amazon Web Services und melden uns dort an.

Anschließend starten wir die AWS Management Console für EC2.

Hier klicken wir auf Launch Instance.

Ein weiteres Fenster öffnet sich, in dem bereits fertig vor-konfigurierte Amazon Machine Images (AMIs) von Amazon angezeigt werden. Hier wählen wir das erste AMI - Getting Started on Microsoft Windows Server 2008 (AMI Id: ami-a4698bcd)

Nun wählen wir folgende Konfiguration:

  • Number of Instances: 1
  • Availability Zone: No Preference
  • Instance Type: Small (m1.small 1.7 GB)

Als erweiterte Konfiguration wählen wir:

  • Kernel ID: Use Default
  • RAM Disk ID: Use Default
  • Monitoring: Nein

Anschließend erstellen wir ein Schlüsselpaar, hier mit dem Namen clouduser_key und speichern es auf unserem Rechner.

Im nächsten Schritt konfigurieren wir die Firewall, indem wir für unsere AMI eine Security Group erstellen. Die Standardvorgabe ist der externe Zugriff auf die Ports 3389 (RDP), MS SQL Server (1433) und 80 (HTTP). Die Freigaben für den Port 80 und 1433 habe ich entfernt, da wir sie in diesem Fall nicht benötigen. Wir geben der Security Group einen Namen, hier Security_Group_2 und eine Beschreibung, hier RDP_Only und wählen continue.

Danach erhalten wir eine Zusammenfassung unserer Konfiguration, wo wir mittels Launch unsere Instanz starten.

Über Your instances are now launching kommen wir zur Console zurück.

Dort sehen wir, dass unsere soeben erstellte Instanz aktiv ist und wir uns nun mit ihr verbinden können. Dazu notieren wir uns zunächst den Namen in der Spalte Public DNS.

Verbinden mit der Instanz

Um uns mit der Instanz zu verbinden öffnen wir zunächst die Datei mit unserem erstellten Private Key und kopieren den gesamten Inhalt inkl. der Kommentare -----BEGIN RSA PRIVATE KEY----- und -----END RSA PRIVATE KEY-----.

Nun gehen wir zurück zur AWS Management Console, klicken mit der rechten Maustaste auf die Instanz und wählen Get Windows Password

In das Feld Private Key* fügen wir den privaten Schlüssel inkl. der Kommentare -----BEGIN RSA PRIVATE KEY----- und -----END RSA PRIVATE KEY----- ein.

Nach dem Klick auf Decrypt Password wird uns der Benutzername und das Passwort für die Anmeldung an unserer Instanz angezeigt.

Jetzt öffnen wir die Remote Desktop Verbindung und tragen dort den Public DNS Namen ein.

Nach dem Klick auf Verbinden geben wir den Benutzernamen und das Passwort, das wir oben erhalten haben, ein.

Die Verbindung wird hergestellt.

Nun müssen wir noch das Zertifikat unserer Instanz akzeptieren.

Wir sind mit unserer Instanz verbunden.

Beenden der Instanz

Um die Instanz wieder zu beenden gehen wir zurück zu der AWS Management Console klicken mit der rechten Maustaste auf die Instanz und wählen Terminate.

Nach dem Bestätigen wird die Instanz beendet.

In der AWS Management Console ist am gelben Punkt zu sehen, dass die Instanz beendet wird. Das benötigt ein wenig Zeit.



Erste Schritte mit Amazon EC2 – Linux

Dieses Tutorial beschreibt das Einrichten einer virtuellen Instanz mit einem Fedora Linux AMI (Amazon Machine Image) auf Basis der Amazon Elastic Compute Cloud (Amazon EC2). Dazu gehören die vollständige Einrichtung der Instanz und der anschließende Zugriff per SSH von einem Windows 7 Computer.

Voraussetzungen

Auswahl, Einrichten und Starten der Instanz

Zuerst öffnen wir die Webseite der Amazon Web Services und melden uns dort an.

Anschließend starten wir die AWS Management Console für EC2.

Hier klicken wir auf Launch Instance.

Ein weiteres Fenster öffnet sich, in dem bereits fertig vor-konfigurierte Amazon Machine Images (AMIs) von Amazon angezeigt werden. Hier wählen wir das erste AMI - Getting Started on Fedora Core 8 (AMI Id: ami-b232d0db)

Nun wählen wir folgende Konfiguration:

  • Number of Instances: 1
  • Availability Zone: No Preference
  • Instance Type: Small (m1.small 1.7 GB)

Als erweiterte Konfiguration wählen wir:

  • Kernel ID: Use Default
  • RAM Disk ID: Use Default
  • Monitoring: Nein

Anschließend erstellen wir ein Schlüsselpaar, hier mit dem Namen clouduser_key und speichern es auf unserem Rechner.

Im nächsten Schritt konfigurieren wir die Firewall, indem wir für unsere AMI eine Security Group erstellen. Die Standardvorgabe ist der externe Zugriff auf die Ports 22 (SSH) und 80 (HTTP). Die Freigabe für den Port 80 habe ich entfernt, da wir sie in diesem Fall nicht benötigen. Wir geben der Security Group einen Namen, hier Security_Group_1 und eine Beschreibung, hier SSH_Only und wählen continue.

Danach erhalten wir eine Zusammenfassung unserer Konfiguration, wo wir mittels Launch unsere Instanz starten.

Über Your instances are now launching kommen wir zur Console zurück.

Dort sehen wir, dass unsere soeben erstellte Instanz aktiv ist und wir uns nun mit ihr verbinden können. Dazu notieren wir uns zunächst den Namen in der Spalte Public DNS.

Verbinden mit der Instanz

Um uns mit der Instanz zu verbinden starten wir zunächst PuTTYgen und laden uns über Load den privaten Schlüssel den wir uns oben erstellt haben.

Wenn dieser geladen ist, klicken wir auf Save private Key und ignorieren das Fenster mit der Passphrase!

Jetzt öffnen wir unseren PuTTY SSH Client und tragen den Public DNS Namen in das Feld Host Name. Der Port 22 (SSH) ist der Standardwert.

Wir navigieren im PuTTY SSH Client auf der linken Seite zu dem Punkt SSH >> Auth. Dort laden wir bei dem Punkt Authentication parameters unseren oben mit PuTTYgen erzeugten privaten Schlüssel.

Nach einem klick auf Open wird eine Verbindung zu unserer Instanz hergestellt.

Dort melden wir uns mit dem Benutzer root an. Nun können wir mit unserer erstellten Linux Instanz arbeiten.

Beenden der Instanz

Um die Instanz wieder zu beenden gehen wir zurück zu der AWS Management Console klicken mit der rechten Maustaste auf die Instanz und wählen Terminate.

Nach dem Bestätigen wird die Instanz beendet.

In der AWS Management Console ist am gelben Punkt zu sehen, dass die Instanz beendet wird. Das benötigt ein wenig Zeit.



Die Microsoft Online Services

Die Microsoft Online Services sind das Software as a Service bzw. "Software plus Service" Angebot von Microsoft. Dabei handelt es sich um eine Reihe von Messaging-und Collaboration-Lösungen, die in den Rechenzentren von Microsoft gehosted werden. Zu den Services gehören Microsoft Office Communications Online, Microsoft SharePoint Online, Microsoft Exchange Hosted Services, Microsoft Exchange Online und Microsoft Office Live Meeting.

Diese einzelnen Services und ihre Funktionen stelle ich in diesem Artikel kurz vor.

Microsoft Office Live Meeting
Microsoft Office Live Meeting ist eine durch Microsoft gehostete Webkonferenzlösung, mit der online und ortsunabhängig mit Kollegen und Kunden in Echtzeit z.B. für Trainingszwecke oder Veranstaltungen kommuniziert werden kann.

Zu den Funktionen gehören:

  • Webclientunterstützung
  • Anwendungs-/Desktopfreigabe und Whiteboardtools
  • Videoumschaltung auf den aktiven Sprecher
  • Videos mit mehreren Teilnehmern
  • Webkonferenzen
  • Webcamfunktionen
  • Trainings- und Veranstaltungsverwaltung
  • Veranstaltungs- und Kursregistrierung und virtuellen Vorführungsräumen

Microsoft Exchange Online
Microsoft Exchange Online ist die gehostete Messaginglösung auf Basis des Microsoft Exchange Server 2007. Mitarbeitern steht damit der vollständige Zugriff auf ihre E-Mails, Kalender, Kontakte auf unterschiedlichen Systemen wie dem Desktop-PC, Laptop oder mobilen Geräten zur Verfügung.

Zu den Funktionen gehören:

  • E-Mail-Zugriff von jedem beliebigen Ort
  • 5 GB Postfachspeicher pro Standardlizenz
  • Postfächer sind auf 25 GB erweiterbar
  • Unterstützung von Windows Mobile 6.0
  • Unterstützung von BlackBerry

Der Microsoft Exchange Server kann sowohl intern im eigenen Rechenzentrum oder extern durch Microsoft, oder als Hybrid Ansatz genutzt werden.

Microsoft Exchange Hosted Services
Die Microsoft Exchange Hosted Services dienen zur Archivierung aller E-Mails im Rahmen gesetzlicher Vorschriften. Dazu gehören ein Spam- und Malwarefilter sowie Verschlüsselungstechnologien.

Zu den Funktionen gehören:

  • Archivierung
    E-Mail-Aufbewahrung im Rahmen gesetzlicher Bestimmungen
  • Ausfallsicherheit
    E-Mail-Kontinuität bei Ausfällen
  • Verschlüsselung
    Richtlinienbasierte E-Mail-Verschlüsselung
  • Schutz durch Filter
    Vielschichtiger Spam- und Virenschutz

Microsoft SharePoint Online
Bei Microsoft SharePoint Online handelt es sich um ein zentralisiertes Ressourcen und Workflowmanagement. Dabei können Dokumente, Kontakte, Kalender und Aufgaben gemeinsam von einem zentralen Standort genutzt und ausgetauscht werden und so effektiver zusammengearbeitet werden. Eine weitere Möglichkeit besteht im Aufbau von Intranetseiten und Plattformen, in denen Projektteams zusammenarbeiten, Informationen freigeben, sowie Workflows für Genehmigungs-, Prüf- und Archivierungsprozesse automatisieren können. Die Verwaltung der Inhalte (Content Management) erfolgt dabei mit Microsoft Office.

Microsoft Office Communications Online
Microsoft Office Communications Online stellt eine vollständig integrierte und zentralisierte Anwesenheits- und IM-Funktionen bereit, die mit den Produkten des Microsoft Office Systems zusammenarbeiten. Dabei kann in Echtzeit mittels Text, Sprache und Video mit anderen Kollegen innerhalb des Unternehmens kommuniziert werden.

Microsoft Business Productivity Online Standard Suite
Die Microsoft Business Productivity Online Suite umfasst sämtliche gehostete Lösungen von Microsoft aus dem Bereich Messaging-und Collaboration. Dazu gehören Exchange Online, SharePoint Online, Office Live Meeting und Office Communications Online.

Quelle



Ein Cloud Desktop mit openQRM

Nachdem ich eyeOS in zwei Artikeln ausführlich vorgestellt habe, möchte ich in diesem Artikel eine weitere interessante Möglichkeit aufzeigen, einen persönlichen Cloud Desktop zu nutzen. Dazu dient das von mir ebenfalls schon vorgestellte Cloud Management Tool openQRM, auf dessen Portal Webseite (http://www.openqrm-portal.de) ich die Idee (von Matt Rechenburg beschrieben) entdeckt habe.

Cloud Desktops wie auch Desktop-Virtualisierung sind für mich die Megatrends der Zukunft, die bei jedem auf der Roadmap stehen sollten!

Um uns einen Cloud Desktop mit openQRM zu erstellen gehen wir wir folgt vor:

1. Bestellen einer Cloud Appliance von openQRM

Zunächst legt man sich einen Account unter https://demo.openqrm.com und erstellt einen neuen Cloud-Request.

2. Installation von vncserver und Gnome auf der Cloud Appliance

Die Pakete vnc4server, xorg und gnome müssen per apt-get auf der Cloud Appliance wie folgt installiert werden.

root@cloud-91-1-x:~# apt-get install tightvncserver vnc4server xorg gnome

3. Erstellen eines VNC Users

Mit dem Befehl adduser wird ein neuer Benutzer erstellt.

root@cloud-91-1-x:~# adduser matt
Adding user `matt' ...
Adding new group `matt' (1001) ...
Adding new user `matt' (1001) with group `matt' ...
Creating home directory `/home/matt' ...
Copying files from `/etc/skel' ...
Enter new UNIX password:
Retype new UNIX password:
passwd: password updated successfully
Changing the user information for matt
Enter the new value, or press ENTER for the default
Full Name []:
Room Number []:
Work Phone []:
Home Phone []:
Other []:
Is the information correct? [y/N] y
root@cloud-91-1-x:~#

Danach mit dem su Befehl zum eben erstellten Benutzer wechseln.

root@cloud-91-1-x:~# su - matt
matt@cloud-91-1-x:~$

4. Erstellen einer VNC Passwortdatei

Mit dem vnc4passwd Tool wird eine neue VNC Passwortdatei erzeugt.

matt@cloud-91-1-x:~$ vnc4passwd
Password:
Verify:
matt@cloud-91-1-x:~$

5. Erstellen eines xstartup Skript

Für den automatischen Start einer Gnome Session nach dem VNC-Login muss eine xstartup Datei im .vnc/ Verzeichnis angelegt werden.

matt@cloud-91-1-x:~$ vi .vnc/xstartup
matt@cloud-91-1-x:~$ cat .vnc/xstartup
#!/bin/sh

xrdb $HOME/.Xresources
xsetroot -solid grey
gnome-session &

matt@cloud-91-1-x:~$

Die Datei muss nun noch ausführbar gemacht werden.

matt@cloud-91-1-x:~$ chmod -x
matt@cloud-91-1-x:~$ .vnc/xstartup

6. Start des vncserver

Nun muss der vncserver gestartet werden.

matt@cloud-91-1-x:~$ tightvncserver
xauth: creating new authority file /home/matt/.Xauthority

Creating default startup script /home/matt/.vnc/xstartup
Starting applications specified in /home/matt/.vnc/xstartup
Log file is /home/matt/.vnc/cloud-91-1-x:1.log

7. Verbindung mit dem Cloud Desktop herstellen

Mit einem vncviewer Tool (Linux/Windows) kann man sich nun mit dem Befehl vncviewer[IP-Adresse der Cloud-Appliance]:1 mit dem Gnome Desktop in der Cloud verbinden.

matt@matt-laptop:~$ vncviewer x.x.x.x:1

Nach der Anmeldung steht ein vollständiger Gnome Desktop in der Cloud zur Verfügung.

Quelle

Your Desktop in the Cloud (DE)



Google Apps

Google Apps ist die webbasierte Office & Collaboration Suite von Google. Sie umfasst in der kostenlosen Standard Edition und der Edition für Non-Profit Organisationen die Programme Mail, Kalender, Text & Tabellen, Sites, Talk und Kontakte. Die Premier- und Education Editionen verfügen zusätzlich noch über Video, Groups und APIs für Erweiterungen und die Integration in die eigene Infrastruktur sowie weitere Services von Partnern.

Dieser Artikel stellt zunächst die einzelnen oben genannten Programme jeweils kurz vor und vergleicht am Ende die kostenlose mit der kommerziellen Version.

Mail

Google Mail verfügt je nach Edition über einen Speicherplatz von 7 GByte bis 25 GByte. Die Ablage der E-Mails erfolgt nicht klassisch in einer Ordnerstruktur, stattdessen können Labels definiert werden mit der jede E-Mail beliebig getaggt werden kann.

Auch die Art der Verwaltung einer E-Mail Kommunikation ist anders als bei herkömmlichen E-Mail Clients. Werden bei Thunderbird, Outlook etc. für jede E-Mail die hin und her geschickt wird eine separate "physische" E-Mail erstellt die dann im Posteingang und/oder Postausgang liegt, werden die E-Mails bei Google Mail in sogenannten Konversationen verwaltet. Dabei entsteht ein "Objekt" an das jede E-Mail die zu dieser Konversation (Betreff) gehört angehängt wird. Jede Benutzer der an dieser Konversation teilnimmt, erhält zur Unterscheidung eine andere Farbe.

Die Technologie des Spamfilter halte ich für einzigartig. Ich nutze Google Apps nun seit mehreren Jahren und hab in der Zeit nicht eine Spam E-Mail im Posteingang gefunden, dafür ist der Spamordner immer randvoll! Auch die Suche nach E-Mails oder Inhalten von E-Mails funktioniert sehr gut, da merkt man gut, welchen Kernbereich Google normalerweise abdeckt.

Der verschlüsselte Zugriff auf die Postfächer kann lokal von jedem Benutzer oder global über die Managementkonsole festgelegt werden. Seit kurzem ist allerdings nur noch der SSL-Zugriff möglich. Der mobile Zugriff auf Google Mail ist ebenfalls möglich. dazu sind Anwendungen für Android, iPhone, Blackberry und weitere Smartphones wie z.B. Nokia vorhanden. Migrationstools erlauben zusätzlich das Importieren von E-Mail Konten aus anderen Systemen wie Microsoft Exchange oder Lotus Notes.

Google Mail verfügt weiterhin über ein integriertes Messaging System, welches ich weiter unten für die Anwendung Talk beschreibe.

Kalender

Der Google Kalender ist vollständig mit Google Mail verknüpft. Nachdem ein Eintrag erstellt wurde, können Freunde/ Bekannte oder Mitarbeiter darüber direkt per E-Mail informiert bzw. eingeladen werden. Weiterhin können die eigenen Kalender lesend und/oder schreibend anderen Personen freigegeben werde, um ihnen den Zugriff darauf zu gewähren. Dadurch haben Kollegen z.B. die Möglichkeit die Termine eines anderen Kollegen in ihrem Kalender zu sehen und ggf. sogar zu bearbeiten.

Google Kalender ist ebenfalls mit Google Sites verknüpft, damit kann ein Kalender(eintrag) auf einer Webseite veröffentlicht werden. Kalender können darüber hinaus - z.B. für Veranstaltungen - grundsätzlich öffentlich verfügbar gemacht und in Googles Kalendergallerie aufgenommen werden.

Der mobile Zugriff ist ebenso wie bei Google Mail möglich. Zusätzlich können Kalenderbenachrichtigungen per SMS verschickt werden.

Text & Tabellen

Text & Tabellen ermöglicht das gemeinsame Bearbeiten (inkl. Versionierung) von Dateien in Echtzeit. Das beschränkt sich entweder nur auf die Benutzer in der eigenen Domain, aber auch externe Partner und Kunden können darauf den Zugriff erhalten und aktiv mitarbeiten.

Die erarbeiteten Dokumente, Tabellen und Präsentationen können anschließend z.B. auf den Webseiten von Google Sites oder im Intranet eingebettet werden. Päsentationen können über das Internet abgehalten werden, ohne dass sich die Zielgruppe am selben Ort befindet, die benötigt nur einen Browser mit aktiver Internetverbindung.

Text & Tabellen bietet bereits vorgefertigte Vorlagen für Formulare, z.B. für Umfragen oder Registrierungen die auf Webseiten verfügbar gemacht, per E-Mail verschickt oder in Dokumente eingebunden werden. Die eingegeben Daten werden dabei automatisch in einer verknüpften Tabelle gespeichert. Darüber hinaus existieren Vorlagen für Geschäftsdokumente, Visitenkarten, Briefköpfe, Zeiterfassungsformulare etc., die ebenfalls in vorhandene Dokumente integriert werden können.

Texte & Tabellen unterstützt und kann folgende Dateiformate importieren und exportieren: DOC, XLS, CSV, PPT, TXT, HTML, PDF.

Der mobile Zugriff mit Android, Blackberry oder iPhone ist ebenfalls möglich.

Sites

Mit Google Sites kann jede beliebige Art von Webseite erstellt werden, wie z.B. Seiten für das Intranet in einem Unternehmen, für Teams, Projekte, Abteilungen, Schulungen oder Wikis. Der Zugriff ist per se nur für Leute innerhalb der Domain erlaubt. Die Seiten können aber für externe Partner, Kunden ider Lieferanten zugänglich gemacht werden.

Innerhalb eine Google Sites Webseite können unterschiedliche Arten von Inhalten eingebettet werden. Dazu gehören Textdokumente, Tabellen, Präsentationen, Videos, Formulare oder Photos. Darüber hinaus ist die Google Suchfunktion vorab in jeder Site integriert, wodurch der gesamte Inhalt indiziert ist und schnell gefunden werden kann.

Talk

Google Talk ist in zwei Varianten verfügbar. Die erste ist die klassische Software, die auf dem PC installiert und von dort genutzt wird. Damit stehen auf dem PC Chat-, Sprach- und Videofunktionen zur Verfügung.

Die zweite Variante ist eine integrierte Instant Messaging Funktion innerhalb von Google Mail, mit der direkt eine Verbindung mit den Kontakten im eigenen Addressbuch oder per Mausklick auf den Absender einer E-Mail hergestellt werden kann. Vorausgesetzt, der Kontakt verfügt über ein Google-Talk Konto bzw. einen ICQ/AIM Account. Über ein zusätzliches Plugin kann das Instant Messaging um Voice- und Video-Chat Funktionen erweitert werden. Der Chat-Verlauf innerhalb von Google Mail kann dabei in einem Chat-Protokoll für jede einzelne Sitzung (pro Tag) aufgezeichnet werden. Das Protokoll wird nach dem Beenden der Sitzung wie eine E-Mail im Archiv abgelegt.

Ist man im Besitz eines Android Smartphones, kann die Chat-Funktion von Google Talk auch unterwegs genutzt werden.

Kontakte

Google Kontakte ist keine Anwendung im eigentlichen Sinne. Vielmehr hat man damit die Möglichkeit seine Kontakte in einem separaten "großen" Fenster zu verwalten. Normalerweise erreicht man die Kontakte in Google Mail über den Button "Kontakte" auf der linken Seite. Dabei werden die Kontakte dann in dem Bereich angezeigt, wo sonst die E-Mail Konversationen aufgelistet werden. Das kann auf Geräten, wie z.B. Netbooks ziemlich eng werden, wodurch das Auslagern in ein weiteres Fenster wesentlich komfortabler ist.

Managementkonsole

Mit der Managementkonsole wird der gesamte Google Apps Account verwaltet. Hier werden die hier beschriebenen Anwendungen aktiviert oder deaktiviert, weitere Benutzer hinzugefügt, E-Mail Adressen Benutzern zugeordnet, Benutzergruppen verwaltet, das Layout bestimmt und alle weiteren Einstellungen rund um die Domain vorgenommen.

Groups (Premium)

Mit Google Groups können Online Communities erstellt werden. Das Erstellen beschränkt sich nicht nur auf den Administrator, sondern gilt für alle Mitglieder einer Google Apps Domain. Die Google Groups sind in der Premier sowie in der Education Edition enthalten.

Mit Google Groups können Text & Tabellen, Kalender, Sites und Videos für eine gesamte Gruppe anstatt einer einzelnen Person freigegeben werden. Die Gruppenzugehörigkeit und damit die Sichtbarkeit der Inhalte steuert der Besitzer der jeweiligen Gruppe.

Die Gruppenmitglieder können selber bestimmen wie und wie oft sie über Neuigkeiten innerhalb einer Gruppe informiert werden wollen. Dazu haben sie die Auswahl zwischen einzelnen E-Mails, täglichen Zusammenfassungen oder keine Benachrichtigungen.

Video (Premium)

Mit Google Videos können Unternehmensinhalte visuell intern oder extern verfügbar gemacht werden. Die Videos können ebenfalls in Google Sites oder ein beliebigen Webseite integriert werden. Benutzer haben die Möglichkeit die einzelnen Videos zu bewerten, Kommentare hinzuzufügen oder zu taggen, um sie damit leichter wiederzufinden. Durch die zentrale Verwaltung können Administratoren alle Videoinhalte von einer Stelle aus verwalten.

Vergleich Standard vs. Premium

Wie der oberen Graphik zu entnehmen ist, verfügt die Premium Edition gegenüber der Standard Edition über mehr Funktionen. Weitere Unterschiede sind:

  • Telefonsupport rund um die Uhr (24/7)
  • SLA für eine 99,9-prozentige Verfügbarkeitsgarantie
  • 25 GB Speicherplatz pro Mitarbeiter
  • Single Sign-On, SSL, Viren- und Spamschutz von Postini
  • Einbinden von Google Apps die eigene bestehende IT-Infrastruktur
  • Konferenzraumbelegung, private Videofreigabe, BlackBerry- und Microsoft Outlook-Kompatibilität

Wer nutzt bereits Google Apps?

Eine Viehlzahl von Unternehmen, darunter z.B. General Electric und Twitter nutzen Google Apps. Hier ist eine Liste ausgewählter Unternehmen die Google Apps produktiv einsetzen.

Preise:

  • Standard Edition: kostenlos
  • Education Edition: kostenlos
  • Non-Profit Organisation: kostenlos
  • Premier Edition*: 40 EUR pro Benutzerkonto pro Jahr

    * die "Premier Edition" heißt in Deutschland "Professional Edition"

Versionen

Quelle

Google Apps



OpenNebula

OpenNebula ist ein Open Source Virtual Infrastructure Manager mit dem aus vorhandenen Rechenzentren jede Art von Cloud Computing Umgebung aufgebaut und bereitgestellt werden kann. In erster Linie dient OpenNebula als Tool zur Verwaltung der virtualisierten Infrastruktur des eigenen Rechenzentrums bzw. der eigenen Cluster, also der eigenen Private Cloud.

Darüber hinaus ist OpenNebula in der Lage Hybrid Clouds aufzubauen, also die eigene lokale Infrastruktur mit einer Public Cloud Infrastruktur zu verbinden/kombinieren, um die Skalierbarkeit der eigenen Umgebung noch weiter zu erhöhen. OpenNebula verfügt zusätzlich über spezielle Schnittstellen für die Verwaltung von virtuellen Maschinen, Speicherplatz und des Netzwerks von Public Clouds.

Funktionen

    Private Cloud Computing >> Virtual Infrastructure Management

    • Internal Interfaces for Administrators and Users
      Mit einer Unix ähnlichen Kommandozeile und einer XML-RPC API kann der Lebenszyklus der virtuellen Maschinen und physikalischen Server verwaltet werden. Weitere Administrationsmöglichkeiten bietet die libvirt API.
    • Steuerung
      Die Verwaltung der Arbeitslast und Zuweisung der Ressourcen kann nach bestimmten Regeln wie z.B. der aktuellen Auslastung automatisch vorgenommen werden. Des Weiteren wird der Haizea VM-based lease manager unterstützt
    • Virtualisierungsmanagement
      Es existieren Konnektoren für Xen, KVM und VMware, sowie einem generischen libvirt Konnektor für weitere Virtual Machine Manager. Die Unterstützung von Virtual Box ist in Planung.
    • Image Management
      Es sind Funktionen für den Transfer und das Clonen von Virtual Machine Images vorhanden.
    • Netzwerk Management
      Es lassen sich isolierte virtuelle Netze festlegen um virtuelle Maschinen miteinander zu verbinden.
    • Service Management
      Unterstützung von Multi Tier Services bestehend aus Gruppen von miteinander verbundenen virtuellen Maschinen und deren Auto Konfiguration während des Boot Vorgangs.
    • Sicherheit
      Die Verwaltung der Benutzer wird durch den Administrator der Infrastruktur vorgenommen.
    • Fehlertoleranz
      Eine persistente Datenbank dient zum Speichern aller Informationen der Hosts und virtuellen Maschinen.
    • Skalierbarkeit
      Tests zeigten bisher, das OpenNebula mehrere hundert Server und virtuelle Maschinen verwalten kann.
    • Installation
      Die Installation erfolgt auf einem UNIX Cluster Front-End ohne das weitere Services benötigt werden. OpenNebula wird mit Ubuntu 9.04 (Jaunty Jackalope) ausgeliefert.
    • Flexibilität und Erweiterbarkeit
      Die Architektur, Schnittstellen und Komponenten sind offen, flexibel und erweiterbar. Dadurch kann OpenNebula mit jedem aktuellen Produkt aus dem Bereich Virtualisierung, Cloud Computing oder Management Tool für Rechenzentren integriert werden.
    • Hybrid Cloud Computing

      • Cloud Plugins
        Konnektoren für Amazon EC2 und ElasticHosts.
      • Zusammenschluss
        Unterstützung für den gleichzeitigen Zugriff auf mehrere Remote-Clouds.
      • Erweiterbarkeit
        Modulare Konzepte für die Entwicklung neuer Konnektoren.

      Public Cloud Computing >> Cloud Interfaces

      • Cloud Schnittstellen für Benutzer
        Implementierung einer Teilmenge der Amazon EC2 Query API und der OGF OCCI API
      • Erweiterbarkeit
        Die OpenNebula Cloud API ermöglicht die Implementierung neuer/weiterer Cloud Schnittstellen.

    Seminare und Forschung

    Quelle



CloudBerry Backup

Das CloudBerry Online Backup ist ein Tool zum Erstellen und Wiederherstellen von Backups für Windows Betriebssysteme. Die Daten werden dazu in der Cloud von Amazon genauer auf Amazon S3 abgelegt, wodurch sie jederzeit und unabhängig zur Verfügung stehen.

Mit einem Wizard können Backups und Restores der Daten verschlüsselt erstellt werden um die Daten vor unberechtigten Zugriff zu schützen. Mit Hilfe einer Terminplanung können zeitgesteuerte Backups erstellt und jederzeit, rund um die Uhr, wiederhergestellt werden.

Auf Grund der bekannten Windows Oberfläche kann ein Backup/Restore ohne großen Aufwand vorgenommen werden. Ein weitere interessanter Aspekt ist die Ablage der Daten in der Amazon Cloud. Es wird kein CloudBerry proprietäres Format verwendet. Dadurch kann anschließend mit jedem beliebigen Amazon S3 Tool auf die Daten zugegriffen werden und ein Vendor Lock-in wird damit vermieden.

Funktionsübersicht

  • Backup Wizard
    Der Backup Wizard wird benötigt um Backups zu erstellen und zu konfigurieren. Dabei werden die Ordner und Dateien einem Backup Vorgang hinzugefügt, sowie die Art der Kompression und der Verschlüsselung konfiguriert. Des Weiteren wird damit die Vorhaltezeit des Backups und die Zeit wann das Backup durchgeführt werden soll festgelegt. Beim ersten Start müssen dazu der Amazon S3 Account, die Security Keys und ein Bucket angegeben werden, in welchem das Backup abgelegt werden soll. Wird kein Bucket angegeben, erzeugt CloudBerry Backup automatisch einen Neuen.
  • Backup Plans
    Im Bereich Backup Plans erhält man einen Überblick über die aktuell konfigurierten Backup-Jobs. Diese können hier überwacht, angehalten oder gestoppt werden. Der "Storage Capacity Monitor" zeigt, wieviel Speicherplatz aktuell für das Backup genutzt wird.
  • Storage Browser
    Mit dem Storage Browser erhält man einen Einblick in seine Backups. Hier kann nach Dateien und deren Versionsständen gesucht werden. Darüber hinaus dient der Storage Browser für das Wiederherstellen von einzelnen oder mehreren Dateien.
  • Restore Wizard
    Mit dem Restore Wizard werden einzelne Dateien oder ein gesamtes Backup wiederhergestellt.
  • Windows Home Server Plugin
    CloudBerry Backup kann über ein Plugin vollständig in die Windows Home Server Console integriert werden um ein Backup der Daten eines Windows home Servers auf Amazon S3 zu speichern.
  • Funktionen

    • Zeitgesteuerte Backups
    • Verschlüsselung der Daten
    • Versionierung der Daten
    • Differenzielles Backup
    • Wiederherstellung der Daten von einem bestimmten Zeitpunkt
    • Verifizierung des Backups
    • Erweitern des Backups mit eigenen Routinen
    • Unterstützung der C# API
    • Paralleler Datentransfer
    • Zeitplanung unabhängig vom Windows Task Planer

    Kommende Funktionen

    • Block Level backup und Restore
    • Virtual Disk - Einbinden des Amazon S3 Speicher als lokale Festplatte
    • Speicherkosten mittels http://cloudsplit.com verringern
    • Web Interface für den Zugriff auf die Daten von jedem beliebigen Ort
    • FTP Unterstützung
    • Nirvanix Storage Delivery Network Unterstützung
    • Microsoft Azure Blob Storage Unterstützung
    • Sun Cloud Storage Service Unterstützung
    • EMC Atmos Unterstützung

    Systemvoraussetzungen

    • Windows XP/2003/Vista/2008/Windows 7 (32 und 64 bit)
    • Microsoft .NET Framework 2.0
    • Amazon S3 Account

    Preise etc.

    • 29,99 $ pro Lizenz inkl. einem Jahr Support
    • Der Support für die nachfolgenden Jahre beträgt 20% des ursprünglichen Preis
    • Mengenrabatte sind erhältlich
    • Partner und Affiliate-Programm ist vorhanden
    • Für Blogger, Schulen und Non-Profit Organisationen ist CloudBerry Backup kostenlos

    Quelle

    CloudBerry Backup



    eyeOS – Installation, Demo und erste Schritte

    Nachdem ich eyeOS bereits ausführlich vorgestellt habe, zeige ich nun wie die Installation auf dem eigenen Webspace funktioniert und wie man die ersten Schritte mit eyeOS "wagt".

    Systemvoraussetzungen

    Für die Installation auf einem gewöhnlichen Webspace wird ein Apache 2.x Webserver mit PHP 5.x Unterstützung benötigt. Da eyeOS auf ein eigenes virtuelles Dateisystem aufbaut, ist eine Datenbank nicht notwendig.

    Um den vollen Leistungsumfang von eyeOS zu nutzen wird allerdings ein eigener Root-Server benötigt. Darauf muss anschließend OpenOffice installiert und in eyeOS integriert werden, um Word, Excel, PowerPoint und die OpenOffice Dateiformate lesen und schreiben zu können.

    Alternativ kann ein eyeOS Image für VirtualBox 3.x inkl. Server mit Office Unterstützung und Client heruntergeladen werden.

    Die Installation - Textversion

    1. 1. Download der Installationsroutine von http://eyeos.org/downloads
    2. 2. Entpacken der Dateien
    3. 3. per FTP auf den Webspace kopieren
    4. 4. CHMOD 777 für ./ ; ./index.html ; ./installer/ ; ./package.eyepacke
    5. 5. Domain/ Subdomain wählen, z.B. eyeOS-Demo.meinedomain.de
    6. 6. URL zum Installationspfad wählen
    7. 7. root Passwort wählen
    8. 8. fertig

    Die Installation - in Bildern

    Nach dem Download und Entpacken der Dateien werden diese auf den Webspace kopiert und einer Domain/ Subdomain zugewiesen.

    Der Aufruf des Installers ohne vorherige Änderungen der Zugriffsrechte führt zu folgender Ausgabe:

    Nachdem die Rechte mittels CHMOD 777 für

    1. ./
    2. ./index.html
    3. ./installer/
    4. ./package.eyepacke

    vorgenommen wurden, muss der Systemname und ein Root Password vergeben werden.

    Erste Schritte

    Der erste Schritt besteht natürlich darin sich erstmal bei dem System anzumelden. Das machen wir zunächst mit dem Benutzer Root.

    Wie ich bereits in meinem vorherigen Artikel geschrieben habe, erkennt man bei eyeOS den Einfluss anderer bekannter graphischer Oberflächen wieder.

    Der Nächste Schritt sollte darin bestehen, ein neuen Benutzer ohne Administrationsrechte anzulegen. Dazu klicken wir rechts unten neben dem Datum/Uhrzeit auf das "Auge" und wählen anschließend "System Preferences".

    Dort wählen wir den Punkt "Manage Users".

    Dort legen wir einen weiteren Benutzer inkl. seiner persönlichen Daten wie Name, Vorname, E-Mail Adresse, Benutzername, Passwort und den "Permissions = User" an. Wir können zusätzlich bestimmen, dass der Benutzer das Passwort, dass wir ihm vergeben haben bei der ersten Anmeldung ändern muss.

    Neben den Berechtigungen "Administrator" gibt es noch den "Maintainer". Dieser kann Systemeinstellungen vornehmen, die nicht als kritisch erachtet werden. Da Root nur für die Installation von weiteren Anwendungen benötigt wird, reicht "Maintainer" bzw. "User" vollkommen aus.

    Anschließend melden wir uns mit dem zuvor angelegten Benutzer am System erneut an.

    Für einen ersten Test starten wir z.B. den Browser "eyeNav" indem wir oben in der Leiste "Network >> Navigator" auswählen.

    eyeOS im Betrieb

    Ein Betriebssystem lebt von seinen Anwendungen. Daher stelle ich kurz vier Anwendungen vor, die zu der mitgelieferten Office Suite gehören. Dabei handelt es sich um eyeFiles, eyeDocs, eyeCalender und eyeShow. Zusätzlich erkläre ich euch eyeSync, mit dem Daten vom lokalen System zu eyeOS übertragen werden können.

    Die Anwendungen der Office Suite erreichen wir durch einen Klick in der oberen Leiste auf "Office".

    eyeFiles

    eyeFiles ist z.B. vergleichbar mit dem Windows Explorer oder Nautilus von Gnome. Er dient lediglich dazu, Dateien die sich im eyeOS befinden zu verwalten und benötigt daher keine umfangreichen Funktionen. Über den Menüpunkt "Actions" stehen die gewohnten Funktionen zum Kopieren, Verschieben und Löschen von Dateien bereit.

    eyeDocs

    eyeDocs erinnert stark an die einfache Version von Wordpad was z.B. von Windows XP bekannt ist. Viel mehr als ein besserer Editor mit Formatierungsfunktionen ist die Anwendung derzeit auch nicht und steht in keinster Weise in Konkurrenz z.B. zu Google Docs. Aber für das Schreiben eines einfachen Textes reicht eyeDocs völlig aus.

    eyeCalendar

    eyeCalendar ist, ... ein einfacher, gewöhnlicher Kalender wie wir ihn aus anderen Betriebssystemen etc. her kennen. Die Ansicht kann auf Tag, Woche und Arbeitswoche eingestellt werden und ein Termin kann lediglich einen Betreff enthalten. Mehr sollte man von dieser Anwendung aber bisher leider nicht erwarten.

    eyeShow

    eyeShow stellt das Pendant zu Microsoft Powerpoint dar. Der erste Eindruck täuscht nicht, so bescheiden die Anwendung nach Aussen wirkt, so ist sie auch Innen. Eine Präsentation kann über mehrer Slides verfügen, die wiederum optisch mittels Formatierungen und Bilder aufgewertet werden können. Designvorlagen um das Äußere eines Slides von der weißen Seite etwas abzuheben sind derzeit aber noch nicht vorhanden.

    eyeSync

    eyeSync kann unter http://eyeos.org/de/downloads/eyesync für Windows, Mac und Linux heruntergeladen werden und dient als Synchronisationstool zwischen dem lokalen PC und eyeOS.

    eyeSync bedarf keiner Installation, das Ausführen der eyeSync.exe reicht aus um das Programm zu starten.

    Über "Preferences" wird die URL zu dem eyeOS-Server, sowie der Benutzername und das Passwort hinzugefügt, mit dem Daten ausgetauscht werden sollen.

    Anschließend muss mit dem Benutzer der zuvor für die Synchronisation ausgewählt wurde ein Ordner auf eyeOS angelegt werden, hier: "TestSync"

    Auf dem lokalen PC wird ebenfalls ein Ordner angelegt, der für den Datenaustausch mit eyeOS dient. Anschließend klicken wir in dem eyeSync Tool links Oben auf den Punkt "Add" und fügen den Pfad bzw. den Namen der Ordner hinzu.

    Der Austausch-Ordner erscheint nun auf der linken Seite.

    Zum Test erstellen wir einen Ordner - hier mit dem Namen "tmp" auf unserem lokalen PC.

    Ein Blick in den Ordner "TestSync" in eyeOS zeigt, das der Ordner angelegt wurde. Allerdings mit dem Namen "Neuer Ordner".

    eyeSync kann aktuell nur Daten vom lokalen PC zu eyeOS kopieren, nicht in die andere Richtung. Von einer Synchronisation können wir an dieser Stelle daher nicht reden. Um Daten aber unkompliziert und schnell zu übertragen reicht das Tool völlig aus.

    Demo
    Zur Demonstration habe ich unter http://eyeos-demo.clouduser.de eine eyeOS Installation bereitgestellt. Fühlt euch frei eyeOS auf Herz und Nieren zu prüfen.

    Benutzername: guest
    password: guest

    Fazit
    eyeOS kann noch nicht das bieten, was wir von den gängigen Betriebssystemen gewohnt sind. Allerdings stimmen die Ansätze und auch wenn dieser Artikel an der einen oder anderen Stelle etwas kritisch geworden ist, die Richtung ist klar und deutlich erkennbar, was uns für Möglichkeiten offen stehen und wie wir in Zukunft arbeiten werden.

    Quelle
    eyeOS



    Erste Schritte mit dem CloudBerry S3 Explorer

    Letzte Woche hab ich den CloudBerry S3 Explorer vorgestellt. Heute zeige ich die ersten Schritte und Funktionen, um damit einen Amazon S3 Account zu verwalten.

    Verbindung zum Amazon S3 Account

    Nach dem Start legen wir für den CloudBerry Explorer zunächst unseren Amazon S3 Account an, um uns später damit zu verbinden. Dazu gehen wir auf "File >> Amazon S3 Accounts" klicken dort auf "Add" und fügen unseren S3 Account hinzu, indem wir einen beliebigen Namen zur Anzeige für CloudBerry wählen und unseren von Amazon vergebenen "Access Key" und "Secret Key" eingeben. Die Werte für den "Access Key" und den "Secret Key" erhalten wir direkt im Amazon S3 Account auf der AWS Webseite unter "Security Credentials".

    Um uns nun mit unserem S3 Account zu verbinden wählen wir auf einer der CloudBerry Explorer Seiten "Source >> [Name des eben angelegten S3 Accounts]"

    Erstellen eines Amazon S3 Bucket

    Um einen neuen Bucket zu erstellen klicken wir auf "New Bucket", geben dem Bucket einen Namen und wählen die Region in welcher der Bucket abgelegt werden soll.

    Unser Bucket mit dem Namen "clouduser" ist für die Region "US" angelegt.

    Nachdem der Bucket erstellt wurde, sollten wir die Zugriffsrechte überprüfen. Dazu klicken wir mit der rechten Maustaste auf den Bucket und wählen "ACL >> ACL Settings".

    Dateien können nun hochgeladen werden, indem sie einfach von der einen Seite (lokaler Rechner) des CloudBerry Explorers auf die andere Seite (Amazon Bucket) verschoben werden.



    20 Cloud Infrastruktur Anbieter

    Cloud Infrastrukturen sind einfach zu nutzen und lassen sich gut in bestehende Infrastrukturen integrieren. Dazu überzeugen sie durch Kosteneinsparungen, einfaches Bereitstellen weiterer Serversysteme etc., sowie einem guten Monitoring und Verwalten von Anwendungen innerhalb der Cloud.

    Dieser Artikel stellt 20 Cloud Infrastruktur Anbieter und ihre Produkte vor.

    1. AllenPort
    AllenPort verfügt über eine hybride SaaS Technologie. Dabei wird ein klassisches Microsoft Windows Netzwerk repliziert, was es ermöglicht, einem Benutzer unabhängig von seinem Arbeitsplatz sämtliche Daten und Anwendungen wie z.B. Microsoft Word bereitzustellen. Zu den weiteren Funktionen gehören Backup, Austausch von Dateien, Systemwiederherstellung und Remote Access.

    Webseite: http://www.allenport.com

    2. AppZero
    AppZero stellt sogenannte Virtual Application Appliances bereit, die unabhängig vom Betriebssystem und der darunterliegenden Infrastruktur ausgeführt werden können. Es handelt sich dabei um ein eigenständiges Objekt, das eine Anwendung inkl. aller Abhängigkeiten wie ausführbare Bibliotheken, Dateien, Registrierung, Konfigurationen, und die Netzwerkidentität beinhaltet.

    Webseite: http://www.appzero.com

    3. Boomi
    Boomi verbindet mit seiner AtomSphere jede Kombination von Cloud und selbst gehosteter Anwendung ohne dafür eine Appliance oder Software zu benutzen.

    Webseite: http://www.boomi.com

    4. CA
    CA verfügt über zahlreiche Cloud basierte Tools für das Netzwerk- und Systemanagement. Unter anderem stehen Lösungen für den automatisierten Rechenzentrumsbetrieb sowie Regel basierter Optimierungsvorgänge. Eine weitere Funktion ihres "Spectrum Automation Manger" sind die Verwaltung des Netzwerks- und Systemtraffics für Public und Private Cloud Umgebungen.

    Webseite: http://www.ca.com

    5. Cast Iron Systems
    Cast Iron Systems stellt Lösungen zur Integration von SaaS Anwendungen mit selbst gehosteten Anwendungen/ Systeme für Unternehmen bereit. SaaS Anbieter sollen ihren Kunden damit eine schnelle Migration, sowie vollständig integrierte Services anbieten können.

    Webseite: http://www.castiron.com

    6. Citrix
    Citrix Cloud Center (C3) verknüpft die Virtualisierung mit den Netzwerkprodukten. Sie stellt Cloud Anbietern eine virtuelle Infrastruktur Plattform für das Hosting von Cloud Services bereit. Die Architektur der Plattform besteht aus fünf Schlüsselkomponenten: Citrix XenServer, Anwendungen und Desktop Tools via Citrix XenApp, Bereitstellung mittels Citrix NetScaler, Bridging mittels Citrix Repeater und die Orchestrierung mit dem Citrix Workflow Studio.

    Webseite: http://www.citrix.com

    7. Elastra
    Elastra entwickelt Software mit dem Unternehmen ihre Anwendungsinfrastruktur automatisch modellieren, bereitstellen und mit Richtlinien ausstatten können. Mit dem Enterprise Cloud Server dient der Verwaltung und Bereitstellung von komplexen Systemen. Anwender haben die Möglichkeit ihre Anwendungsinfrastruktur schnell zu modellieren und bereitzustellen sowie automatische Änderungen am Deployment-Prozess vornehmen und interne und externe virtuelle Ressourcen on-Demand für ihre eigene IT zu nutzen.

    Webseite: http://www.elastra.com

    8. EMC
    Atmos und Atmos onLine sind EMCs Cloud Produkte für skalierbare, elastische und kostensparende Anwendungen und Services auf Basis von Virtualisierungtechnologien. Bei Atmos onLine handelt es sich um einen Cloud Storage Service mit dem große Datenmengen hochverfügbar verwaltet und bewegt werden können.

    Webseite: http://www.emc.com

    9. IBM
    IBM stellt mit seinen Cloud Produkten eine Kombination aus Services und Systemen für Private und Public Clouds bereit. Dazu gehören auch IBMs bekannte Anwendungen die nun auch als Cloud basierte Versionen zur Verfügung stehen. Produkte kommen u.a. aus den Bereichen Speichermanagement, Cloud basierte E-Mail Services, Kalender und Kontaktverwaltung.

    Webseite: http://www.ibm.com

    10. Informatica
    Informatica ist Spezialist für Cloud basierte Datenintegration. Die Produkte helfen den Benutzern beim Verschieben und Verwalten der Daten (zwischen unterschiedlichen Anwendungen) in der Cloud

    Webseite: http://www.informatica.com

    11. NetApp
    Mit der Data ONTAP 8 Cloud Computing Infrastruktur verknüpft NetApp seine bereits vorhanden Plattformen Data ONTAP 7G und Data ONTAP GX. Data ONTAP 8 verfügt über Funktionen zur Verwaltung von Daten und arbeitet eng mit System zur Verwaltung von Rechenzentren zusammen. Data ONTAP 8 verknüpft die Speicher, Server, Netzwerk und Anwendungsschicht miteinander, so dass diese untereinander kommunizieren können.

    Webseite: http://www.netapp.com

    12. New Relic
    New Relic bietet ein on-Demand Performance Management tool für Web Anwendungen. In wenigen Minuten wird der gesamte Code innerhalb von Private oder Public Clouds, klassischen Infrastrukturen oder hybriden Varianten untersucht. Die Performance von Web Anwendungen in der Cloud kann damit deutlich gesteigert werden.

    Webseite: http://www.newrelic.com

    13. Novell
    Novell versucht die gesamte IT für die Cloud miteinander zu verknüpfen. Mit Moblin - ein auf die Cloud zentriertes Desktop Betriebssystem, dem SUSE Appliance Program - eine Initiative für Softwareentwickler, den Novell Cloud Security Service und PlateSping - einer Workload Management Lösung, hat Novell einige Produkte für die Cloud im Portfolio

    Webseite: http://www.novell.com

    14. Open Nebula
    Mit OpenNebula kann jegliche Art von Cloud Umgebung aufgebaut werden. Darüber hinaus können damit virtuelle Infrastrukturen in einem Rechenzentrum oder einem Cluster verwaltet werden, oder eine lokale Infrastruktur mit einer Public Cloud Infratruktur verbunden und kombiniert werden, um damit hoch skalierbare Hosting Umgebungen zu entwickeln. OpenNebula unterstützt ebenfalls Public Clouds, indem Schnittstellen zur Verfügung stehen mit denen virtuelle Machinen, Speichersysteme und das Netzwerk verwaltet werden können.

    Webseite: http://www.opennebula.org

    15. OpSource
    OpSource bietet alles aus dem Bereich "Cloud Operations". Dazu gehören Infrastrukturen der Enterprise-Klasse bis hin zum vollständigen Managed Hosting und der Verwaötung von Anwendungen. Bei der OpSource Cloud handelt es sich um eine Virtual Private Cloud innerhalb der Public Cloud. Die on-Demand Angebote kombinieren "Technical Operations", "Application Operations" und "Business Operations" mit "Web Operations". Hierzu gehören Anwendungs-Management, Compliance-und Business-Services. Ein Weiteres Produkt aus dem Bereich Abbrechnung ist OpSource Billing CLM.

    Webseite: http://www.opsource.net

    16. Paglo
    Mit der Log Management Lösung von Paglo können Log Dateien gesammelt und in der Cloud gespeichert, durchsucht und analysiert werden. Dazu werden die Daten von sämtlichen Geräten innerhalb des Netzwerks gesammelt. Eine weitere Anwendung von Paglo dient der Überwachung von Amazon EC2 Instanzen. Der Funktionsumfang beläuft sich auf den Lese- und Schreibzugriff der Festplatten, die Prozessor-Auslastung und dem Netzwerkverkehr.

    Webseite: http://paglo.com

    17. RightScale
    Die Cloud Management Platform von RightScale dient zum automatischen Bereitstellen, Verwalten und Kontrollieren von Anwendungen in der Cloud. Dazu werden "Cloud-Ready" Server-Templates und Best-Practise Architekturen für das Deployment zur Verfügung gestellt. Die Plattform unterstützt den Benutzer beim Deployment der Anwendungen beim Verwalten, Überwachen und bei der Fehlersuche. Zusätzlich wird ein (Vendor)-Lock-In vermieden, indem der Benutzer frei über die Art des Deployments, der Umgebung, dem Stack, Speicherplatz und der Cloud entscheiden kann, um über die größtmögliche Portabilität zu verfügen.

    Webseite: http://www.rightscale.com

    18. Stoneware
    Stoneware bietet Produkte für Bildungseinrichtungen, das Gesundheitswesen, Hersteller jeder Art, den juristischen Bereich, die Finanzbranche und generell für Unternehmen. Dazu bietet Stoneware Private Cloud Technologien, die es IT Organisationen ermöglichen sollen Lösungen zu entwickeln, um auf Anwendungen, Inhalte, Daten und Services von überall aus zugreifen zu können.

    Webseite: http://www.stone-ware.com

    19. VMware
    Durch die Acquirierung von SpringSource im vergangenen August schnappte sich VMware einen spezialisten für die Entwicklungen von Webanwendungen und Management Services. Mit "Lean Software" steht dadurch eine Möglichkeit zur Verfügung, Anwendungen schnell in die Cloud auszuliefern. Des Weiteren akquirierte VMWare Hyperic, einen Anbieter von Open Source Monitoring und Software für die Fehlersuche.

    Webseite: http://www.vmware.com

    20. Zeus Technology
    Mit den Produkten von Zeus können Benutzer Services innerhalb einer Cloud, auf einer physischen oder virtuellen Umgebung erstellen, verwalten und bereitstellen. Mit dem Zeus Cloud Traffic Manager kann die Nutzung einer Cloud überwacht und kontrolliert werden. Zusätzlich steht damit eine zentrale Verwaltungsmöglichkeit für verteilte Anwendungen und der Nutzen- und Auslastungsanalyse von Rechenzentren bereit.

    Webseite: http://www.zeus.com

    Quelle
    ChannelWeb



    20 "Software as a Service" Anbieter

    Die häufigste Frage die einem IT-Leiter gestellt wird ist, wie schnell es ihm gelingt ein neues System, z.B. ein CRM-System einzuführen. Zusätzlich darf die Implementierung nicht viel kosten und das Wartungsbudget sollte ebenfalls ein Minimum betragen.

    Durch den Einsatz von Cloud Computing Technologien können diese Vorgaben erfüllt werden. Durch die Verringerung der Infrastrukturkosten und die Erhöhung der Flexibilität, sowie der Beseitigung zeit intensiver Softwareimplementierungen und Aktualisierungen ist Software as a Service der Ideale Lösungsansatz.

    Dieser Artikel stellt 20 Anbieter und deren Produkte aus dem Bereich Software as a Service vor.

    1. Birst
    Birst bietet Cloud basierte Business Intelligence Tools für mittelständische Unternehmen und Abteilungen größerer Unternehmen, die nicht über das Budget oder die Expertise verfügen um hoch skalierbare und komplexe Business Intelligence Systeme zu betreiben. Birst hilft Unternehmen beim Datamining, dem Aufbau von Data Warehouses und dem erstellen von Analysen. Mit der Birst Live Access Funktionen können.

    Webseite: http://www.birst.com

    2. Callidus Software
    Callidus bietet on-Demand Anwendungen zur Bestimmung der Vertriebsleistung und des Vergütungsmanagements. Callidus sieht sich für die Verwaltung von Verkaufsprovisionen zuständig, wie es Saleforce.com für das CRM Geschäft ist. Mit den Anwendungen können Unternehmen ihr Vergütungssystem für Arbeitnehmer, Wiederverkäufer, Zwischenhändler und Vertriebspartner organisieren.

    Webseite: http://www.callidussoftware.com

    3. FinancialForce.com
    FinancialForce.com folgt dem Salesforce.com Model. Das liegt auf der einen Seite wohl daran, dass Salesforce eine Minderheitsbeteiligung an FinancialForce hält. Auf der anderen Seite entwickelt FinancialForce seine Anwendungen auf der Cloud Computing Plattform Force.com, die ebenfalls Salesforce gehört. Mit den Anwendungen von FinancialForce können komplexe Finanz-Prozesse verarbeitet werden.

    Webseite: http://www.financialforce.com

    4. Google
    Mit seinen Google Apps stellt Google eine vollständige Office Suite zur Verfügung. Die Grundversionen sind kostenlos. Mit der Google Apps Premier Edition steht mittlerweile aber auch eine kommerzielle Version mit erweiterten Funktionen zur Verfügung. Im vergangenen Jahr hat bereits die Stadt Los Angeles damit begonnen seine Office Suite sowie E-Mail und sonstige Kollaborationssoftware zu Google Apps zu migrieren.

    Webseite: http://www.google.com/apps

    5. IBM
    Mit der LotusLive suite bietet IBM eine Sammlung von on-Demand Kollaborations- und Kommunikationsanwendungen vergleichbar mit Microsoft Office und Google Apps an.

    Webseite: http://www.ibm.com

    6. InContact
    InContact ist Anbieter von on-Demand Call Center Lösungen. Zu den Angeboten zählen Sprachserver und automatische Kurzwahl, sowie Computer Telephony Integration (CTI) und Tools zur Verwaltung des Personals innerhalb eines Call Center.

    Webseite: http://www.incontact.com

    7. Intacct
    Intacct bietet on-Demand Lösungen zur Finanzverwaltung und dem Rechnungswesen für Unternehmen von 25 bis 1.000 Mitarbeitern und steht damit in direkter Konkurrenz zu Microsoft, NetSuite und Sage.

    Webseite: http://www.intacct.com

    8. LiveOps
    LiveOps steht in direkter Konkurrenz zu InContact. Neben Lösungen für große Call Center bieten betreiben sie zusätzlich ein Netzwerk von über 20.000 unabhängigen Call Center Agents die von zu Hause arbeiten und auf die Call Center Lösungen zugreifen.

    Webseite: http://www.liveops.com

    9. MyDials
    MyDials gehört zu dem Bereich der on-Demand Business Intelligence Lösungen. Der Fokus liegt auf der Auswertung von Key Performance Indicator (KPI). MyDials Lösungen bieten Schnittstellen zu allen gängigen ERP, CRM und SCM Anwendungen.

    Webseite: http://www.mydials.com

    10. NetSuite
    NetSuite bietet integrierte on-Demand ERP, CRM und E-Commerce Lösungen für kleine und mittelständische Unternehmen, um ihnen damit die Möglichkeiten der Prozessautomatisierung zu bieten, die normalerweise nur Großunternehmen haben. NetSuite bietet darüber hinaus ein SuiteCloud Ecosystem an, in dem diverse Entwicklungstools und ein Markt für Anwendungen vorhanden sind.

    Webseite: http://www.netsuite.com

    11. Oracle
    Im Jahr 2006 kaufte Oracle Siebel und damit ebenfalls den von Siebel im Jahr 2003 eingeführten CRM SaaS Bereich. Oracle bietet derzeit Oracle CRM On Demand als SaaS Lösung und Oracle Siebel CRM für den Eigenbetrieb an. Unternehmen haben mittels der Oracle Application Integration Architecture und der Oracle Fusion Middleware die Möglichkeit beides zu nutzen und miteinander zu verbinden.

    Webseite: http://www.oracle.com

    12. PivotLink
    Mit 15.000 Kunden und 2 Millionen Analysen gehört PivotLink zu den größten Anbietern aus dem Bereich der Business Intelligence Anwendungen. Mit dem PivotLink Gadget können Business Intelligence Funktionen zu Google Apps hinzugefügt werden.

    Webseite: http://www.pivotlink.com

    13. QlikTech
    Die QlikView Business Intelligence Lösungen von QlikTech können im eigenen Rechenzentrum, aus der Cloud oder auf mobilen Endgeräten bereitgestellt werden. Seit der QlikView 9 können große Datenmengen in Echtzeit analysiert werden.

    Webseite: http://www.qlikview.com

    14. Salesforce.com
    Salesforce.com ist der bekannteste Anbieter von CRM SaaS Anwendungen und bedeutete für viele Unternehmen den Einstieg ins Cloud Computing. Mit der Force.com Plattform und der dahinter bestehenden Infrastruktur sowie den vielen Entwicklungstools bietet Salesforce seinen Kunden ein riesiges Angebot.

    Webseite: http://www.salesforce.com

    15. SAS Institute
    Das SAS Institute ist der Marktführer im Bereich Business Intelligence und Analyse-Software. Zu den Dienstleistungen gehören einfache Auswertung bis hin zu komplexen Datenanalysen. Neben on-Demand Lösungen für das Marketing Kampagnen Management investiert SAS enorm in seine Infrastruktur, um auch das Auswerten riesiger Datenmengen auf Basis von Software as a Service anbieten zu können.

    Webseite: http://www.sas.com

    16. SugarCRM
    Mit Sugar Express bietet SugarCRM seit Mai 2009 eine on-Demand Version seiner CRM Anwendung für kleine bis mittlere Unternehmen. Im September 2009 startete SugarCRM mit seiner Sugar Community Edition, mit der Entwickler auf Amazon's Elastic Compute Cloud Anwendungen für SugarCRM entwickeln, testen und bereitstellen können.

    Webseite: http://www.sugarcrm.com

    17. Taleo
    Taleo bietet on-Demand Lösungen zur Personalverwaltung. Mit Taleo 10 stehen nun auch Schnittstellen für den Zugriff auf Soziale Netzwerke wie LinkedIn und Facebook zur Verfügung.

    Webseite: http://www.taleo.com

    18. Xactly
    Xactly stellt Verkaufsleitern on-Demand Lösungen zur Kontrolle, wie gut die Quoten der Vertriebsmitarbeiter sind. Zusätzlich können mit den Lösungen die Vergütungen verwaltet und neue Vertriebsgebiete definiert werden. Die Xactly Business Solutions Software ist übrigens auf der Force.com Plattform von Salesforce entwickelt worden.

    Webseite: http://www.xactlycorp.com

    19. Zlago
    Zlago stellt vollständige Unternehmenslösungen- und Anwendungen für den Arbeitsplatz in seiner Cloud bereit. Dazu gehören E-Mail, Backup-Lösungen, Sicherheitslösungen, Speicherplatz und weitere spezielle Unternehmensanwendungen.

    Webseite: http://www.zlago.com

    20. Zoho
    Zoho wurde bereits im Jahr 1996 gegründet und verfügt mittlerweile über 21 Cloud Anwendungen. Dazu gehören u.a. eine Textverarbeitung, Tabellenkalkulation, CRM-Tools und eine Software für das Projektmanagement. Um Zoho zu nutzen muss kein vollständiger Wechsel stattfinden. Mittels zahlreicher Schnittstellen können die Anwendungen von Zoho in alle gängigen Anwendungen von Microsoft Office und Sharepoint oder Google Apps (z.B. das Projektmanagement) integriert werden. So kann der Wechsel eines Unternehmens in die Cloud langsam vorgenommen werden.

    Webseite: http://www.zoho.com

    Quelle
    ChannelWeb



    20 Cloud Storage Anbieter

    Storage as a Service ist neben Software as a Service für Anbieter als auch Benutzer einer der einfachsten Wege mit Cloud Computing in Kontakt zu kommen. In diesem Artikel stelle ich daher 20 Cloud Storage Anbieter und deren Produkte kurz vor.

    1. 3X Systems

    Die Remote-Backup-Appliance (RBA) von 3X Systems dient als verschlüsseltes Backup. Drittanbieter führen bei ihren Kunden zunächst ein Backup aller PCs durch und speichern es auf die 3X RBA. Die PCs bauen automatisch eine Verbindung zur 3X RBA auf um Backups durchzuführen, wenn Änderungen an den Daten vorgenommen werden. Das System kann auf der Kundenseite als Private Cloud oder bei der Seite des Drittanbieter als Public Cloud eingerichtet werden.

    Webseite: http://www.3x.com

    2. Asigra

    Asigra stellt seinen Kunden eine speziell für das WAN optimierte Software zur Verfügung, um mittels einer einzigen Schnittstelle Daten in einer Private oder Public Cloud zu sichern und archivieren. Darüber hinaus kann mit der Software der gesamte Backup-Lebenszyklus der Daten verwaltet werden.

    Webseite: http://www.asigra.com

    3. Axcient

    Axcient bietet ein Hybrid-Cloud Storage-Modell. Als Kunde erhält man eine Storage Appliance für das schnelle lokale Backup. Zusätzlich existiert ein Storage-Service um die Daten per Remote-Backup in der Cloud von Axcient zu sichern. Die Appliances verfügen über eine größe von 500 GB bis 10 TB und können über einen Drittanbieter aus dem Partnernetzwerk bezogen werden. Der Drittanbieter sorgt anschließend dafür, dass die Appliance über das Internet mit der Cloud-Storage Infrastruktur von Axcient verbunden wird.

    Webseite: http://www.axcient.com

    4. Carbonite

    Carbonite ist ein Pionier im Bereich des Online-Backups und der erste Anbieter der ein unlimitiertes Backup zu einem Festpreis von 55 Dollar pro Jahr anbietet. Die Daten werden vor der Sicherung verschlüsselt. Auf Grund der Performance erfolgt das Backup der Daten, wenn der PC nicht unter Volllast arbeitet. Beim Restore können einzelne Dateien oder komplette Datensätze zurückgespielt werden.

    Webseite: http://www.carbonite.com

    5. Caringo
    Mit Caringo's CAStor können Anbieter von Storage Lösungen mittels eines USB-Sticks aus gewöhnlichen Standard-Servern eine Cloud-Storage Infrastruktur aufbauen. Aus den Servern wird ein Clusterverbund, wodurch die gespeicherten Daten auf die einzelnen Server repliziert werden. Das Unternehmen bietet darüber hinaus einen Content-Router an, um Inhalte direkt aus der Castor-Cloud bereitzustellen.

    Webseite: http://www.caringo.com

    6. Ctera
    Mit der CloudPlug Appliance von Ctera kann in kurzer Zeit eine Verbindung zu einem Cloud Storage Anbieter hergestellt werden. CloudPlug basiert auf Linux und hat die Größe eines gewöhnlichen AC-Adapters. Um CloudPlug zu nutzen, wird nur ein Router und ein PC oder eine externe Festplatte benötigt. Anschließend können die Daten entweder Freunden über das Internet bereitgestellt oder für das Backup zu einem Cloud Storage Anbieter geschickt werden.

    Webseite: http://www.ctera.com

    7. Doyenz
    Doyenz stellt Anbietern von Cloud Storage eine virtuelle IT Plattform zur Verfügung, mit denen virtuelle Appliances für die Datenmigration, zur Systemwiederherstellung und zur Ausfallsicherung erstellt werden können. Mit VMwares ESXi Server können die virtuellen Appliances aufgebaut, getestet und in kürzester Zeit auf Infrastrukturen von Savvis oder Rackspace bereitgestellt werden.

    Webseite: http://www.doyenz.com

    8. EFolder
    Mit EFolder können Drittanbieter Cloud-Storage und Lösungen zur E-Mail Archivierung anbieten. EFolder bietet des Weiteren die Möglichkeit zum Aufbau eines Hybrid Cloud-Storage. Dabei wird bei dem Kunden eine lokale Backup Appliance installiert, auf der Backups schnelle vorgenommen werden können. Zusätzlich wird die Appliance mit einer Storage-Cloud für Remote-Backups verbunden.

    Webseite: http://www.efolder.net

    9. EMC
    EMC`s Mozy Online Backup Lösung gehört zu den bekanntesten und klassischen Cloud-Backup Angeboten, bei denen die Daten von einem lokalen PC verschlüsselt in der Cloud von Mozy gespeichert werden.

    Webseite: http://www.mozy.com

    10. i365
    i365 gehört zu Seagate und arbeitet mit Solution-Provider und Manager-Service Provider zusammen um Kunden dabei zu helfen, ihre Daten innerhalb einer Cloud-Storage Infrastruktur zu speichern. Zu den Angeboten gehören u.a. Datenschutz, E-Mail Archivierung, Datenmigration, Datenrettung und Datenlöschung.

    Webseite: http://www.i365.com

    11. IBM
    IBM's Smart Business Storage Cloud ist ein Private Cloud Service mit dem mehrere Petabytes an Daten und Billionen von Dateien verwaltet werden können. Die Technologie basiert auf IBM's Blade Server und XIV Speichertechnologien. Der Service dient zum Aufbau einer Private Cloud im eigenen Rechenzentrum, die von IBM verwaltet wird, oder zum Backup der Daten in einem von IBMs Rechenzentren.

    Webseite: http://www.ibm.com

    12. Intronis
    Mit dem Intronis Online Backup können Drittanbieter einen Cloud Storage Service unter der eigenen Marke anbieten. Zu den Funktionen gehören unter anderem Block-Level Backups, die dafür sorgen, dass nur die Änderungen an den Daten gesichert werden. Darüber hinaus kann damit ebenfalls das Backup, Speichern und Wiederherstellen von Microsoft Exchange-Dateien vorgenommen werden.

    Webseite: http://www.intronis.com

    13. Mezeo Software
    Mezeo stellt IT-Hoster, SaaS Anbieter, Telekommunikationsanbieter und ISPs Softwarelösungen bereit, mit denen sie Cloud-Storage Angebote für Ihre Kunden erstellen können. Die Cloud Storage Plattform umfasst eine Webanwendung, sowie spezielle Clients für Windows, iPhone, Blackberry und Windows Mobile. Zu den Funktionen gehören u.a. der Austausch von Dateien, die Zusammenarbeit, sowie das Verwalten von verschachtelten Dateien und Ordner-Strukturen.

    Webseite: http://www.mezeo.com

    14. Reldata
    Reldata entwickelt Technologien, die iSCSI, SAN, NAS und WAN konsolidieren und zu einer Unified Storage Lösungen machen. Damit können Drittanbieter ihren Kunden dabei helfen, einen eigenen Privat Cloud Storage aufzubauen. Mit der RELDATA 9240i/RELvos Appliance können Kunden unabhängig voneinander ihren Speicher skalieren, replizieren ohne ihre Anwendungen dabei zu beeinträchtigen.

    Webseite: http://www.reldata.com

    15. Robobak
    Robobak bietet automatisierte Backuplösungen für Remote und Zweigstellen. Zu den Funktionen gehören u.a. Block Level Backups und Deduplizierung.

    Webseite: http://www.robobak.com

    16. Symantec
    Symantec verfügt über zwei Cloud Backup Lösungen. Für Geschäftskunden dient das Symantec Protection Network, was Drittanbieter an ihre Kunden vertreiben können. Als Teil von Symantecs Hosted Services, dient die Cloud Plattform zur sicheren Verwaltung von Daten und Informationen auf allen Endgeräten. Für Endanwender steht das Norton Online Backup bereit. Damit können bos zu fünf Computer gleichzeitig ihre Daten automatisch in der Cloud von Symantec speichern.

    Webseite: http://www.symantec.com

    17. Symform
    Symform bietet einen sogenannten Kooperativen Cloud Storage Service an. Jeder der daran teilnimmt, muss freie Speicherkapazitäten auf seinen Systemen bereitstellen um die Daten von anderen darauf abzulegen.

    Webseite: http://www.symform.com

    18. Vembu
    Mit Vembus StoreGrid können Storageanbieter unter ihrer eigenen Marke Cloud basierte Storage-Lösungen anbieten. Funktionen sind neben dem Clustering und Load Balancing die Möglichkeit die Daten direkt zu Amazon S3 zu replizieren.

    Webseite: http://www.vembu.com

    19. Zenith InfoTech
    Drittanbieter können mit den Technologien von Zenith Infotech ihren Kunden Lösungen in den Bereichen Managed Services, Virtual Helpdesk und Systemwiederherstellung anbieten. Das Konzept des Backups und der Systemwiederherstellung basiert auf dem Hybrid Cloud Storage Ansatz. Dazu gehört eine Appliance für das lokale Backup und ein Backup der Daten in die Cloud, was alle 15 Minuten durchgeführt wird.

    Webseite: http://www.zenithinfotech.com

    20. Zetta
    Zetta unterstützt Storage-Anbieter beim Aufbau einer eigenen Cloud-Storage Infrastruktur. Zu den Funktionen der Infrastruktur gehören Snapshots der Daten, Replikationen und vollständige Redundanz.

    Webseite: http://www.zetta.net

    Quelle
    ChannelWeb



    openQRM – Die Cloud Computing Plattform für Rechenzentren

    openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen und ist aktuell in der Version 4.6 verfügbar.

    Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können.

    Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von "P-to-V", "V-to-P" und "V-to-V".

    openQRM verfügt des Weiteren über ein integriertes Storage-Management, mit dem anhand des Snapshot-Verfahrens Serversysteme dupliziert werden können. Die Snapshots ermöglichen eine dynamische Anpassung des Speicherplatzes, bieten einen persistenten Cloud-Speicher und erlauben ein Backup/Restore der Server sowie deren Versionierung.

    Mit der "N-zu-1" Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Dabei spielt es keine Rolle, ob physikalische oder virtuelle Maschinen eingesetzt werden!

    Benefits auf einem Blick

    • Virtualisierung
      openQRM unterstützt alle gängigen Virtualisierungstechnologien darunter VMWare, Citrix XenServer und KVM und bietet die Möglichkeit der Migration von P-to-V-, V-to-P- und V-to-V für physikalische Server als auch virtuelle Maschinen.
    • Storage
      openQRM verfügt über ein zentralisiertes Speichersystem mit integriertem Storage Management, welches alle bekannten Storage-Technologien unterstützt. Dazu gehören u.a. Netapp, Equallogic, NFS, iSCSI ZFS und proprietäre auf LVM basierende Storage-Typen, für eine flexible und schnelle Duplizierung von Serversystemen.
    • Zentrales Management
      openQRM verschmilzt die Welt von Open Source mit der von kommerziellen Produkten. Mit einer zentralen Managementkonsole sind alle Funktionen zur Administration von Rechenzentren, System- und Service-Überwachung, Hochverfügbarkeit und automatisierter Bereitstellung vorhanden.

    Funktionen

    • Hardware/Software Isolation
      openQRM isoliert die Hardware (physikalische Server, virtuelle Maschinen) vollständig von der Software (Server Images). Dabei ist die eigentliche Hardware eine "Computing Resource" und kann dadurch jederzeit durch eine andere Hardware ersetzt werden, ohne dass die Software (Server Image) neu konfiguriert werden muss.
    • Unterstützung für verschiedene Virtualisierungs-Technologien
      Mit VMWare, Xen, KVM und dem Citrix XenServer unterstützt openQRM eine viehlzahl an virtuellen Maschinen und kann dieses transparent verwalten und migrieren. Neben der System-Migration von physikalischen Servern zu virtuellen Maschinen (P-to-V) können Systeme ebenfalls von virtuellen Maschinen zu physikalischen Servern (V-to-P) migriert werden. Darüber hinaus besteht die Möglichkeit ein System von einer Virtualisierungstechnologie zu einer anderen Virtualisierungstechnologie (V-to-V) zu verschieben.
    • Vollautomatische Nagios-Konfiguration

      openQRM unterstützt die vollautomatische Konfiguration von Nagios mittels "nmap2nagios-ng". Damit wird das gesamte openQRM Netzwerk analysiert und auf Basis der Informationen eine Nagios-Konfiguration erstellt. Anschließend werden alle Services auf allen Systemen überwacht.

    • Integriertes Storage-Management
      openQRM organisiert die Serversysteme wie Dateien und nutzt zur Verwaltung moderne Storagesysteme anstatt lokaler Festplatten. Mittels Logical Volume Managern (LVM) und deren Snapshot-Verfahren können Server-Templates auf schnellen Wege dupliziert werden.

      "Sollen z.B. 10 neue Server ausgerollt werden, kann so einfach ein bestehendes Server-Image 10 mal dupliziert und die "Clone" direkt zum Deployment bereitgestellt werden."

      Mit diesem Konzept steht ein zentrales Backup/Restore sowie die Möglichkeit von Hot-Backups ohne Downtime zur Verfügung.

      openQRM unterstützt folgende Storage-Typen:

      • NFS (NAS)
      • iSCSI (iSCSI SAN)
      • Aoe/Coraid (AOE SAN)
      • NetApp (iSCSI SAN)
      • Local-disk (Übertragung von Server-Images auf lokale Festplatten)
      • LVM-Nfs (NFS auf LVM2, erlaubt schnelles Cloning)
      • LVM-iSCSI (iSCSI auf LVM2, erlaubt schnelles Cloning)
      • LVM-Aoe (Aoe auf LVM2, erlaubt schnelles Cloning)
      • Equallogic (iSCSI SAN)
      • ZFS (iSCSI SAN)
    • Hochverfügbarkeit und "N-to-1"-Fail-Over!
      Mit der "N-zu-1" Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Unabhängig davon, ob physikalische oder virtuelle Maschinen eingesetzt werden.

      "Um zum Beispiel 10 hochverfügbare Spezialsysteme zu betreiben benötigt man normalerweise weitere 10 "Stand-By"-Systeme. Mit openQRM jedoch benötigt man nur einen einzigen "Stand-By"-Server, der im Fehlerfall eines der 10 Spezialsysteme benutzt wird. Das heißt, man kann 9 "stromfressende", nicht ausgelastete Server einsparen. Perfekt für "Green IT".

      Des Weiteren können physikalische Server virtuelle Maschinen als "Hot Stand-By" nutzen und lassen sich im Notfall in eine virtuelle Maschine migrieren.

    • Fertige Server-Templates
      Mittels dem "Image-Shelf"-Plugin stellt openQRM bereits fertige Server Templates zur Verfügung. Dazu gehören Linux Distributionen wie Debian, Ubuntu, CentOS und openSuse. Des Weiteren können mit dem Plugin eigene Server Templates auf unterschiedliche Weise (lokal, http, https, ftp) bereitgestellt werden.
    • Unterstützung verschiedenster Deployment-Methoden
      Mit openQRM können Server von jeder Art von Storage gestartet werden. Zusätzlich können die Server Templates von einem Storage-Typ zu einem anderen übertragen werden, dabei kann noch entschieden werden, ob die Server Templates auf einem physikalischen Server oder in einer virtuellen Maschine gestartet werden sollen.
    • Unterstützung verschiedener OS-Distributionen
      Es stehen bereits vor-konfigurierte openQRM-Server Pakete für Debian, Ubuntu und CentOS zur Verfügung. Ein openQRM-Server kann aber alle gängigen Linux Distributionen verwalten.
    • Cloud-Selector
      Mit dem Cloud-Selector kann der Cloud Administrator seine Cloud Produkte wie z.B. Prozessoren, Speicher, Festplattengröße oder den Typ der virtuellen Maschine auswählen und deren Preise festlegen.
    • Kostenrechner im Cloud-Portal
      Die Cloud-Computing-Unit (CCU) kann einer regulären Währung (z.b. USD oder Euro) zugewiesen werden. Mit dem Kostenrechner werden die stündlichen, täglichen und monatlichen verbrauchten Kosten für eine Cloud Appliance berechnet.
    • Private Cloud Images
      Mit der "Private Cloud Image"-Funktion können Cloud Benutzer eigene Server Templates anlegen und verwalten.
    • Volle SSL-Unterstützung
      Der openQRM-Server arbeitet in einem vollständig SSL-verschlüsselten Bereich und unterstützt verschiedene Serverarchitekturen wie i386 und x86_64.

    Auszeichnungen

    Preise

    • openQRM ist Open Source und unterliegt der GPL (GNU General Public License).

    Support

    • Die openQRM Enterprise ist der Hauptsponsor von openQRM. Das Team um CEO Matthias Rechenburg, CTO Christoph Moeller und Vertriebs- und Marketing-Direktor Andre Westbunk weist langjährige Erfahrungen für das flexible, konsistente und transparente Betreiben von Rechenzentren und bietet professionelle Services zu openQRM um damit die Gesamtbetriebskosten (TCO) von IT-Abteilungen zu senken.
    • Ich möchte hier noch anmerken, dass es sich bei der openQRM Enterprise um einen deutschen Anbieter aus dem Bereich des Cloud Computing handelt!

    Quelle

    openQRM
    openQRM Enterprise



    Der CloudBerry S3 Explorer

    Der CloudBerry Explorer ist ein Tool für die Verwaltung von Dateien innerhalb von Amazons S3 Cloud Storage. Mittels einer graphischen Benutzeroberfläche kann damit eine Verbindung zu dem S3 Account hergestellt werden, um Buckets anzulegen und Dateien zwischen dem eigenem Rechner und dem S3 Speicherplatz auszutauschen. Der CloudBerry S3 Explorer ähnelt äußerlich dem bekannten Windows Explorer, wodurch man seine Dateien innerhalb von Amazons Cloud so verwalten kann, als befinden sich diese auf dem lokalen Rechner.

    Auf Grund der äußerlichen Anlehnung an den Windows Explorer, können (Windows)-Benutzer auch ohne spezielle technische Kenntnisse mit Amazon S3 ihre Dateien verwalten. Benutzer werden zusätzlich unterstützt, indem z.B. zeitaufwendige Aufgaben automatisiert werden können, und sich damit die Produktivität erhöht. Durch die vollständige Integration der Schnittstelle in Amazon S3 kann der lokale Speicher mit den S3 Speicher erweitert werden, wodurch man nicht mehr auf die bekannte "klassische" Art der Datenspeicherung auf der lokalen Festplatte angewiesen ist. Die Datenhaltung und Dateiverwaltung verhält sich dennoch so, als würden sich die Daten auf dem lokalen System befinden. Darüber hinaus können die Dateien, die sich auf dem Amazon S3 Speicher befinden auch Freunden, Bekannten oder allen anderen die über eine Internetverbindung verfügen bereitgestellt werden. Um den Zugriff zu beschränken können die Daten mit bestimmten Rechten und Passwörtern geschützt werden.

    Beschreibung einzelner Funktionen

    • Durchsuchen der S3 Buckets
      Mit dem CloudBerry Explorer kann der Inhalt von S3 Buckets durchsucht und verwaltet werden. Dazu gehört z.B. das Erstellen von Buckets und Ordnern oder das Umbenennen von Dateien.

    • Kopieren von Dateien im Hintergrund
      Mit dem CloudBerry Explorer können die Dateien auch im Hintergrund zwischen Amazon S3 und dem lokalen Rechner kopiert oder verschoben werden. Die sonstigen Funktionen des Systems werden davon nicht beeinflusst. Darüber hinaus kann der Kopiervorgang angehalten und wieder fortgesetzt werden. Fehler bei der Übertragung werden wie in einer Warteschlange dokumentiert.

    • Nutzung mehrerer S3 Accounts
      Der CloudBerry Explorer unterstützt einen bis eine beliebige Anzahl von Amazon S3 Accounts.

    • Erstellen von Access Control Lists (ACL)
      Mit dem CloudBerry Explorer können mittels eines speziellen Editors Access Control Lists (ACL) erstellt werden, um damit anderen Amazon S3 Benutzern oder allen Internet Benutzern Zugriff auf den eigenen S3 Speicherplatz zu gewähren. Außerdem können die Rechte auf Bucket-Ebene vergeben werden, was sich auf alle Dateien innerhalb dieses Buckets auswirkt.

    • Kopieren von Dateien zwischen S3 Accounts
      Mit dem CloudBerry Explorer können Dateien schnell zwischen zwei Amazon S3 Accounts kopiert oder verschoben werden.

    • Erstellen öffentlicher URLs
      Mit dem CloudBerry Explorer können für ein oder mehrere Objekte öffentliche URLs generiert werden. Diese können ebenfalls zeitlich begrenzt sein und werden nach einer vorgegeben Zeit inaktiv. Über CNAMEs können die URLs lesbarer gemacht werden.

    • Konfiguration von Amazon CloudFront
      Der CloudBerry Explorer unterstützt die Konfiguration und Bereitstellung von Amazon CloudFront. Dazu wird einfach ein Bucket ausgewählt und dieser für Amazon CloudFront "aktiviert".

    Funktionen

    • Verbindung zu einer beliebigen Anzahl von Amazon S3 Accounts
    • Paralleles Arbeiten mit unterschiedlichen Amazon S3 Accounts
    • Schnelles Kopieren zwischen Amazon S3 Accounts
    • Gemeinsame Nutzung von Buckets und Dateien (die sich auf S3 befinden) mit anderen Benutzern
    • Erstellen, Durchsuchen, Löschen von S3 Buckets
    • Kopieren und Verschieben von Dateien zwischen Amazon S3 und dem lokalen Computer
    • Einrichten von Zugriffsrechten für Dateien
    • Automatisieren von alltäglichen Aufgaben mit der Microsoft PowerShell
    • Erzeugen von externen URLs
    • Kopieren und Verschieben im Hintergrund
    • Unterstützung von MD5 um sicherzustellen das Dateien während des Datentransfers mit S3 nicht verändert oder beschädigt werden.
    • Kopieren von Dateien aus dem Windows Explorer
    • Unterstützung von Amazon CloudFront
    • Unterstützung von CNAMEs
    • Unterstützung von zeitlich begrenzten oder signierten URLs
    • Erstellen von ACL-Listen Dateien innerhalb eines Buckets
    • Umbenennung von Objekten in S3
    • Sync Folders: Synchronisation lokaler Daten mit Amazon S3
    • Schutz des CloudBerry Explorer durch ein Masterpasswort
    • Einrichten von benutzerdefinierten HTTP-Headern
    • Automatische und zeitlich gesteuerte Aktualisierung von ACLs
    • Zugriffsverwaltung (öffentlich, privat) für Buckets
    • Bandbreitenregulierung
    • Unterstützung der Bereitstellung von privaten Inhalten für CloudFront
    • Beim Überschreiben einer Datei bleibt die vorherige ACL bestehen
    • Unterstützung des streamincloud.com FLV Encoder für Amazon S3
    • Unterstützung von CloudFront Streaming
    • Unterstützung von AWS Import / Export
    • Unterstützung für die Region US-West
    • ... und vieles mehr ...

    Zukünftige Funktionen

    • Erweiterung von Amazon Best Practices
    • Portable Version
    • PSProvider für Amazon S3

    Voraussetzungen

    • Windows XP/2003/Vista
    • Microsoft .NET Framework 2.0
    • Amazon S3 Account

    Preise

    CloudBerry Explorer Freeware

    CloudBerry Explorer PRO

    Freeware vs. Pro

    Quellen

    CloudBerry Explorer Freeware
    CloudBerry Lab



    Erste Schritte mit der Ubuntu Enterprise Cloud

    Das Eucalyptus System kann auf viele unterschiedliche Umgebungen beliebig angepasst werden. Diese Installations-Anleitung zeigt die Einrichtung einer Privat Cloud auf Basis von Eucalyptus mit der Ubuntu Enterprise Cloud.

    Ziel dieses Tutorials

    Dieses Tutorial beschreibt die Installation, Konfiguration und Registierung, sowie weitere Schritte für die Arbeit mit einer grundlegenden Eucalyptus Einrichtung. Am Ende haben wir eine Cloud mit einem "Front-End" Controller und einem Knoten, auf dem mehrere Instanzen von Virtual Machines ausgeführt werden können, vollständig eingerichtet. Siehe dazu die Schritte 1 - 3.

    In den Schritten 4 - 6 lernen wir die ersten Schritte für die Einrichtung einer Private Cloud und wie diese z.B. mit der RightScale Cloud Management Platform verbunden werden kann.

    • Schritt 1: Die Voraussetzungen
    • Schritt 2: Installation & Konfiguration
    • Schritt 3: Registrierung der Eucalyptus Komponenten
    • Schritt 4: Erster Login
    • Schritt 5: Erstellen eines Virtual Machine Image
    • Schritt 6: Starten eines Images

    1. Schritt: Die Voraussetzungen

    Das Eucalyptus System hat drei grundlegende Bestandteile:

    • eucalyptus-cloud: Beinhaltet den Cloud Controller (Front-End Services) und das Walrus Speichersystem.

    • eucalyptus-cc : Beinhaltet den Cluster Controller der für das virtuelle Netzwerk zuständig ist.

    • eucalyptus-nc: Beinhaltet den Node Controller zur Verwaltung der einzelnen Knoten, der mit der KVM (Kernel basierende Virtual Machine) kommuniziert und die jeweiligen Virtual Machines verwaltet.

    Eine einfache Eucalyptus Umgebung besteht aus zwei Systemen, einem Front-End und einem Node. Das Front-End ist für eucalyptus-cloud und eucalyptus-cc zuständig. In einer komplexeren Umgebung mit mehreren Systemen können/ sollten die oben genannten Teile des Front-Ends voneinander getrennt betrieben werden. Da die Kommunikation vollständig über das Netzwerk erfolgt, ist diese Separierung einfach vorzunehmen.

    Das folgende Diagramm zeigt einen einfachen Aufbau einer Eucalyptus Umgebung:

    Vor der Installation der Pakete gibt es ein paar Voraussetzungen die erfüllt sein müssen, damit am Ende ein voll funktionsfähiges Eucalyptus System vorhanden ist. Zunächst muss das Front-End in der Lage sein E-Mails zu verschicken. Die Administrations-Tools von Eucalyptus nutzen E-Mails um den Administrator zu benachrichtigen, das er die Anmeldeinformationen von Benutzern prüfen muss. Dazu sollte Postfix installiert werden und als 'mailhost' der 'localhost' eingetragen werden (z.B. als Eintrag in die /etc/hosts).

    Auf dem Node auf welchem von Eucalyptus die Virtual Machines ausgeführt werden, muss die erste Netzwerkschnittstelle als Bridge (BR0) konfiguriert werden. Sie dazu (Ubuntu Server Guide Bridging - in Englisch). Dieser Bridge fügt Eucalyptus für jede vorhandene Virtual Machine eine virtuelle Netzwerkschnittstelle (Virtual Network Interfaces) hinzu, bevor die Netzwerkverbindung einer Virtual Machine aktiviert wird.

    Des Weiteren benötigt Eucalyptus einen DHCP Server der automatisch IP-Adressen vergibt. Ab dem Zeitpunkt wo die Virtual Machines über die Bridge mit dem lokalen Netzwerk verbunden sind, führen sie ihren lokalen DHCP Client aus, um eine IP-Adresse zu erhalten.

    Auf jedem Host der einen Eucalyptus Client nutzt, sollten die Amazon Elastic Compute Cloud (EC2) API und AMI Tools installiert werden. Dafür wird folgendes benötigt:

    http://s3.amazonaws.com/ec2-downloads/ec2-api-tools-1.3-30349.zip
    http://s3.amazonaws.com/ec2-downloads/ec2-ami-tools-1.3-26357.zip

    Damit die ec2-ami-tools einwandfrei funktionieren müssen zusätzlich die Pakete ruby, libopenssl-ruby und curl installiert werden.

    Für den Zugriff der EC2-ami-Tools auf die Meta-Daten (wie z.b. EC2-bundle-vol), muss folgender Eintrag vorgenommen werden. Bei der CC_IP handelt es sich um die IP-Adresse des Rechners auf dem Eucalyptus-cc ausgeführt wird.

    vi ec2ami/lib/ec2/amitools/instance-data.rb
    (set META_DATA_URL="http://:8773/latest/meta-data")

    • Ports: Um auf Eucalyptus auch hinter einer Firewall zugreifen zu können muss der Port 8773 geöffnet werden. Das ist z.B. dann der Fall, wenn sich die EC2- und AMI-Tools sowie die Eucalyptus Cloud auf unterschiedlichen Seiten der Firewall befinden. Wenn das Eucalyptus System mit einer Cloud Management Platform verbunden werden soll, müssen zusätzlich die Ports 8773 und 8443 geöffnet werden.

    Schritt 2: Installation & Konfiguration

    Zuerst werden die eucalyptus-cloud und eucalyptus-cc Pakete auf der Front-End Machine installiert.

    sudo apt-get install eucalyptus-cloud eucalyptus-cc

    Anschließend erfolgt die Installation des eucalyptus-nc Pakets auf jedem Node.

    sudo apt-get install eucalyptus-nc

    Am Ende wird der eucalyptus-nc Service auf dem Node gestoppt und die /etc/eucalyptus/eucalyptus.conf editiert. In der eucalyptus.conf erhält die Bridge den Namen der ersten Netzwerkschnittstelle. Danach wird der eucalyptus-nc Service wieder gestartet.

    Die oben beschriebenen Schritte können wie folgt umgesetzt werden:

    sudo /etc/init.d/eucalyptus-nc stop
    sudo vi /etc/eucalyptus/eucalyptus.conf
    (set VNET_BRIDGE="br0")
    sudo /etc/init.d/eucalyptus-nc start

    Das folgende Diagramm zeigt, wie die Umgebung danach aussehen sollte:

    Das Netzwerk sollte außerdem so konfiguriert werden, dass der IPv4 Datenverkehr von den IPv6 Ports weitergeleitet wird, da das Eucalyptus Web-Frontend standardmäßig IPv6 verwendet.

    sudo vi /etc/sysctl.conf
    (uncomment net.ipv4.ip_forward=1)
    sudo sysctl -p

    Schritt 3: Registrierung der Eucalyptus Komponenten

    Eucalyptus setzt voraus, das jeder Node innerhalb des Systems zu einem Cluster gehört. Ein Cluster wiederum gehört zu einer Cloud. Auf jedem Node wird eine Kopie von eucalyptus-nc ausgeführt. Genauso muss auf jedem Cluster eine Kopie von eucalytpus-cc ausgeführt werden. In unserem Beispiel wird der eucalytpus-cc auf der selben Maschine ausgeführt wie der Cloud Controller (eucalyptus-clc). Diese Komponenten müssen sich vor dem Start des Systems nun gegenseitig registrieren.

    Für die Registrierung eines Cluster wird der folgende Befehl benötigt:

    sudo euca_conf -addcluster localhost

    Dabei entspricht dem Namen des Clusters, den die Benutzer sehen werden. Es handelt sich dabei um einen reinen logischen Namen, der nur lokal zu Eucalyptus gehört und mit einer Verfügbarkeitszone übereinstimmt, wie sie bei den Client-Tools angezeigt wird.

    Um nun einen Node bei einem Cluster zu registrieren, ist der folgende Befehl notwendig.

    sudo euca_conf -addnode

    Später können weitere Nodes - auf denen eine Kopie von eucalyptus-nc ausgeführt wird - hinzugefügt werden, indem der obige Befehl erneut für jeden Node ausgeführt wird.

    Schritt 4: Erster Login

    Nach dem ersten Start von Eucalyptus muss die Administrationsumgebung der Cloud eingerichtet werden. Dazu öffnen wir im Webbrowser folgende UR:

    https://[front-end-ip-address]:8443

    Mit den Standardzugangsdaten Benutzername: admin und Passwort: admin erfolgt die erste Anmeldung, bei der das Passwort geändert werden muss. Nun folgen wir den Anweisungen auf dem Bildschirm. Ist die Konfiguration abgeschlossen klicken wir auf den Reiter credentials und anschließend auf Download Certificate.

    Wichtig ist hierbei zu beachten, dass wir eine sichere Verbindung nutzen, also "https" anstatt "http". Wir erhalten eine Warnung auf Grund des Sicherheitszertifikats. Dafür müssen wir eine Ausnahme eintragen, um die Seite sehen zu können. Wird für diese Seite keine Ausnahme eingetragen, kann die Konfigurationsseite von Eucalyptus nicht angezeigt werden.

    Jetzt müssen wir mittels X.509 Zertifikaten die EC2 API und AMI Tools auf unserem Server wie folgt einrichten.

    mkdir ~/.euca
    cd ~/.euca
    mv ~/Desktop/euca2-admin-x509.zip ~/.euca
    unzip euca2-admin-x509.zip

    Die Installation kann mittels eines Skripts (ec2toolsinstall.sh) wie folgt durchgeführt werden.

    cd ~/.euca
    # Eucalyptus is not compatible with the newer ec2tools so we will
    # install and remove them to insure all dependencies get installed
    sudo apt-get install ec2-api-tools ec2-ami-tools
    sudo apt-get remove ec2-api-tools ec2-ami-tools
    wget http://s3.amazonaws.com/ec2-downloads/ec2-api-tools-1.3-30349.zip
    unzip ec2-api-tools-1.3-30349.zip
    mv ec2-api-tools-1.3-30349 ec2
    wget http://s3.amazonaws.com/ec2-downloads/ec2-ami-tools-1.3-26357.zip
    unzip ec2-ami-tools-1.3-26357.zip
    mv ec2-ami-tools-1.3-26357 ec2ami
    echo 'export JAVA_HOME=/usr' >> eucarc
    echo 'export EC2_HOME=~/.euca/ec2' >> eucarc
    echo 'export EC2_AMITOOL_HOME=~/.euca/ec2ami' >> eucarc
    echo 'export PATH=$PATH:$EC2_HOME/bin:$EC2_AMITOOL_HOME/bin' >> eucarc

    Vergabe der Zugriffsrechte:

    chmod +x ec2toolsinstall.sh

    Das Skript sollte die Datei eucarc erzeugt haben, die noch noch ge-sourced werden muss.

    source ~/.euca/eucarc

    Optional: Registrierung bei RightScale

    RightScale bietet eine Cloud-Management-Plattform für den Einsatz mit Eucalyptus. Diese Cloud Management Software wird als Service innerhalb der Amazon Web Services ausgeführt und muss daher die Möglichkeit haben, mit dem Eucalyptus Cloud Controller (eucalyptus-clc) der hinter einer Firewall steht, zu kommunizieren.

    Daher müssen die Ports 8443 und 8773 (Richtung > Internet) geöffnet werden, damit RightScale mit der Eucalyptus Cloud kommunizieren kann.

    Um unsere Eucalyptus Cloud bei RightScale zu registrieren, folgen wir den Anweisungen in der unten verlinkten Anleitung:

    • Registrieren der Eucalyptus Cloud bei RightScale.

    Schritt 5: Erstellen eines Virtual Machine Image

    Mit dem vmbuilder können wird ein Virtual Machine Image erstellen, das mit Eucalyptus gestartet werden kann.

    Zunächst erstellen wir eine Datei mit dem Namen part, in der die Größe, der Typ und der Mountpunkt der Virtual Machine beschrieben ist:

    root 400
    /mnt/ephemeral 0 /dev/sda2
    swap 1 /dev/sda3

    Anschließend erstellen wir eine Skriptdatei mit dem Namen firstboot. Dieses Skript wird ausgeführt wenn das Image das erste Mal in Eucalyptus gestartet wird und installiert dabei einen SSH Daemon.

    apt-get -y install openssh-server

    Nun erstellen wir ein Image mit dem vmbuilder und übergeben beim Aufruf die beiden Skripte als Parameter.

    sudo vmbuilder xen ubuntu --part ./part --firstboot ./firstboot

    Mit Hilfe der EC2 API Tools packen und registrieren wir abschließend den Kernel, die Ramdisk und das Image.

    mkdir kernel
    ec2-bundle-image -i /boot/vmlinuz-2.6.28-11-generic -d ./kernel --kernel true
    ec2-upload-bundle -b kernel -m ./kernel/vmlinuz-2.6.28-11-generic.manifest.xml
    EKI=`ec2-register kernel/vmlinuz-2.6.28-11-generic.manifest.xml | awk '{print $2}'`
    echo $EKI

    mkdir ramdisk
    ec2-bundle-image -i /boot/initrd.img-2.6.28-11-generic -d ./ramdisk --ramdisk true
    ec2-upload-bundle -b ramdisk -m ramdisk/initrd.img-2.6.28-11-generic.manifest.xml
    ERI=`ec2-register ramdisk/initrd.img-2.6.28-11-generic.manifest.xml | awk '{print $2}'`
    echo $ERI

    mkdir image
    ec2-bundle-image -i ubuntu-xen/root.img -d ./image --kernel $EKI --ramdisk $ERI
    ec2-upload-bundle -b image -m ./image/root.img.manifest.xml
    EMI=`ec2-register image/root.img.manifest.xml | awk '{print $2}'`
    echo $EMI

    Der Kernel, die Ramdisk und das Image sind nun in der Eucalyptus Cloud und können dort genutzt werden.

    Zur Bestätigung geben wir folgenden Befehl ein:

    ec2-describe-images

    Die Ausgabe sollte nun einen registrierten Kernel, Ramdisk und Image anzeigen, die als "available" gekennzeichnet sind.

    Schritt 6: Starten eines Images

    Bevor eine Instanz eines Image gestartet wird, müssen wir ein Schlüsselpaar (SSH Key) erstellen um uns nach dem Start als Root anmelden zu können. Der Schlüssel wird gespeichert, daher muss dieser Schritt nur einmal durchgeführt werden.

    ec2-add-keypair mykey > ~/.euca/mykey.priv
    chmod 0600 ~/.euca/mykey.priv

    Falls wir unseren Key mal vergessen sollten, können wir uns mittels ec2-describe-keypairs eine Liste aller erstellten und auf dem System gespeicherten Schlüssel anzeigen lassen.

    Nun können wir Instanzen von unserem registrierten Image wie folgt erstellen.

    ec2-run-instances $EMI -k mykey

    Während des ersten Starts einer Instanz erstellt das System einen Cache für das Image aus welchem die Instanz erstellt wird. Da die Images in der Regel sehr groß sind, kann dieser Vorgang etwas dauern.

    Der aktuelle Status der Instanz kann mit folgendem Befehl abgefragt werden.

    ec2-describe-instances

    Die Ausgabe zeigt die aktuellen Informationen und den Status der Instanz. Während des ersten Starts sollte sich die Instanz im Status "pending" befinden. Ist die Instanz gestartet, sollte der Status auf "running" wechseln. Nachdem die Instanz über DHCP eine IP-Adresse erhalten hat können wir uns mittels des oben generierten SSH Keys mit der Instanz verbinden.

    ssh -i ~/.euca/mykey.priv root@

    Die Umgebung der Eucalyptus Cloud sollte nun diesem Diagramm entsprechen.

    Weitere Informationen

    • Log Dateien: /var/log/eucalyptus
    • Konfigurationsdateien: /etc/eucalyptus
    • Init Skripte: /etc/init.d/eucalyptus-cc, /etc/init.d/eucalytpus-cloud und /etc/init.d/eucalytpus-nc
    • Datenbank: /var/lib/eucalyptus/db
    • Neustart (Anmerkung): Bei einem Neustart wird Eucalyptus nicht automatisch neu gestartet. Die Services müssen daher manuell geladen werden.
    • Umgebung (Anmerkung): Bevor der Client gestartet wird, sollten die Quellen unter ~/.euca/eucarc ge-sourced werden.

    Quellen

    Eucalyptus-Jaunty



    Rackspace – Cloud Files

    Mit dem Cloud Files [1] Angebot von Rackspace können einzelne Dateien bis zu einer Größe von 5 GByte in der Rackspace Cloud redundant gespeichert werden. Dabei wächst der Speicherplatz mit dem genutzten Bedarf. Somit wird auch nur für den Speicherplatz bezahlt, der auch tatsächlich benötigt wird. Der Preis pro GByte liegt derzeit bei 15 Cent.

    Funktionsweise

    • Hochladen der Dateien
      Mit Hilfe des Webinterface, der Desktop Software oder der Rackspace API kann eine unbegrenzte Anzahl von Daten gespeichert werden.
    • Kosten pro Speicherbedarf
      Der Speicherplatz wird lediglich gemietet. Die Abbrechung erfolgt pro genutzten Speicherplatz und Datentransfer. Dabei wächst der Speicherplatz mit dem Datenvolumen.
    • Datenschutz & Verfügbarkeit
      Die Dateien werden in sogenannte Container organisiert. Die Zugriffsrechte auf einen solchen Container können als Public oder Privat gekennzeichnet werden.

    Cloud Files Speichertechnologie


    [2]

    • Das Speichern und Verwalten der Daten erfolgt über das Webinterface, der Desktop Software oder der Rackspace API. Cloud Files dient z.B. als Backuplösung, zur Bereitstellung von Bildern oder als Datenspeicher für das Streaming von Videos. Weitere Möglichkeiten bestehen im Bereich Onlinespeicher um über das Internet z.B. mit einem Webbrowser auf die Daten direkt zuzugreifen oder für Entwickler zum Speichern Ihrer Anwendungsdaten.
    • Dem Gegenüber stehen aber auch Dinge, die typischerweise nicht mit Cloud Files genutzt werden können. Die Daten können z.B. nicht als virtuelle Festplatte lauf dem lokalen System eingebunden werden (mount, map). Das Spiegeln von Festplatten oder Backuplösungen die auf Byte-Level Striping oder Block-Level Striping basieren können ebenfalls nicht genutzt werden, genauso wie das anhängen (append) und sperren (locking).
    • Die Daten werden in Container organisiert, können aber nicht verschachtelt werden. Das bedeutet genau: Wenn nur ein Container (auf oberster Ebene) existiert, kann anschließend keine verschachtelte Verzeichnis/ Ordner Struktur ohne eine Transformation in eine flachere Struktur hochgeladen werden.
    • Innerhalb des Rechenzentrums werden mehrfache Kopien der Daten erzeugt und auf mindestens drei verschiedenen Geräten in zwei unterschiedlichen Bereichen des Rechenzentrums gespeichert. Dabei verfügt jeder Bereich eines Rechenzentrums über ein separate Strom- und Netzwerkverbindungen.


    [3]

    Cloud Files CDN-Technologie

    • Dateien die für die Öffentlichkeit bestimmt sind, werden über ein spezielles Content Distribution Network (CND) verteilt. Dabei handelt es sich um ein Netzwerk mit weltweit verteilten Standorten. Werden die Daten von einem Benutzer z.B. aus Tokyo das erste Mal abgerufen, wird von diesen Daten eine lokale Kopie im Cache auf den Servern in Hamburg gespeichert.


    [4]


    [5]

    • Werden diese Daten ein weiteres Mal erneut abgerufen aus Tokyo (oder Umgebung) abgerufen, werden die Daten direkt aus dem Cache bereitgestellt und müssen nicht von dem ursprünglichen (weiter entfernten) Server geladen werden. Das erhöht die Geschwindigkeit der Bereitstellung, da somit Latenzen die z.B. durch längere Übertragungswege entstehen, vermieden werden.

    Die API

    Mit der Cloud Files API können eigene Lösung/ Programme auf Grundlage der Rackspace Infrastruktur entwickelt werden.

    • Programmatisches Hochladen von Dateien.
    • Aktivierung von Cloud Files CDN für jede Art von Container zur Bereitstellung öffentlichen Inhalts.
    • Programmatische Erstellung von Container.
    • Programmatische Verwaltung der Container und Dateien.

    Preise

    Alle Preise sind hier zu finden: Rackspace Cloud Files Preise

    Quelle

    [1] Rackspace Cloud - Cloud Files

    [2] Graphik: Rackspace Cloud - Cloud Files (1)
    [3] Graphik: Rackspace Cloud - Cloud Files (2)
    [4] Graphik: Rackspace Cloud - Cloud Files (3)
    [5] Graphik: Rackspace Cloud - Cloud Files (4)
    [6] Graphik: Rackspace Cloud - Cloud Files (5)



    Rackspace – Cloud Servers

    Mit dem Cloud Server [1] Angebot von Rackspace können innerhalb von wenigen Minuten von einem bis zu 50 Server eingerichtet werden. Die Konfiguration erfolgt über ein Webinterface bzw. über eine spezielle von Rackspace bereitgestellte offen API. Die Server verfügen über einen vollständigen Root-Zugang und können je nach Wunsch und Aufgabenbereich eingerichtet werden. Abgerechnet wird nur die tatsächliche Nutzung.

    Funktionsweise

    • Auswahl der Serverkonfiguration
      Die Auswahl der Grundkonfiguration erfolgt aus Basis des Arbeitsspeichers. Es steht ein Bereich von 256 MB bis zu 16 GB zur Verfügung
    • Auswahl des Betriebssystem
      Aktuelle stehen mehrere Linux Distributionen zur Verfügung, darunter Ubuntu, Debian, Gentoo, Centos, Fedora, Arch und Red Hat Enterprise Linux. Windows Varianten sollen folgen.
    • Verwaltung
      Innerhalb von wenigen Minuten sind die Server verfügbar. Über ein Webinterface oder eine spezielle API kann die Performance jedes vorhandene Servers vergrößert, verkleinert oder vollständig entfernt werden.

    Technologie

    • Virtualisierung
      Jeder Cloud Server wird in einer eigenen Virtual Machine abgebildet und ist vollständig von der Hardware getrennt. An dieser Stelle werden Software Hypervisor eingesetzt, wodurch weitere Cloud Server innerhalb von wenigen Minuten zur Verfügung stehen, da nur eine weitere Virtual Machine auf der bereits laufenden Hardware gestartet werden muss. Damit kann die Performanz (Prozessorleistung, Arbeitsspeicher) eines einzelnen Cloud Servers schnell vergrößert oder verkleinert werden.
    • CPU Geschwindigkeit
      Alle Cloud-Server garantieren die CPU-Leistung die vorbar konfiguriert wurde. Wenn die Hardware auf der die Virtual Machine betrieben wird allerdings freie CPU Kapazitäten zur Verfügung hat, werden diese genutzt um ohne weitere Kosten zusätzliche Rechenleistung für die Virtual Machine bereitzustellen.
    • Skalierung
      Die Skalierung eines Cloud Servers erfolgt entweder manuell über das Webinterface oder die API. Allerdings ist der Server dabei vorübergehend nicht erreichbar(!), da der Arbeitspeicher, die Festplattenkapazität und die Prozessorleitstung angepasst werden müssen und der Server neu gestartet(!) wird. Der gesamte Prozess ist automatisiert und dauert ein paar Minuten.
    • Technik

      • Xen Hypervisor
      • RAID-10
      • 64-bit Systeme
      • 4 virtuelle CPUs pro Cloud Server
      • Reservierter Arbeitsspeicher und Speicherplatz
      • Voneinander getrennte Public und Privat Netzwerkschnittstellen
      • Mehrfache Öffentliche IP-Adressen sind möglich
      • Kostenlose Bandbreite für die private Netzwerkschnittstelle und der Kommunikation innerhalb der Rackspace Cloud z.B. zu Cloud Files.
      • Snapshot-basierte Server-Images
      • Dynamische IP-Adressen für Hochverfügbarkeits-Failover-Konfigurationen
      • Bootfähiger Rettungs-Modus
      • Zugriff auf das Dateisystem für die Reperatur


    [2]

    Verfügbare Betriebssysteme

    • Ubuntu 9.10 (Karmic Koala)
    • Centos 5.4
    • Gentoo 2008.0
    • Ubuntu 9.04 (Jaunty)
    • Centos 5.3
    • Red Hat EL 5.3
    • Ubuntu 8.10 (Intrepid Ibex)
    • Centos 5.2
    • Arch 2009.02
    • Ubuntu 8.04.2 (Hardy Heron) LTS
    • Fedora 11 (Leonidas)
    • Fedora 10 (Cambridge)
    • Debian 5.0 Lenny


    [3]

    Funktionen der API

    • Starten und verwalten der Server programmatisch mit der REST-API.
    • Individuelle Anpassung der Server.
    • Zuweisen von speziellen Metadaten zu bestimmten Server Instanzen über key/value Paare.
    • Neustart der Server mittels Soft- oder Hardreset.
    • Wiederherstellen von Servern aus jedem beliebigen eigenen Image.
    • Erstellung von individuellen Images.
    • Zeitlich gesteuerte Backups der Server.
    • Je nach Wunsch kann die Performanz der Server vergrößert oder verkleinert werden.
    • Mehrere Server können sich mehrere öffentliche IP-Adressen teilen.


    [4]

    Preise

    Alle Preise sind hier zu finden: Rackspace Cloud Server Preise

    Quelle

    [1] Rackspace Cloud - Cloud Servers
    [2] Graphik: Rackspace Cloud - Cloud Servers (1)
    [3] Graphik: Rackspace Cloud - Cloud Servers (2)
    [4] Graphik: Rackspace Cloud - Cloud Servers (3)



    Was ist "Amazon CloudFront"?

    Amazon CloudFront [1] gehört zu dem Webservice Angebot von Amazon und dient zur Bereitstellung von Inhalten. Das Ziel des Service ist die schnelle Bereitstellung von Inhalten mit möglichst geringen Latenzzeiten. Dazu wird ein weltweit verteiltes Netzwerk genutzt, in welchem die Daten immer automatisch zum nächstgelegenden Standort (edge Location) der Anfrage geroutet werden um damit die höchstmögliche Geschwindigkeit zu erzielen.


    [2]

    Amazon CloudFront Funktionsweise

    Amazon CloudFront wird wie jeder Amazon Webservice über die Webservice-API angesprochen. Die Objekte die Bereitgestellt werden sollen, werden in so genannten Distributions organisiert. Eine Distribution definiert den Speicherort der ursprünglichen Version der Objekte. Eine Distribution verfügt über einen eindeutigen CloudFront.net Domainnamen (z.B. name.cloudfront.net), der dafür genutzt wird, um die Objekte auf einen Standort zu verweisen. Zusätzlich kann auch ein eigener Domainname (z.B. bilder.meinedomain.de) genutzt werden. Distributions können dafür genutzt werden um Inhalte über das HTTP Protokoll herunterzuladen oder mit dem RTMP Protokoll zu streamen.

    Für die Nutzung sind die folgenden Schritte notwendig:

    • Speichern der originalen Daten in einem Amazon S3 Bucket.
    • Erstellen einer Distribution um das Bucket bei Amazon CloudFront zu erfassen.
    • Wenn Benutzer nun über Webseiten, Media Player oder anderen Anwendungen auf die Domain zugreifen die bei der Distribution hinterlegt ist, wird deren Anfrage automatisch an den nächstgelegenden Standort dieser Anfrage geroutet, von dem aus dann der angefragte Inhalt ausgeliefert wird.
    • Die Abbrechnung erfolgt nur für Datenübertragung und die Anfragen, die tatsächlich entstehen.

    Funktionen

    • Geschwindigkeit
      In dem weltweiten Netzwerk werden an allen Standorten (Edge Locations) Kopien der Inhalte in einem Cache gespeichert, damit werden die angefragten Daten dem User schnell und ohne Verzögerung bereitgestellt.
    • Einfache Verwaltung
      Über die Amazon Web Service API oder die AWS Management Console kann die Administration von Amazon CloudFront auf eine einfache Weise vorgenommen werden.
    • Integration mit anderen Amazon Webservices
      Amazon CloudFront wurde in erster Linie für den Amazon S3 Dienst entwickelt. Es besteht aber auch die Möglichkeit Amazon EC2 Instanzen damit zu betreiben. Zum Beispiel für die Bereitstellung einer EC2 Instanz als Webserver der dynamische HTML-Seiten zur Verfügung stellt, wobei Amazon CloudFront in diesem Fall dann die Daten für den statischen Inhalt liefert.
    • Kosten
      Kosten für Amazon CloudFront enstehen nur dann, wenn der Dienst auch tatsächlich genutzt wird.
    • Skalierbarkeit
      Amazon CloudFront reagiert automatisch auf das Anfrageverhalten und skaliert das System entsprechend den aktuellen Anforderungen. Steigen die Anfragen wird die Performance des Systems durch das Hinzufügen von weiteren Ressourcen erhöht. Nimmt die Nachfrage wieder ab, werden die Ressourcen ebenfalls wieder heruntergefahren.
    • Weltweite Verfügbarkeit
      Die Amazon CloudFront Standorte befinden sich in den USA, Europa und Asien.

    Die Standorte des Amazon CloudFront Netzwerks

    Die Amazon CloudFront Standorte gliedern sich nach folgenden Kontinenten und Städten.

      USA

    • Ashburn, VA
    • Dallas/Fort Worth, TX
    • Los Angeles, CA
    • Miami, FL
    • Newark, NJ
    • Palo Alto, CA
    • Seattle, WA
    • St. Louis, MO

      Europa

    • Amsterdam
    • Dublin
    • Frankfurt
    • London

      Asien

    • Hong Kong
    • Tokyo


    [3]

    Anwendungsmöglichkeiten von Amazon CloudFront

    • Schnelle Bereitstellung von Webseiten
      Die Geschwindigkeit von Webseiten kann erhöht werden, wenn Objekte, die oft aufgerufen werden, wie z.B. Graphiken, Logos, Navigationsbuttons oder auch Dinge wie CSS oder Java Code schnell bereitgestellt werden. Es macht daher Sinn, solche Daten in einem Cache wie es z.B. Amazon CloudFront darstellt, zu speichern.
    • Bereitstellung von Downloads
      Auf Grund der hohen Datentransferrate können Anwendungen, Softwareupdates oder andere beliebige Downloadangebote per Amazon CloudFront schnell den Benutzern bereitgestellt werden. Das Erhöht die Zufriedenheit der Besucher.
    • Bereitstellung von Multimediainhalten
      Multimediadaten (Audio und Video) sind ebenfalls Ideale Inhalte für die Bereitstellung über Amazon CloudFront. Durch die hohe Geschwindigkeit und das Vorhalten der oft angefragten Daten im Cache können die Inhalte schnell und zuverlässig gestreamt werden.

    Preise

    Alle Preise sind hier zu finden: Amazon CloudFront Preise

    Quellen:

    [1] Amazon CloudFront
    [2] Graphik: Amazon CloudFront (1)
    [3] Graphik: Amazon CloudFront (2)



    Was sind "Amazon EC2 Elastic IP-Addresses"?

    Elastische IP-Adressen sind statische IP-Adressen die für dynamisches Cloud Computing entwickelt wurden. Eine IP-Adresse ist mit dem AWS-Account und nicht mit einer konkreten Instanz verknüpft. Im Fehlerfall einer Instanz wird die IP-Adresse des betroffenen Servers auf einen funktionieren Server neu gemapped.

    Begriffsbestimmungen

    • EC2 Private IP Address
      Dabei handelt es sich um die interne Adresse einer Instanz, ide nur innerhalb der EC2 Cloud geroutet werden kann. Der Datenverkehr außerhalb des EC2 Netzwerks kann nicht zu dieser IP Adresse geroutet werden. Dazu muss die Public IP oder die Elastic IP verwendet werden.
    • EC2 Public IP Address
      Dabei handelt es sich um die öffentliche IP-Adresse aller Instanzen die durch das Internet geroutet werden kann. Datenverkehr der zu dieser öffentlichen IP-Adresse geroutet wird, wird 1:1 per Network Address Translation (NAT) übersetzt und an die Private IP-Adresse einer Instanz weitergeleitet. Die öffentlichen IP-Adressen können nicht mehr genutzt werden, wenn eine EC2 Instanz ausfällt.
    • EC2 Elastic IP Address
      Dabei handelt es sich um die öffentliche IP-Adresse aller Instanzen die durch das Internet geroutet werden kann und einem AWS Account zugerordnet sind. Datenverkehr der zu dieser Elastic IP-Adresse geroutet wird, wird per Network Address Translation (NAT) übersetzt und an die zugeordnete Private IP-Adresse weitergeleitet. Elastic IP-Adressen werden explizit einem AWS Account zugeordnet und können bei Bedarf auch anderen EC2-Instanzen zugeordnet werden.


    [2]

    Beispiel

    • Eine Elastic IP Addresse einem AWS Account zuweisen
      Mit dem Befehl ec2-allocate-address wird eine Elastic IP Address einem Account zugeordnet. Mit dem Befehl ec2-release-address kann die Adresse von dem Account wieder entfernt werden.


      ec2-allocate-address
      ADDRESS 75.101.155.119

    • Beschreibung der Zuordnung von IP-Adressen zu einem Account
      Nachdem eine Adresse einem Account zugewiesen wurde, können mit dem Befehl ec2-describe-addresses alle eingesehen werden, die einem Account zugeordnet sind. Über den Parameter kann auf eine spezielle IP-Adresse gefiltert werden. Ohne Parameter werden alle IP-Adressen ausgegeben.


      ec2-describe-addresses
      ADDRESS 75.101.157.145
      ADDRESS 75.101.155.119

      ec2-describe-addresses 75.101.157.145
      ADDRESS 75.101.157.145

    • Zuordnung einer Elastic IP Addresse zu einer bereits gestarteten Instanz
      Nachdem eine Elastic IP Adresse zugeordnet wurde, kann diese mit dem Befehl ec2-describe-instances ausgewählt und über den Befehl ec2-associate-address mit einer gestarteten Instanz verknüpft werden.


      ec2-describe-instances
      INSTANCE i-b2e019da ami-2bb65342 ec2-72-44-33-67.compute-1.amazonaws.com
      INSTANCE i-b2e019db ami-2bb65342 ec2-67-202-3-83.compute-1.amazonaws.com

      ec2-describe-addresses
      ADDRESS 75.101.157.145

      Nun wird die Elastic IP 75.101.157.145 der Instanz mit der ID i-b2e019da zugeordnet.


      ec2-associate-address -i i-b2e019da 75.101.157.145
      ADDRESS 75.101.157.145 i-b2e019da

      Anschließend ist mit dem Befehl ec2-describe-addresses zu sehen, dass die IP der Instanz zugeordnet wurde.


      ec2-describe-addresses
      ADDRESS 75.101.157.145 i-b2e019da

      ec2-describe-instances i-b2e019da
      INSTANCE i-b2e019da ami-2bb65342 ec2-75-101-157-145.compute-1.amazonaws.com

    • Zuordnung einer Elastic IP Address zu einer anderen gestarteten Instanz
      Die Elastic IP kann auch einer anderen gestarteten Instanz zugeordnet werden. In diesem Beispiel gehören zu dem Account zwei aktive Instanzen -b2e019da und i-b2e019db. Es wird die IP-Adresse 75.101.157.145 von der Instanz i-b2e019da auf die Instanz i-b2e019db neu zugeordnet.


      ec2-describe-addresses
      ADDRESS 75.101.157.145 i-b2e019da

      ec2-associate-address -i i-b2e019db 75.101.157.145
      ADDRESS 75.101.157.145 i-b2e019db

      Nach dem Update wird der Datenverkehr der an die IP Adresse 75.101.157.145 gesendet wird, nun per NAT an die interne IP Adresse der Instanz i-b2e019db weitergeleitet.


      ec2-describe-addresses
      ADDRESS 75.101.157.145 i-b2e019db

      Der Instanz i-b2e019da ist nun keine öffentliche IP Adresse mehr zugewiesen, da diese der anderen Instanz zugeordnet ist. Dadurch ist sie nicht mehr über das Internet erreichbar, innerhalb der der Amazon Cloud aber schon.


      ec2-describe-instances
      INSTANCE i-b2e019da ami-2bb65342 <> ip-10-251-71-165.ec2.internal
      INSTANCE i-b2e019db ami-2bb65342 ec2-75-101-157-145.compute-1.amazonaws.com

      Im Hintergrund sorgt ein Prozess dafür, dass die Instanz i-b2e019da automatisch eine neue öffentliche IP Adresse erhält.


      ec2-describe-instances
      INSTANCE i-b2e019da ami-2bb65342 ec2-67-202-46-87.compute-1.amazonaws.com
      INSTANCE i-b2e019db ami-2bb65342 ec2-75-101-157-145.compute-1.amazonaws.com

    • Beenden einer laufenden Instanz mit einer zugeordneten Elastic IP
      Mit dem Befehl ec2-terminate-instance wird zuerst die Zuordnung der Elastic IP zu der Instanz entfernt, anschließend wird die Instanz beendet.
    • Entfernen der Zuordnung einer Elastic IP zu einer gestarteten Instanz

      Mit dem Befehl ec2-disassociate-address wird die Zuordnung einer Elastic IP aufgehoben.


      ec2-describe-addresses
      ADDRESS 75.101.157.145 i-b2e019db

      ec2-disassociate-address 75.101.157.145
      ADDRESS 75.101.157.145


      ec2-describe-addresses
      ADDRESS 75.101.157.145

    • Freigeben einer Elastic IP eines AWS Account
      Um eine Elastic IP von einem AWS Account wieder zu entfernen wird der Befehl ec2-release-address benötigt. Als Parameter wird die IP Adresse verwendet, die von dem Account entfernt werden soll.


      ec2-describe-addresses
      ADDRESS 75.101.157.145

      ec2-release-address 75.101.157.145
      ADDRESS 75.101.157.145


      ec2-describe-addresses

    Quellen

    [1] Amazon EC2 Elastic IP-Addresses
    [2] Graphik: Amazon EC2 Elastic IP-Addresses