Tag: Storage


Flash in the Enterprise – Trends im Enterprise Storage Management

  • Digitalisierungs- und Daten-Strategien schaffen neue Realitäten für Storage-Architekten und IT-Infrastruktur Entscheider
  • Sinneswandel - vom Capacity-driven zum Performance-driven Paradigma im Storage Management
  • Flash First – Der Markt für Flash-basierte Storage-Systeme wächst mit über 30% pro Jahr und zeigt, dass die Technologie reif für den Unternehmenseinsatz ist (Umsatz in 2017 bei rund 6 Mrd. USD)
  • Infrastruktur kann sexy sein - Großer Zuspruch auf den Fujitsu Storage Days 2018 zeigt, dass Storage gerade in Zeiten der Digitalisierung ein hoch relevantes Thema ist

Continue reading “Flash in the Enterprise – Trends im Enterprise Storage Management” »



Strategien für das Datenmanagement im digitalen Zeitalter

Was wäre, wenn alle Unternehmen den Weg in Richtung Digitalisierung beschreiten? Was, wenn immer mehr Unternehmen Cloud Services nutzen und Staaten ihre öffentliche Infrastruktur und die Verkehrssysteme vernetzen? Was, wenn auch im Mittelstand Papier gegen digitale Prozesse ersetzt würde? Was, wenn die Mehrheit der Menschen Filme und Musik über das Internet streamed? Da all dies schon längst Realität ist, müssen die Prognosen zum jährlichen Datenwachstum und den Speicherkapazitäten ständig neu angepasst werden. Denn die Geschwindigkeit mit der die Digitalisierung von Produkten (Smart Products), Geschäftsprozessen, Endgeräten (IoT) oder Produktions- und Logistiksystemen (Industrie 4.0) voranschreitet ist enorm. Crisp Research geht aktuell von einem weltweiten jährlichen Datenwachstum von rund 30-40% und einem Gesamtspeichervolumen von >50 Zettabyte im Jahr 2020 aus.

Continue reading “Strategien für das Datenmanagement im digitalen Zeitalter” »



Hyperkonvergente Systeme – Flexibler Standard in den Rechenzentren von morgen

Die Anforderungen an die IT wachsen minütlich. Der Mehrbedarf an Leistung erfordert häufig den Aus- und Umbau der bestehenden Infrastrukturen. Denn die derzeitigen IT-Landschaften der Unternehmen werden beim Betrieb neuer dynamischer Workloads schnell in die Knie gezwungen. Der ständige Ausbau der Architektur-Landschaft um neue „alte“ Komponenten erscheint vor diesem Hintergrund nicht sinnvoll. Denn dies würde lediglich neue Insellösungen und Silos schaffen. Mit einer weiter zunehmenden Verteilung einzelner Infrastruktur-Komponenten wie Server, Storage etc. wird Administration der Komponenten zur Herkulesaufgabe. Die IT-Abteilung droht die Übersicht zu verlieren. Webscale IT beziehungsweise Hyperkonvergente Infrastrukturen sind eine Antwort auf die Frage nach skalierbaren, flexiblen und leistungsfähigen Systemen. Inwieweit der Mittelstand von dieser neuen Technologie profitieren kann wird anhand der Ergebnisse einer (nicht-repräsentativen) Befragung des Systemhauses CEMA von etwa 100 IT-Entscheidern mittelständischer Unternehmen untersucht. Continue reading “Hyperkonvergente Systeme – Flexibler Standard in den Rechenzentren von morgen” »



Back Up und Disaster Recovery: Es geht ums Überleben!

Daten und Informationen sind heutzutage ein geschäftskritischer Wettbewerbsfaktor. Die dauerhafte Gewährleistung des Zugriffs auf digitale Kommunikationswege zu Partnern, Lieferanten und Kunden ist im Zuge der Digitalisierung der gesamten Geschäftsprozesse immer wichtiger. Dazu zählt auch die Verfügbarkeit aller entstandenen Daten der einzelnen Unternehmen. Das Phänomen “Zero-Downtime” beschreibt dabei einen theoretischen Idealzustand, das von einem komplett reibungslosen Betrieb ausgeht. Die Unternehmen sind in der Pflicht, stärker in die Ausfallsicherheit der Systeme zu investieren und Back Up und Disaster Recovery-Szenarien etablieren.

Continue reading “Back Up und Disaster Recovery: Es geht ums Überleben!” »



Kriterien zur Auswahl eines Cloud Storage Anbieter

Die Suche nach einem Cloud-Storage-Anbieter hängt in den meisten Fällen mit den individuellen Anforderungen zusammen, die der Service erfüllen soll. Diese müssen Entscheider im Vorfeld erörtern und festlegen. Dazu gehört vor allem die Klassifizierung der Daten. Dabei wird definiert, welche Daten in der Cloud und welche in der eigenen On-premise-Infrastruktur gespeichert werden.

Dieser Artikel ist exklusiv im IDG-Netzwerk erschienen und kann unter "Wenn Dropbox die falsche Lösung ist: Cloud Storage – wie Sie den richtigen Anbieter finden" gelesen werden.



Sicherheitsvergleich: TeamDrive vs. ownCloud

Dropbox polarisiert innerhalb der IT-Abteilungen. Vom Vorstand bis hin zum normalen Mitarbeiter greifen viele auf den beliebten Cloud-Storage Service zurück. Das liegt vor allem an der einfachen Nutzung, die von den internen IT-Abteilungen heute nicht so unkompliziert bereitgestellt wird. Hier greifen insbesondere zwei aus Deutschland heraus entwickelte Lösungen an, die es Unternehmen erlauben, eigene Dropbox ähnliche Funktionen innerhalb einer selbstverwalteten IT-Infrastruktur zu implementieren, TeamDrive und ownCloud. TeamDrive vertritt dabei einen vollständig kommerziellen und proprietären, ownCloud hingegen einen vermeintlichen Open-Source Ansatz, dem aber ebenfalls eine kommerzielle Version zu Grunde liegt. Beide beanspruchen für sich den Titel "Dropbox für Unternehmen". Bewegen wir uns allerdings genau in diesem Umfeld, spielt das Thema Sicherheit eine sehr wichtige Rolle.

Hintergrund zu TeamDrive und ownCloud

TeamDrive und ownCloud verfolgen zwei unterschiedliche Geschäftsmodelle. Wo sich TeamDrive als vollständig kommerzielles Produkt für Unternehmen am Markt positioniert, setzt ownCloud auf die Open-Source Community, um damit Marktanteile zu gewinnen. Mit einer kommerziellen Version adressiert ownCloud allerdings auch den Markt für professionelle Unternehmenslösungen.

Über TeamDrive

TeamDrive ist eine Filesharing und Synchronisations-Lösung für Unternehmen, die ihre sensiblen Daten nicht bei externen Cloud-Services speichern wollen und es ihren Teams zudem ermöglichen möchten, Daten oder Dokumente zu synchronisieren. Dazu überwacht TeamDrive beliebige Ordner auf einem PC oder Notebook, die man mit eingeladenen Anwendern gemeinsam nutzen und bearbeiten kann. Damit stehen Daten jederzeit, auch offline zur Verfügung. Eine automatische Synchronisation, Backups und Versionierung von Dokumenten schützen die Anwender vor Datenverlust. Mit der Möglichkeit die TeamDrive Registration- und Hosting-Server im eigenen Rechenzentrum zu betreiben, lässt sich TeamDrive in vorhandene IT-Infrastrukturen integrieren. Dafür stehen alle notwendigen APIs zur Verfügung.

Über ownCloud

ownCloud ist eine Open-Source Filesync- und –sharing-Lösung für Unternehmen und Organisationen, die ihre Daten weiterhin selbst unter Kontrolle behalten möchten und nicht auf externe Cloud-Storages zurückgreifen wollen. Der Kern der Anwendung besteht aus dem ownCloud Server über welchen sich die Software zusammen mit den ownCloud-Clients nahtlos in die existierende IT-Infrastruktur integriert und die Weiternutzung bereits vorhandener IT-Management-Tools ermöglicht. ownCloud dient als lokales Verzeichnis, bei dem unterschiedliche lokale Speicher gemountet werden. Dadurch stehen die entsprechenden Dateien allen Mitarbeitern auf allen Geräten zur Verfügung. Neben einem lokalen Storage können ebenfalls Verzeichnisse über NFS und CIFS angebunden werden.

TeamDrive und ownCloud: Die Sicherheitsarchitektur

In diesem Vergleich soll es um die Sicherheitsarchitektur hinter TeamDrive und ownCloud gehen. Der sonstige Funktionsumfang der beiden Lösungen wird nicht betrachtet. Es geht also um die Betrachtung der Verschlüsselungsverfahren, Datenhaltung, Datenverarbeitung und der Benutzerautorisierung, soweit Informationen zur Verfügung stehen. Dabei wird davon ausgegangen, dass grundlegende Kenntnisse zum Thema Sicherheit bekannt sind.

TeamDrive: End-to-End Verschlüsselung

TeamDrive ist trotz seines kommerziellen Ansatzes recht auskunftsfreudig und stellt einige Sicherheitsinformationen öffentlich zur Verfügung. Darunter zu dem Thema Verschlüsselung. Zudem wird mit dem Datenschutzsiegel des „Unabhängigen Landeszentrum für Datenschutz Schleswig-Holstein (ULD)“ geworben. Nach einer Anfrage wurden bereitwillig umfangreiche Informationen zur Verfügung gestellt, wobei einige jedoch einem NDA (Non-Disclosure Agreement) unterliegen.

Verschlüsselungsverfahren

TeamDrive setzt auf die folgenden Verschlüsselungsmechanismen:

  • Advanced Encryption Standard – AES 256
    Zur Verschlüsselung der Daten setzt TeamDrive auf das Advanced Encryption Standard (AES) Kryptosystem mit einem 256 Bit Schlüssel und verwendet die C Code Implementation der OpenSSL library.
  • Diffie-Hellman und RSA 3072
    Für den Schlüsselaustausch setzt TeamDrive bei seinen älteren Clients auf den Diffie-Hellman Algorithmus. Neue Clients hingegen verwenden RSA 3072. Die Diffie-Hellman Implementierung basiert dabei auf der C Code Implementation wie sie von der OpenSSL library zur Verfügung gestellt wird.
  • Message Digest 5/6 – MD5/MD6
    Der TeamDrive Hash-Funktionalität liegt der MD5 bzw. MD6 Algorithmus zu Grunde, wobei der Hashwert mit einer zufällig gewählten Zeichenfolge (Salt) gespeichert wird.
  • PrimeBase Privacy Guard – PBPG
    Der PrimeBase Privacy Guard (PBPG) ist ein proprietäres Public/Privat Schlüsselsystem, das auf dem Diffie-Hellman Schlüsselaustausch und der AES Verschlüsselung aufsetzt. Das Verhalten von PBPG für den Anwender gleicht dem bekannten Public/Privat Schlüsselsystemen von PGP oder GnuPG. Die PBPG-Verschlüsselung generiert zufällige Änderungen und verifiziert die Dateien während des Austauschs, damit PBPG erkennen kann, ob eine Nachricht oder ein Schlüssel manipuliert oder anderweitig verändert worden sind. Zwei Nachrichten sind dabei niemals gleich. Dabei wird nicht nur für jeden Benutzer ein Schlüsselpaar erzeugt, sondern ebenfalls für jede Installation. Die PBPG Implementierung ist offen und kann bei Bedarf von Partnern und anderen Interessierten überprüft werden.

Systemarchitektur

Daten werden bei TeamDrive in einem sogenannten Space gespeichert, auf dem eine festgelegte Anzahl von Nutzern Zugriff erhalten kann. Der Austausch findet über ein Space Depot statt, welches auf einem TeamDrive Hosting Server oder WebDAV liegen kann.

Jeder Space verfügt über seinen eigenen 256 Bit AES Schlüssel, der für die Verschlüsselung der Daten in diesem Space genutzt wird, wenn die Daten das Endgerät des Nutzers verlassen. Dabei hat nur die TeamDrive Software, welche auf dem Endgerät der anderen Nutzer eines Spaces installiert ist, Kenntnisse über den Schlüssel.

Jeder Server auf dem ein Space Depot zur Verfügung steht, ist für das Speichern, Weiterleiten und Anpassen von Veränderungen innerhalb des Depots verantwortlich. Damit können die Clients auch dann Daten austauschen, wenn nicht alle zur selben Zeit online sind. Alle Daten, die auf dem Server gespeichert sind, werden mit einem 256 Bit AES Schlüssel des Spaces verschlüsselt.

Benutzerautorisierung

Die Anmeldung eines Nutzers erfolgt über die TeamDrive Client-Software, die ihn gegen den TeamDrive Registrierungsserver überprüft. Das erfolgt grundsätzlich über die Eingabe einer E-Mail Adresse oder eines Benutzernamens und eines Passworts.

Die Autorisierung zwischen dem TeamDrive Client und dem Registrierungsserver erfolgt auf Basis des Public Key des Registrierungsserver. Informationen wie die E-Mail-Adresse und das Registrierungspasswort plus weitere Daten des Benutzers werden unter der Verwendung des Public Key des Registrierungsservers verschlüsselt an den Registrierungsservers übertragen.

Einzig der Aktivierungscode wird unverschlüsselt über eine ebenfalls unverschlüsselte E-Mail an den Nutzer verschickt. Zudem wird eine verschlüsselte Antwort mit der Device ID an den TeamDrive Client gesendet. Nach der Aktivierung durch den Nutzer generiert die Client-Software einen PBPG Key und einen passenden Public Key. Im Anschluss schickt die Client-Software das Registrierungspasswort und den Public Key verschlüsselt, unter Verwendung des Public Keys des Servers, an den Registrierungsserver zurück. Der Aktivierungscode wird verifiziert und der Public Key des Nutzers gespeichert. Alle im Anschluss folgenden Nachrichten, die an den Registrierungsserver geschickt werden, sind mit dem PBPG Public Key des Nutzers verschlüsselt und benötigen die Geräte-ID und das Registrierungspasswort zur Autorisierung.

Datenhaltung und Verarbeitung

Zum Erzeugen eines Space, benötigt der Benutzer ein Space Depot und dessen Passwort. Damit weiß der TeamDrive-Client, mit welchem Server er Kontakt aufnehmen muss, um den Space zu erzeugen. Anschließend fordert die Client-Software den Public Key des TeamDrive Hosting Servers an. Die Client Software sendet die Geräte-ID, die Space Depot ID, Benutzername, Benutzer-ID, den Public Key des Benutzers und den Namen des Spaces als verschlüsselte Nachricht an den TeamDrive Server. Die Nachricht wird mit dem Public Key des Servers verschlüsselt übertragen. Die Space Depot ID und das Passwort werden überprüft. Für die verschlüsselte Übertragung der Antwort wird der Public Key des Benutzers verwendet. Der TeamDrive Server erstellt einen neuen Space auf dem vorgegebenen Space Depot. Ein 128 Bit "Genehmigungscode" wird zufällig für den neuen Space erzeugt und an den Client zurückgesendet.

Für den Zugriff auf einen Space wird die entsprechende URL, ein Autorisierungscode und ein Space Datenschlüssel benötigt. In der URL ist die Adresse des Servers, über die das Space Depot mit dem Inhalt des Spaces angesprochen wird, sowie die Space ID, enthalten. Veränderungen in dem Space werden auf das Space Depot und in den Space hochgeladen bzw. heruntergeladen. Dabei werden HTTP PUT und POST Methoden verwendet. Bevor eine Datei den Client verlässt, wird diese komprimiert und mit dem 256-Bit AES Schlüssel verschlüsselt.

Um auf einen Space zuzugreifen, öffnet der TeamDrive Client eine Session mit dem Server. Darin wird zunächst die ID des Space, auf den der Zugriff stattfinden soll, übertragen. Der Server erzeugt nach erfolgreicher Prüfung eine neue Session ID mit einer 128-Bit Zufallszahl (RND) und sendet diese an den Client zurück, der hier lokal abgelegt wird. Für das Hochladen und Löschen von Daten verwendet der Client die RND und den Autorisierungscode des Space und verknüpft diese xor inkl. einer MD5 Operation auf dem Ergebnis. Das Ergebnis wird zusammen mit der Session ID und den verschlüsselten Daten an den Server geschickt.

Die Sicherheit eines Space Depot wird dadurch sichergestellt, dass nach jeder Anfrage ein zufälliger RND Wert zurückgesendet wird, die der Client jedes Mal für einen lokalen Wert neu berechnen muss. Zudem garantiert ein MD5 Hash, dass der Autorisierungscode des Space nicht abgeleitet werden kann. Auch dann wenn der RND und der lokale Wert auf der Client-Seite bekannt sind. Damit wird ebenfalls verhindert, dass ein Angreifer in eine Session eindringen kann, um Daten auf den Server hochzuladen.

Zusammenfassung

Die Datensicherheit in einem TeamDrive Space wird durch die Verschlüsselung der Daten mit einem 256-Bit AES Schlüssel sichergestellt. Dabei ist der Schlüssel nur den TeamDrive Clients bekannt die Mitglied eines Space sind. Anbieter von Storage-Services auf Basis von TeamDrive oder Systemadministratoren haben keinen Zugriff auf die Daten. Der Austausch der Space Autorisierungsschlüssel unter TeamDrive Nutzern erfolgt mit einem sicheren Public/Privat-Key Verfahren, welches selbst eine 256-Bit AES Verschlüsselung verwendet. Der Zugriff auf ein Space Depot bzw. einem Space wird mit einem 128-Bit Autorisierungscode geschützt. Mit dem Autorisierungscode wird verhindert, dass der Speicherplatz eines Space Depot bzw. eines Space von unautorisierten Dritten verwendet werden kann.

Neben der verschlüsselten Speicherung der Daten auf den Servern und den Clients, werden die Daten ebenfalls während der Übertragung immer komplett verschlüsselt, wodurch TeamDrive eine vollständige End-to-End Verschlüsselung der Daten gewährleistet.

Weiterhin ist zu erwähnen, dass TeamDrive von dem "Unabhängigen Landeszentrum für Datenschutz in Schleswig Holstein (ULD)" das Datenschutzgütesiegel erhalten hat. Die Prüfnummer lautet 2-3/2005. Darüber hinaus wurde TeamDrive im Mai 2013 von Gartner zum "Cool Vendor in Privacy" 2013 benannt.

ownCloud: Serverseitige Verschlüsselung

Bei ownCloud sucht man vergeblich nach öffentlichen Sicherheitsinformationen, die von ownCloud selbst zur Verfügung gestellt werden. Das verwundert ein wenig, da selbst in der ownCloud Community scheinbar viele offene Fragen [1], [2] hinsichtlich der Serverseitigen Verschlüsselung und der Verschlüsselung im Allgemeinen bestehen. Einzig ein Blog-Beitrag ist zu finden, in dem das grundsätzliche Verständnis von ownCloud zum Thema Sicherheit öffentlich dargestellt wird. Auf direkte Nachfrage bei ownCloud wurden jedoch anstandslos Fragen beantwortet und weitere Informationen zur Verfügung gestellt.

Verschlüsselungsverfahren

Für die Verschlüsselung der Daten setzt ownCloud 5.0 auf den Advanced Encryption Standard (AES) mit einem 256 Bit Schlüssel.

Der Sicherheitsblogger Pascal Junod hatte sich Anfang 2012 mit der Verschlüsselung von ownCloud 4.0 auseinandergesetzt. Die notwendigen Informationen sind in der OC_Crypt class zu finden. Junod hat in diesem Zusammenhang diese PHP Datei analysiert und entsprechende Informationen veröffentlicht. Demnach wird der Schlüssel in der mt_rand() PHP Routine generiert. Die den Mersenne Twister, einen Pseudozufallszahlengenerator, implementiert. Junod kommentiert, das es sich dabei nicht um eine kryptographisch gute Qualität handelt. Der generierte Schlüssel wird mit dem Benutzerpasswort in Verbindung mit dem symmetrischen Blockverschlüsselungsalgorithmus Blowfish im ECB Mode verschlüsselt und anschließend in der encryption.key gespeichert. Junod kommt zu der Schlussfolgerung, dass ein Angreifer im Besitz dieser Datei über die Brute-Force-Methode an das Passwort gelangen könnte. Er macht zudem darauf aufmerksam, dass dieser Schlüssel für die Verschlüsselung sämtlicher Daten eines Nutzers verwendet wird und dass die Daten serverseitig verschlüsselt werden. Er beschreibt weitere Möglichkeiten, um die encryption.key zu stehlen. So wird das Passwort, welches für die Verschlüsselung der Datei zuständig ist, in Klartext (einfaches HTTP) vom Client an den Server übertragen. Wird die Verbindung nicht mit HTTPS gesichert, ist jeder in der Lage die Kommunikation abzuhören und das Passwort zu stehlen und könnte somit auf den ownCloud Account und sämtliche Daten zugreifen. Weiterhin wird die encryption.key im Klartext in den Sitzungsdaten auf der Serverseite gespeichert. Die meiste Zeit im /tmp Verzeichnis. Das bedeutet, dass ein böswilliger ownCloud Serveradministrator in der Lage wäre, die Daten zu entschlüsseln. Zudem weißt Junod darauf hin, dass die Verschlüsselung serverseitig vorgenommen wird, wodurch ein Systemadministrator mutwillig die ownCloud Installation manipulieren könnte. Er empfiehlt daher ownCloud 4.0 niemals einzusetzen, um vertrauliche Informationen zu speichern.

ownCloud bestätigt in der Anfrage, dass ownCloud 5.0 selbst keine vollständig integrierte End-to-End Verschlüsselung in der Software implementiert hat. Dies kann jedoch mit Tools von Drittanbietern realisiert werden. Weiterhin wird Verschlüsselung "at rest" betrieben. Das bedeutet, dass die Daten physikalisch in verschlüsselter Form gespeichert werden. Die Verbindung zwischen den Endgeräten und dem Server wird mit SSL gesichert. Der Schlüsselaustausch erfolgt autorisiert über die Provisioning API. Ein umfangreiches Schlüsselmanagement soll in Zukunft folgen.

Systemarchitektur

ownCloud verfügt über ein Plugin für die serverseitige Verschlüsselung, mit der Administratoren die Daten verschlüsselt auf dem Server ablegen können. Nutzer erhalten Zugriff auf die Daten und können diese teilen, als seien sie unverschlüsselt. Das neue Plugin in ownCloud 5.0 ersetzt dabei die Sicherheitslücke in ownCloud 4.0, bei der ein böswilliger Systemadministrator die Sicherheitsarchitektur umgehen konnte, indem er Anpassungen am ownCloud Quellcode vornehmen konnte, um eine Backdoor oder einen Passwort Sniffer zu integrieren. Für die Verschlüsselung der Daten während der Übertragung vom Server zum Endgerät wird SSL verwendet. Das Passwort kann von einem Nutzer jederzeit geändert werden. Sämtliche Dateien werden anschließend mit dem neuen Passwort verschlüsselt.

Für eine serverseitige Sicherheit muss der Administrator die Verschlüsselungs-App in ownCloud der ownCloud Managementkonsole aktivieren und den Hacken „Verschlüsselung“ in der Admin-Oberfläche setzen. Anschließend wird ein Schlüsselpaar (Public/ Private) für alle Nutzer erstellt. Hierzu wird das Nutzerpasswort verwendet, um den privaten Schlüssel zu schützen. Darüber hinaus wird, für jede auf den Server hochgeladene Datei, ein symmetrisches Schlüsselpaar erstellt. Die von dem Nutzer hochgeladenen Daten werden mit dem symmetrischen Schlüssel verschlüsselt und gespeichert. Als Algorithmus wird der Advanced Encryption Standard (AES 256) verwendet. Der symmetrische Schlüssel wird mit dem privaten Schlüssel des Nutzers verschlüsselt und auf dem Server abgelegt. Werden die Daten von dem Server abgerufen, werden sie zunächst entschlüsselt und anschließend über eine SSL-Verbindung an den Client gesendet. Die Verschlüsselungsroutine verhält sich mit anderen, an ownCloud angebundenen Applikationen, wie der Web-Oberfläche, der Versionierung und dem Algorithmus für die Synchronisierung, exakt gleich. Ändert ein Nutzer sein Passwort, wird sein privater Schlüssel mit dem alten Passwort entschlüsselt und mit dem neuen Passwort erneut verschlüsselt.

Für den Nutzer gleicht eine auf den ownCloud Server hochgeladene und anschließend verschlüsselte Datei wie eine nicht verschlüsselte Datei. Die Verschlüsselung ist für ihn vollständig transparent. Wird eine Datei mit einem anderen Nutzer geteilt, werden die öffentlichen Schlüssel von jedem dieser Nutzer in der verschlüsselten Datei hinterlegt. Diese Nutzer können damit auf die Datei zugreifen und Änderungen an ihr vornehmen, als handelt es sich um eine unverschlüsselte Datei. Genauso verhält es sich mit einem Ordner. Nutzer können keine Dateien öffnen, die nicht für sie bestimmt sind. Sollte ein böswilliger Nutzer versuchen, Zugriff auf das Speicher-Backend zu nehmen, werden die Dateien und Schlüssel darin unlesbar.

Ist das entsprechende Plug-In aktiviert, ist ein Systemadministrator in der Lage, über die Kommandozeile, alle Dateien zu sehen, die auf ownCloud gespeichert sind. Allerdings sind die Inhalte der Dateien verschlüsselt. Es können weiterhin normale Backups vorgenommen werden, jedoch bleiben alle Dateien verschlüsselt. Selbst dann, wenn die Daten nach außerhalb des Systems kopiert werden. Ein Administrator kann zudem weitere Einstellungen vornehmen, um bestimmte Dateigrößen und -formate von der Verschlüsselung auszuschließen.

Zusammenfassung

Mit der Version 5.0 bietet ownCloud nun auch serverseitige Verschlüsselung der Daten an. Jedoch muss von einem Administrator dazu explizit ein Plug-In aktiviert werden, um Dateien mit AES 256 zu verschlüsseln. Verlässt eine Datei den ownCloud Server wird sie zunächst entschlüsselt und über eine SSL-Verbindung an den ownCloud-Client übertragen. Das bedeutet, dass eine vollständige End-to-End Verschlüsselung derzeit mit einfachen Bordmittel nicht zur Verfügung steht, was ownCloud selbst bestätigt.

Das ownCloud Encryption-Module wurde für den Einsatz innerhalb eines Unternehmens-Rechenzentrum, auf unternehmenseigenen Servern und unter der Verwaltung von vertrauensvollen Administratoren, entwickelt.

Empfehlung für das Management: TeamDrive vs. ownCloud

Der Vergleich von TeamDrive mit ownCloud stellt gewissermaßen auch einen kommerziellen einem Open-Source Ansatz gegenüber. Was hier jedoch ein wenig irritiert ist die Offenheit des kommerziellen Anbieters TeamDrive gegenüber ownCloud. Kommerzielle Anbieter werden oftmals kritisiert, wenig über ihre Sicherheitsarchitektur zu sprechen. In diesem Fall sehen wir genau das Gegenteil. Das mag bei ownCloud möglicherweise daran liegen, dass bisher nicht viel Sicherheit respektive Verschlüsselung implementiert war, über die man sprechen konnte. Erst mit der ownCloud Version 5.0 wurde ein Modul für die serverseitige Verschlüsselung implementiert. Dass allerdings Informations- aber insbesondere Sicherheitsbedarf besteht, zeigen die Fragen aus der ownCloud Community. Hier ist die ownCloud Community auch weiterhin gefordert, mehr öffentliche Informationen und Sicherheit einzufordern.

In diesem Zusammenhang macht der Inhalt des oben angesprochenen Blog-Artikels von ownCloud Sinn, der die grundlegende Sicherheitsphilosophie von ownCloud widerspiegelt. ownCloud sieht das Thema Verschlüsselung zwar als einen wichtigen Punkt an. Der Fokus sollte aber eher auf der Kontrolle der Daten liegen.

Sicherheit vs. Flexibilität

TeamDrive setzt auf einen vollständig integrierten Ansatz und bietet zudem eine End-to-End Verschlüsselung aller Daten, die vom Server zum Client des jeweiligen Endgeräts übertragen werden. Damit ermöglicht es TeamDrive trotz eines sehr hohen Anspruchs an das unbequeme Thema Sicherheit, die bequeme Nutzung eines Cloud-Storage Service. ownCloud entschlüsselt die Daten erst wenn diese vom Server geladen werden und überträgt sie in einer SSL-Verbindung. Die fehlenden Bordmittel zur End-to-End Verschlüsselung lassen sich mit externen Lösungen von Drittanbietern erreichen. Hier sollte jedoch bedacht werden, dass die Integration damit aufwändiger wird und ob ein Open-Source Ansatz speziell in diesem Fall noch Kostenvorteile bietet.

Verschwiegen werden darf nicht, dass ownCloud auf Grund seines Open-Source Ansatzes mehr Flexibilität bietet als TeamDrive und damit vollständig den eigenen Bedürfnissen nach an die eigene IT-Infrastruktur angepasst werden kann, wenn das erforderlich ist. Hinsichtlich der Sicherheit besteht bei ownCloud allerdings noch Nachholbedarf. Das hat zur Folge, dass die Lösung per se nicht den aktuellen Sicherheitsansprüchen von Unternehmen entspricht und daher nur bedingt zu empfehlen ist.

Am Ende muss die Entscheidung getroffen werden, ob ein Unternehmen einen kommerziellen und integrierten Ansatz inklusive Sicherheitsmechanismen anhand von Bordmittel erwartet oder eine Open-Source Software, für die weitere externe Sicherheitslösungen benötigt werden, die selbst zu integrieren sind. Wer eine All-in-One Lösung inklusive vollständiger End-to-End Verschlüsselung und damit gleichzeitig mehr Sicherheit sucht, sollte sich für TeamDrive entscheiden.



Boxcryptor veröffentlicht Technical Preview der kommenden Version

Boxcryptor, das deutsche Startup zur Verschlüsselung von Daten auf bekannten Cloud Storage Services wie Dropbox, Google Drive und Microsoft SkyDrive hat erste technische Informationen zur neuen Boxcryptor Generation bekanntgegeben, dessen offizieller Release noch in diesem Quartal erfolgen soll.

Boxcryptor in a Nutshell

BoxCryptor integriert sich in einen Cloud Storage und synchronisiert die Daten verschlüsselt. Dazu wird zum Beispiel einfach unter dem Dropbox Ordner ein neuer Ordner beliebigen Namens angelegt. In diesem werden anschließend die Dateien und weitere Ordner abgelegt, die mit dem AES-256 Standard verschlüsselt in der Dropbox abgelegt werden. Derzeit unterstützt BoxCryptor DropBox, Google Drive, SugarSync und Microsoft SkyDrive.

Auf Grund einer breiten Plattformunterstützung, darunter Windows, Mac, Linux, Android und iOS wird der Vorteil der Ortsunabhängigkeit der Cloud ausgenutzt und es kann plattformübergreifend auf die Daten zugegriffen werden.

Mehr unter BoxCryptor: Datenverschlüsselung für Dropbox, Google Drive & Co.

Neuigkeiten der Technical Preview

Die offizielle neue Boxcryptor Version beinhaltet ein neues Schlüsselmanagement und einfachere und bessere Kollaborationsmöglichkeiten insbesondere für Teams im Geschäftsumfeld. Zu nennen sind u.a. die Festlegung von Richtlinien und eine zentralisierte Verwaltung. Aber auch private Nutzer können mit der neuen Version Zugriff auf verschlüsselte Dateien freigeben, ohne dem Partner das eigene Passwort mitteilen zu müssen. Die Verschlüsselung in der neuen Boxcryptor Version beruht dann auf RSA (4096 bit) und AES (256 bit).

Folgende Features sind bereits in der Technical Preview für Windows vorhanden:

  • Sichere Zugriffsfreigabe: Das private Boxcryptor Passwort muss nicht mehr geteilt werden, um geteilte Dateien entschlüsseln zu können. Das private Passwort bleibt immer geheim und wird niemals übertragen. Wichtig hierbei: Boxcryptor hat auch nach wie vor zero knowledge.
  • Einfacherer Zugriff auf Dateien: Es gibt keinen speziellen Boxcryptor Ordner und mehrere Laufwerke mehr wie in den 1.x Versionen. Vielmehr gibt es nur noch ein Boxcryptor Laufwerk über das auf alle verschlüsselten Ordner zugegriffen werden kann.
  • Gruppenfunktion: Mit der Gruppenfunktion kann schnell und einfach der Zugriff auf Dateien für eine Gruppe ermöglicht werden. Des weiteren können Gruppen auch neu erstellt werden bzw. Gruppenmitglieder hinzugefügt und entfernt werden. Diese Funktion wird es später allerdings nur in der Business-Version geben.

Auch für Android ist eine erste Technical Preview verfügbar. Diese beinhaltet allerdings nur Grundfunktionen wie den Up- und Download zu Dropbox (hier können auch mehrere Konten parallel eingerichtet werden) sowie die lokale Speicherung auf dem Gerät selbst.

Kommentar

Boxcryptor gehört zu den wenigen deutschen Startups im Cloud Computing Markt, bei denen man von einer echten Innovation sprechen kann. Was Robert Freudenreich und sein Team mit ihrer Lösung bisher auf die Beine gestellt haben, trifft genau die Sorgen und Bedürfnisse der Anwender, um Daten unabhängig verschlüsselt von einem Cloud Anbieter in dessen Cloud Storage zu speichern. Boxcryptor schafft damit einen echten Mehrwert im Bereich der Cloud Storage Services, was meiner Einschätzung nach dazu führen wird, dass die ersten Übernahmeangebote nicht mehr lange auf sich warten lassen.



Die Cloud überlebt sämtliche Speichermedien

Ich habe eine interessante Infographik gefunden, die zeigt, dass die Cloud sämtliche Speichermedien überleben wird. Die Graphik veranschaulicht sehr gut, wie lange die Daten auf einer bestimmten Speichertechnologie sicher abgelegt werden können, bis auf diese nicht mehr zugegriffen werden kann oder wann ein Wechsel auf eine andere Technologie erforderlich ist.

Die Cloud überlebt sämtliche Speichermedien

Die Cloud Anbieter sorgen für das Überleben der Daten

Die Graphik konzentriert sich auf die Lebensdauer eines bestimmten Speichermediums, abhängig von der Nutzung. Eine oft benutzte CD wird natürlich nicht so lange eingesetzt werden können als eine, auf die einmalig Daten kopiert wurden und die anschließend vorsichtig behandelt wird. Hierbei sollte man aber auch nicht den Lebenszyklus einer Technologie vergessen. Nach einem bestimmten Zeitraum, auch abhängig davon wie erfolgreich die Technologie ist, kann diese eingestellt und nicht weiter unterstützt werden. Was passiert dann?

Ein weiteres nicht zu unterschätzendes Risiko sind die Dateiformate und deren Abwärtskompatibilität. So ändern z.B. Anbieter wie Microsoft regelmäßig ihre Office-Datenformate (z.B. .doc > .docx), die dann nur von der aktuellen Office Version bestmöglich unterstützt werden. Mir sind zudem Erfahrungen bekannt, wo sich Excel 97 Tabellen zwar mit Office 2000 öffnen ließen, sämtliche Formatierungen und Formeln aber nicht mehr korrekt dargestellt wurden. Fatal waren die Probleme mit den Formeln, da diese auf den ersten Blick richtig waren. Erst auf dem zweiten Blick wurde deutlich, dass sämtliche Ergebnisse falsch berechnet wurden.

An dieser Stelle helfen Software-as-a-Service (SaaS) Lösungen, indem die Daten in dem Service gespeichert werden und der Anbieter Anspassungen an der Software regelmäßig vornimmt und die "internen" Datenformate ebenfalls selbst anpasst, ohne dass der Nutzer davon betroffen ist. Das trifft natürlich nur dann zu, wenn der Cloud Speicher auch über eigene Office Lösungen verfügt, die in den Storage integriert sind, wie z.B. Google Apps, Zoho oder Office 365.

Werden Daten in der Cloud gespeichert, muss man sich als Unternehmen nicht um die darunterliegende Speichertechnologie kümmern. Der Anbieter stellt den Speicherplatz als Service bereit und sorgt dafür, dass die Technologie den aktuellen Standards entspricht. Die Sorge um die Technologieunterstützung wandert demnach vom Unternehmen hin zum Anbieter.

Alte vs. Neue Welt

Ein gutes Beispiel für eine disruptive Technologie innerhalb des schon sehr disruptiven Cloud Computing ist der erst kürzlich von Amazon veröffentlichte Service Amazon Glacier. Dabei handelt es sich um einen Cloud Service für die Datenarchivierung bzw. für das Langzeit-Backup. Glacier soll Unternehmen dazu bewegen, ihre Tape Libraries aufzugeben und die Daten stattdessen kostengünstig in die Cloud zu verlagern.

AWS beschreibt Amazon Glacier als einen kostengünstigen Storage Service, der dafür entwickelt wurde, um Daten dauerhaft zu speichern. Zum Beispiel für die Datenarchivierung bzw, die Datensicherung. Der Speicher ist, entsprechend der aktuellen Marktsituation, sehr günstig. Kleine Datenmengen können ab 0,01 US-Dollar pro GB pro Monat gesichert werden. Um den Speicher so kostengünstig anzubieten, ist der Service, im Vergleich zu Amazon S3, für solche Daten gedacht, auf die selten zugegriffen wird und deren Zugriffszeit mehrere Stunden betragen darf.

Daten in Amazon Glacier werden als ein Archive gespeichert. Dabei kann ein Archiv aus einer einzigen oder mehreren einzelnen zusammengefassten Dateien bestehen, die in einem sogenannten Tresor organisiert werden können. Der Zugriff auf einen Tresor kann über den AWS Identity and Access Management-Service (IAM) gesteuert werden. Um ein Archiv von Glacier zu laden, ist ein Auftrag erforderlich. Die Bearbeitung so eines Auftrags benötigt, laut Amazon, in der Regel zwischen 3,5 bis 4,5 Stunden.

Anstatt auf gewohnte Speichersysteme, verlässt sich Amazon Glacier auf kostengünstige Commodity Hardware. (Der ursprüngliche Ansatz, Cloud Computing kostengünstig anzubieten.) Für eine hohe Datenredundanz besteht das System aus einer sehr großen Menge von Speicher-Arrays, die sich aus einer Vielzahl von kostengünstigen Festplatten zusammensetzen.

Dann bekomme ich aber auch Meldungen wie Folgende zugeschickt, die zeigen, dass die "Alte Welt" den Kampf noch nicht aufgegeben hat.

"Anbieter" hat die Speicherdichte und Energieeffizienz seiner xyz-Appliances deutlich erhöht und verfügt nun über die effizienteste Enterprise-Disk-Backup- und Deduplizierungslösung am Markt. Die xyz bietet nun 3 TB-Festplatten und damit eine 50 Prozent höhere Speicherdichte, 42 Prozent niedrigeren Energieverbrauch und 25 Prozent höhere Performance. Verglichen mit Wettbewerbsprodukten beansprucht die xyz die kleinste Stellfläche bei gleichzeitig höchstem Mehrwert.

Neben der Verschlüsselung von ruhenden Daten (Data-at-rest) in der xyz, hat "Anbieter" sowohl die Produktfamilie der xyz-Serie als auch die "Produkt" Tape Libraries mit zusätzlichen Security-Erweiterungen ausgestattet. Diese zahlreichen Updates helfen die Datensicherungseffizienz in Unternehmen zu erhöhen und gleichzeitig den immer anspruchsvolleren Service Level Agreements (SLAs) und Sicherheitsbedürfnissen gerecht zu werden.

Die Cloud macht Speichermedien überflüssig

Es gab Zeiten, in denen Unternehmen sich darüber Gedanken machen mussten, welche Speichertechnologie sie einsetzen sollten, um Daten über einen langen Zeitraum sicher zu archivieren. Es ist sehr leicht zu argumentieren, "Schieb einfach alles in die Cloud, da läuft's schon.". So ist das natürlich nicht. Aber Cloud Anbieter können hier definitiv helfen, indem sie die darunter liegenden Speichertechnologien bei Bedarf austauschen, ohne dass der Kunde etwas davon mitbekommt. Vor allem die Anbieter der "Alten Welt" sollten sich darüber Gedanken machen, wie sie ihren Kunden diese on-Premise Sorgen nehmen können und sich den Ideen aus der "Neuen Welt" annehmen.

Ich kenne bspw. ein Unternehmen, dass einen Mitarbeiter, der eigentlich schon in Rente sein sollte, beschäftigt, da er der Einzige ist, der das Wissen über eine spezielle Magnetband Technologie besitzt. Dies ist dem Umstand der Aufbewahrungsfristen geschuldet. Erst wenn die Frist abgelaufen ist, darf dieser Mitarbeiter in seinen Wohl verdienten Ruhestand gehen.


Quelle: http://www.thecloudinfographic.com



Unhosted.org – Unsere Daten gehören uns!

In Zeiten der Cloud, Social Media und weiteren Technologien und neuen Konzepten, bei denen es darum geht, Daten zentral bei einem Anbieter zu speichern, um damit bequem von jedem Ort darauf zugreifen zu können oder mit Freunden weltweit zu kommunizieren, entwickelt sich eine Community, die selbst für den Datenschutz sorgen möchte und ihr wertvolles gut nicht in die Hände kommerzieller und vermeintlich böser Unternehmen wie Google, Facebook oder der Cloud Computing Anbieter legen will.

Datensensibilität nur von Nerds und Geeks?

Nachdem Unternehmen insbesondere beim Cloud Computing aber auch beim Thema Social Media den Datenschutz der Anbieter beklagen – Patriot Act usw. - gehen die vermeintlichen Endanwender doch eher sehr sorglos mit ihren persönlichen Daten um, siehe Facebook. Allerdings scheint sich das Blatt ein wenig zu wenden. Vor kurzem konnte ich im Zug ein Gespräch zweier Jugendlicher mithören, die über das „... jemand Wissen kann wo man sich selbst gerade aufhält.“, also GEO-Location Services wie Foursquare etc. diskutierten. Sie hielten es für sehr kritisch und gefährlich, wenn jemand ständig sehen könnte wo man gerade ist und wo man wohnt. Ich dachte nur: „Aber ein iPhone besitzen...“. ;)

Es stellt sich daher die Frage, wie sensibel die Nutzer heutzutage wirklich mit ihrem wertvollsten gut, der Persönlichkeit umgehen – man bedenke: Wenn Du von jemanden etwas kostenlos bekommst, bist Du am Ende das Produkt. Ich weiß nicht, ob sich viele darüber im Klaren sind. Wenn man jedoch schaut, was viele täglich in Facebook posten, bin ich mir da nicht so sicher. Und auch das was Google mittlerweile über jeden einzelnen weiß – natürlich werden die gesammelten Daten nicht verknüpft... - sollte für diejenigen bedenklich sein, die das Internet nicht dafür nutzen, um ihr öffentliches Profil zu schärfen.

Aber ist es überhaupt möglich auf die Datenhaltung bei Google und Facebook Einfluss zu nehmen? Natürlich nicht, schließlich handelt es sich dabei zum größten Teil um deren Geschäftsmodell, aber...

Die Community: Unhosted.org

Es hat sich eine, derzeit noch kleine, Bewegung gebildet, die das Ziel verfolgt, freie Software gegenüber gehosteter Software zu stärken. Dazu hat die Gemeinschaft bereits ein Protokoll erstellt, mit dem eine Webseite nur aus Quellecode besteht. Dabei werden die sich ständig verändernde Daten dezentral auf eines vom Nutzer gewünschten Storage gespeichert. Die Community erhofft sich dadurch geringere Hostingkosten sowie eine verbesserte Skalierbarkeit, Robustheit und einen höheren Datenschutz.

Alles erinnert ein wenig an Asterix und das kleine gallische Dorf.

Im Kern geht es dem Projekt darum, dass Web Applikationen nicht zwangsläufig auch die Daten des Nutzers beherrschen müssen, sondern dass die Daten getrennt von den Anwendungen gespeichert werden.

Die Technologie: Remote Storage

Hierfür hat Unhosted.org ein Protokoll mit dem Namen "remoteStorage" entwickelt, dass die bereits bestehenden Protokolle HTTP, CORS, OAuth2 und Webfinger kombiniert. Dazu liefert das Projekt mit remoteStorage.js eine JavaScript Bibliothek und ein Tutorial.

Auf Basis des Remote Storage Protokoll wurden mit Libre Docs, OpenTabs.net und SharedStuff bereits kleine Anwendungen entwickelt.

Um die Applikationen nutzen zu können, wird eine ID eines Remote Storage kompatiblen Anbieters benötigt. Zurzeit haben sich mit Pagekite, OwnCube und 5apps drei am Markt eher unbekannte Anbieter der Initiative angeschlossen. Die ID bzw. der Account bei einem der Anbieter wird dafür benötigt, um die eigenen Daten bei diesem zu speichern.

Stellt man sich das bspw. anhand von Facebook vor, würde man sich bei Facebook mit seiner Remote Storage ID anmelden. Postet man nun ein Bild oder kommentiert einen Beitrag, werden die Daten nicht bei Facebook gespeichert, sondern bei dem entsprechenden Remote Storage Anbieter für den man sich entschieden hat.

Sei Dein eigener Storage Anbieter

Natürlich kann man auch sein eigener Storage Anbieter sein. Dazu wird eine Installation von ownCloud benötigt, die das Remote Storage Protokoll unterstützt. Davon rate ich jedoch ab. Warum, habe ich hier beschrieben.

Daten selbst verwalten? Ja! Aber bitte so bequem wie möglich!

Den Grundgedanken des Projekts finde ich recht interessant. Jedoch sehe ich für den gewöhnlichen und nicht IT-affinen Benutzer riesige Probleme damit, den Überblick zu behalten, wo sich die Daten gerade befinden. Wenn ich bei Facebook oder Google bin, weiß ich, dass die Daten dort "gut" aufgehoben sind. Wird ein weiterer Anbieter dazwischen geschaltet, wird es unübersichtlich.

Hinzu kommt zwar, dass die Daten von der eigentlichen Applikation getrennt sind, allerdings begebe ich mich hier in die Abhängigkeit von einem der RemoteStorage Anbieter. Ich habe daher nicht die Wahl, außer ich spiele selbst den Storage Anbieter, wovon ich dringend abrate.

Vertrauen ist die Grundlage

Wenn es um das Speichern persönlicher Daten und die Cloud geht, spielt das Thema Vertrauen und Transparenz eine große Rolle. Anbieter wie Google und Facebook haben eine große Wahrnehmung, auch wenn diese nicht immer positiv ist. Dennoch Vertrauen die Nutzer ihnen ihre Daten an, da sie sich sicher sind und sein können, das die Daten dort aus dem Blickwinkel der Datensicherheit gut aufgehoben sind. Genau so verhält es sich mit Amazon S3, Dropbox oder anderen bekannten Cloud Storage Anbietern, die über ausgereifte Infrastrukturen verfügen, die sich bewährt haben.

Anders sieht es mit den Anbietern aus, die sich dem Projekt angeschlossen haben. Allesamt unbekannt! Warum soll ich meine Daten also in die Hände von diesen (derzeit) No Name Anbietern geben, deren Infrastruktur ich nicht kenne? Aber vielleicht schafft es das Projekt, für die Zukunft renommierte Anbieter zu gewinnen, die das Remote Storage Protokoll unterstützen.

BTW: 5apps, einer der Remote Storage Anbieter, steckt hinter dem Unhosted.org Projekt... Alles klar?!


Bildquelle: http://imageshack.us



Google Drive ist auch für Google Apps Nutzer verfügbar. Preise sind erheblich teurer.

Google Drive steht ab sofort auch für Google Apps Kunden zur Verfügung. Somit steigt Google mitGoogle Drive for Google Apps auch in den Cloud Storage Markt für Unternehmen ein. Wie generell von Unternehmensangeboten bekannt, weichen die Google Drive Preise für Google Apps Kunden deutlich von den Preisen für Privatkunden ab.

Google Drive ist auch für Google Apps Nutzer verfügbar. Preise sind erheblich teurer.

Google Drive for Google Apps bietet zunächst die grundlegenden Funktionen wie das Standard Google Drive. Da sich Google Apps jedoch ausschließlich auf Unternehmen und Organisationen konzentriert, wird für Google Drive for Google Apps die Infrastruktur genutzt, der auch alle anderen Google Apps Services zu Grund liegt. Das bedeutet, dass Google Drive vollständig in die Google Apps Domain integriert ist und dem Administrator somit neue Tools für ein zentralisiertes Management des Cloud Storage zur Verfügung stehen, mit dem er Speicherplatz für einzelne Benutzer oder Teams hinzufügen oder entfernen kann.

Zudem wird der Zugriff auf Google Drive innerhalb der Google Apps Infrastruktur verschlüsselt und kann optional mit einer 2 Wege Authentifizierung abgesichert werden. Zusätzlich garantiert Google eine Verfügbarkeit von 99.9% sowie einen 24/7 Support.

Über den Chrome Web Store für Google Apps stehen viele Tools von Drittanbietern bereit, die direkt auf die Daten in Google Drive zugreifen können. Darunter DocuSign, HelloFax, Lucidchart und Smartsheet.

Die Preise für Google Drive for Google Apps

Wie bei Google Drive für Privatkunden erhält auch jeder Google Apps Nutzer 5GB kostenlosen Speicherplatz. Dieser kann ebenfalls mit weiteren Speicheroptionen erweitert werden. Auch hier unterteilt Google den möglichen nutzbaren Speicherplatz in neun Kapazitätsstufen, die sich preislich jedoch erheblich von denen für den Privatkunden unterscheiden. Ein weiterer Unterschied sind die Staffelungen. Google Drive for Google Apps beginnt bei 20GB und bietet als zweite Erweiterung 50GB. Das Standard Google Drive beginnt hingegen bei 25GB gefolgt von 100GB.

Google Drive ist auch für Google Apps Nutzer verfügbar. Preise sind erheblich teurer.

Die kleinste Erweiterung (20GB) für Google Drive for Google Apps kostet 4,00 US-Dollar pro Monat, die Größte (16TB) 1.430,00 US-Dollar pro Monat. Bei Google Drive für Privatkunden sind es hingegen 25GB für 2,49 US-Dollar pro Monat bzw. 16TB für 799,99 US-Dollar pro Monat.

Derzeit sind Nutzer von Google Apps for Education und Google Apps for Government noch nicht in der Lage für Google Drive zentral weiteren Speicher bereitzustellen bzw. diesen zu verwalten.



Red Hat Storage 2.0 Beta steht bereit

Ab sofort steht eine Betaversion von Red Hat Storage 2.0 bereit. Die reine Softwarelösung bietet Funktionen zur Vereinheitlichung von Datenspeicherung und Infrastrukturen, eine höhere Performance, eine bessere Verfügbarkeit und eine einfachere Verwaltung großer Datenvolumen.

Red Hat Storage 2.0 Beta steht bereit

Red Hat Storage 2.0 ermöglicht eine Zusammenführung von File Storage und Object Storage und ist mit Apache Hadoop kompatibel. Diese Funktionalität sorgt für einen schnelleren Datenzugriff und sie öffnet Hadoop-Implementierungen für datei- oder objektbasierte-Applikationen.

Zum Funktionsumfang der Red Hat Storage 2.0 gehören ein einheitlicher Zugriff auf Dateien und Objekte innerhalb eines zentralen Storage Pools, eine Storage Infrastruktur speziell für Big Data mit einer Apache Hadoop Unterstützung, eine Performance Optimierung auf Basis von NFSv3, Integrationsmöglichkeiten mit der Red Hat Enterprise Virtualization, einen Network Lock Manager (NLM) sowie u.a. proaktive Funktionen zur Selbstheilung, um damit die Zuverlässigkeit zu erhöhen.

Weitere Infos gibt es im Red Hat Blog.



JungleDisk

JungleDisk ist das Cloud Storage Angebot von Rackspace Cloud. Dabei handelt es sich im Prinzip um eine Schicht (Applikation) zwischen dem Benutzer bzw. dem lokalen PC/Server und dem Speicherdienst Amazon S3 oder dem von Rackspace.

Die Daten können bei Amazon S3 dabei wahlweise in den USA oder Europa gespeichert werden, was sich in den Preisen und der Geschwindigkeit (Latenz/ Laufzeiten) wiederspiegelt. Die Preise der jeweiligen Angebote setzen sich aus einer festen Grundgebühr (in USD) plus dem tatsächlich genutzen Speicherplatz auf S3 zusammen. Der genutzte Speicherplatz wird dabei mit den bekannten Gebühren von Amazon S3 verrechnet. In diesem Fall ist daher auch ein Amazon AWS Account erforderlich. Man bezahlt also hier - abgesehen von der Grundgebühr - nur für den Speicherplatz, der auch wirklich genutzt wird.

Die Abbrechnung erfolgt vollständig über Amazon. Man erhält am Anfang des Monats eine Rechnung von Amazon über die Grundgebühr der JungleDisk. Die Rechnung über den genutzen Speicherplatzverbrauch findet über den Amazon AWS Account statt.

JungleDisk stellt als einer der wenigen Anbieter für die drei großen Betriebssysteme Windows, Linux und MAC native Clients zur Verfügung. Weiterhin kann der Zugriff auf die gespeicherten Daten mittels einer Weboberfläche oder des iPhones stattfinden.

Die Datenübertragung und die Daten selber sind mit einer 256 bit AES Verschlüsselung gesichert. Zusätzlich können die Buckets auf Amazon S3 mit einem weiteren Passwort geschützt werden.

JungleDisk ist, wie es auf dem ersten Blick erscheint kein reines Tools für das Backup in der Cloud. Daten können ebenfalls damit über mehrere Rechner synchronisiert werden, was die Kollaboration verbessert.

Im Folgenden werden die vier Angebote der JungleDisk, die sich in die Bereiche Business und Personal unterteilen, vorgestellt.


Business Class

Die Business Class besteht aus der Workgroup Edition und der Server Edition. Dabei ist die Workgroup Edition auf Desktop PCs von kleinen bis mittleren Unternehmen ausgerichtet, mit der Backups erstellt, sowie Daten ausgetauscht und synchronisiert werden können. Die Server Edition dient zum Backup eines Servers und verfügt über Möglichkeiten das System per Fernwartung zu verwalten.

Workgroup Edition

Mit der Workgroup Edition können Daten mittels "Master Accounts" zwischen mehreren Benutzer ausgetauscht und synchronisiert werden. Dabei werden Teamgrößen von 2 - 100 Mitgliedern unterstützt. Die Benutzer können damit auf einfache Weise miteinander zusammenarbeiten und haben Zugriff auf ihre Daten auch dann, wenn Sie gerade nicht mit dem Internet verbunden sind. Wenn eine Internerverbindung wieder vorhanden ist, werden automatische alle Änderungen mit der Cloud synchronisiert. Der Zugriff auf die Daten kann ebenfalls über eine Weboberfläche oder ein iPhone erfolgen. Zudem steht eine protable Version zur Verfügung, die von einem USB-Stick ausgeführt werden kann. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 4 USD pro Benutzer pro Monat + Gebühren von Amazon S3 (siehe unten)

Server Edition

Die Server Edition richtet sich an Windows und Linux Server. Mit ihr stehen im Prinzip unbegrenzte Speicherkapazitäten für Backups in der Cloud zur Verfügung. Die Abbrechnung erfolgt hier nach dem pay per use Modell, es entstehen also nur Kosten für den tatsächlich genutzten Speicherplatz.

Zur Verwaltung der Backups stehen Tools für Windows, Linux und Mac Clients zur Verfügung, die auch parallel auf unterschiedlichen Maschinen genutzt werden können. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt. Weitere Funktionen sind erweiterte Kompressionsmechanismen und die Möglichkeit der Deduplication.

Preise

  • 5 USD pro Server pro Monat + Gebühren von Amazon S3 (siehe unten)


Personal

Die Angebote aus dem Bereich Personal setzen sich aus dem Simply Backup und der Desktop Edition zusammen. Bei dem Simply Backup handelt es sich lediglich um die Möglichkeit automatisierter Backups, wobei die Desktop Edition Elemente der Workgroup Edition beinhaltet.

Simply Backup

Mit Simply Backup können die Daten auf einem Rechner zeitgesteuert und automatisiert auf Amazon S3 oder Rackspace gesichert und im Fehlerfall z.B. von der letzten Nacht oder der letzten Woche wiederhergestellt werden. Clients sind für Windows und Mac OS vorhanden. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 2 USD pro Monat + Gebühren von Amazon S3 (siehe unten)

Desktop Edition

Die Desktop Edition beinhaltet alle Funktionen des Simply Backup und bietet darüber hinaus die Möglichkeit die JungleDisk wie eine lokale Festplatte (als Netzlaufwerk) auf dem Computer einzubinden. Somit kann direkt von und auf diesem Netzlaufwerk gearbeitet werden. Weiterhin können ausgewählte Ordner mit der JungleDisk synchronisiert werden. Damit hat man die Möglichkeit seine Daten über mehrere Rechner hinweg zu synchronisieren, da sich die Daten zentral in der JungleDisk befinden und mit dem lokalen Rechner abgeglichen werden. Somit stehen auf jedem Rechner und an jedem Ort (vorausgesetzt eine Internetverbindung ist vorhanden) immer die aktuellen Daten zur Verfügung. Der Zugriff auf die Daten kann aber auch dann erfolgen, wenn gerade keine Internetverbindung vorhanden ist, da die Daten ebenfalls lokal gespeichert werden. Ist die Internerverbindung wieder vorhanden, werden automatische alle Änderungen mit der Cloud synchronisiert. Der Zugriff auf die Daten kann ebenfalls über eine Weboberfläche oder ein iPhone erfolgen. Es stehen Clients für Windows, Mac OS und Linux zur Verfügung. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 3 USD pro Monat + Gebühren von Amazon S3 (siehe unten)


Screenshots

Konfigurationsmenü

Auswählen der Dateien für das Backup

Backupvorgang

Activity Monitor

Wiederherstellen von Dateien

Verbindung zu einem Server herstellen


Amazon S3 Gebühren


Quelle



CloudBerry Backup

Das CloudBerry Online Backup ist ein Tool zum Erstellen und Wiederherstellen von Backups für Windows Betriebssysteme. Die Daten werden dazu in der Cloud von Amazon genauer auf Amazon S3 abgelegt, wodurch sie jederzeit und unabhängig zur Verfügung stehen.

Mit einem Wizard können Backups und Restores der Daten verschlüsselt erstellt werden um die Daten vor unberechtigten Zugriff zu schützen. Mit Hilfe einer Terminplanung können zeitgesteuerte Backups erstellt und jederzeit, rund um die Uhr, wiederhergestellt werden.

Auf Grund der bekannten Windows Oberfläche kann ein Backup/Restore ohne großen Aufwand vorgenommen werden. Ein weitere interessanter Aspekt ist die Ablage der Daten in der Amazon Cloud. Es wird kein CloudBerry proprietäres Format verwendet. Dadurch kann anschließend mit jedem beliebigen Amazon S3 Tool auf die Daten zugegriffen werden und ein Vendor Lock-in wird damit vermieden.

Funktionsübersicht

  • Backup Wizard
    Der Backup Wizard wird benötigt um Backups zu erstellen und zu konfigurieren. Dabei werden die Ordner und Dateien einem Backup Vorgang hinzugefügt, sowie die Art der Kompression und der Verschlüsselung konfiguriert. Des Weiteren wird damit die Vorhaltezeit des Backups und die Zeit wann das Backup durchgeführt werden soll festgelegt. Beim ersten Start müssen dazu der Amazon S3 Account, die Security Keys und ein Bucket angegeben werden, in welchem das Backup abgelegt werden soll. Wird kein Bucket angegeben, erzeugt CloudBerry Backup automatisch einen Neuen.
  • Backup Plans
    Im Bereich Backup Plans erhält man einen Überblick über die aktuell konfigurierten Backup-Jobs. Diese können hier überwacht, angehalten oder gestoppt werden. Der "Storage Capacity Monitor" zeigt, wieviel Speicherplatz aktuell für das Backup genutzt wird.
  • Storage Browser
    Mit dem Storage Browser erhält man einen Einblick in seine Backups. Hier kann nach Dateien und deren Versionsständen gesucht werden. Darüber hinaus dient der Storage Browser für das Wiederherstellen von einzelnen oder mehreren Dateien.
  • Restore Wizard
    Mit dem Restore Wizard werden einzelne Dateien oder ein gesamtes Backup wiederhergestellt.
  • Windows Home Server Plugin
    CloudBerry Backup kann über ein Plugin vollständig in die Windows Home Server Console integriert werden um ein Backup der Daten eines Windows home Servers auf Amazon S3 zu speichern.
  • Funktionen

    • Zeitgesteuerte Backups
    • Verschlüsselung der Daten
    • Versionierung der Daten
    • Differenzielles Backup
    • Wiederherstellung der Daten von einem bestimmten Zeitpunkt
    • Verifizierung des Backups
    • Erweitern des Backups mit eigenen Routinen
    • Unterstützung der C# API
    • Paralleler Datentransfer
    • Zeitplanung unabhängig vom Windows Task Planer

    Kommende Funktionen

    • Block Level backup und Restore
    • Virtual Disk - Einbinden des Amazon S3 Speicher als lokale Festplatte
    • Speicherkosten mittels http://cloudsplit.com verringern
    • Web Interface für den Zugriff auf die Daten von jedem beliebigen Ort
    • FTP Unterstützung
    • Nirvanix Storage Delivery Network Unterstützung
    • Microsoft Azure Blob Storage Unterstützung
    • Sun Cloud Storage Service Unterstützung
    • EMC Atmos Unterstützung

    Systemvoraussetzungen

    • Windows XP/2003/Vista/2008/Windows 7 (32 und 64 bit)
    • Microsoft .NET Framework 2.0
    • Amazon S3 Account

    Preise etc.

    • 29,99 $ pro Lizenz inkl. einem Jahr Support
    • Der Support für die nachfolgenden Jahre beträgt 20% des ursprünglichen Preis
    • Mengenrabatte sind erhältlich
    • Partner und Affiliate-Programm ist vorhanden
    • Für Blogger, Schulen und Non-Profit Organisationen ist CloudBerry Backup kostenlos

    Quelle

    CloudBerry Backup



    20 Cloud Infrastruktur Anbieter

    Cloud Infrastrukturen sind einfach zu nutzen und lassen sich gut in bestehende Infrastrukturen integrieren. Dazu überzeugen sie durch Kosteneinsparungen, einfaches Bereitstellen weiterer Serversysteme etc., sowie einem guten Monitoring und Verwalten von Anwendungen innerhalb der Cloud.

    Dieser Artikel stellt 20 Cloud Infrastruktur Anbieter und ihre Produkte vor.

    1. AllenPort
    AllenPort verfügt über eine hybride SaaS Technologie. Dabei wird ein klassisches Microsoft Windows Netzwerk repliziert, was es ermöglicht, einem Benutzer unabhängig von seinem Arbeitsplatz sämtliche Daten und Anwendungen wie z.B. Microsoft Word bereitzustellen. Zu den weiteren Funktionen gehören Backup, Austausch von Dateien, Systemwiederherstellung und Remote Access.

    Webseite: http://www.allenport.com

    2. AppZero
    AppZero stellt sogenannte Virtual Application Appliances bereit, die unabhängig vom Betriebssystem und der darunterliegenden Infrastruktur ausgeführt werden können. Es handelt sich dabei um ein eigenständiges Objekt, das eine Anwendung inkl. aller Abhängigkeiten wie ausführbare Bibliotheken, Dateien, Registrierung, Konfigurationen, und die Netzwerkidentität beinhaltet.

    Webseite: http://www.appzero.com

    3. Boomi
    Boomi verbindet mit seiner AtomSphere jede Kombination von Cloud und selbst gehosteter Anwendung ohne dafür eine Appliance oder Software zu benutzen.

    Webseite: http://www.boomi.com

    4. CA
    CA verfügt über zahlreiche Cloud basierte Tools für das Netzwerk- und Systemanagement. Unter anderem stehen Lösungen für den automatisierten Rechenzentrumsbetrieb sowie Regel basierter Optimierungsvorgänge. Eine weitere Funktion ihres "Spectrum Automation Manger" sind die Verwaltung des Netzwerks- und Systemtraffics für Public und Private Cloud Umgebungen.

    Webseite: http://www.ca.com

    5. Cast Iron Systems
    Cast Iron Systems stellt Lösungen zur Integration von SaaS Anwendungen mit selbst gehosteten Anwendungen/ Systeme für Unternehmen bereit. SaaS Anbieter sollen ihren Kunden damit eine schnelle Migration, sowie vollständig integrierte Services anbieten können.

    Webseite: http://www.castiron.com

    6. Citrix
    Citrix Cloud Center (C3) verknüpft die Virtualisierung mit den Netzwerkprodukten. Sie stellt Cloud Anbietern eine virtuelle Infrastruktur Plattform für das Hosting von Cloud Services bereit. Die Architektur der Plattform besteht aus fünf Schlüsselkomponenten: Citrix XenServer, Anwendungen und Desktop Tools via Citrix XenApp, Bereitstellung mittels Citrix NetScaler, Bridging mittels Citrix Repeater und die Orchestrierung mit dem Citrix Workflow Studio.

    Webseite: http://www.citrix.com

    7. Elastra
    Elastra entwickelt Software mit dem Unternehmen ihre Anwendungsinfrastruktur automatisch modellieren, bereitstellen und mit Richtlinien ausstatten können. Mit dem Enterprise Cloud Server dient der Verwaltung und Bereitstellung von komplexen Systemen. Anwender haben die Möglichkeit ihre Anwendungsinfrastruktur schnell zu modellieren und bereitzustellen sowie automatische Änderungen am Deployment-Prozess vornehmen und interne und externe virtuelle Ressourcen on-Demand für ihre eigene IT zu nutzen.

    Webseite: http://www.elastra.com

    8. EMC
    Atmos und Atmos onLine sind EMCs Cloud Produkte für skalierbare, elastische und kostensparende Anwendungen und Services auf Basis von Virtualisierungtechnologien. Bei Atmos onLine handelt es sich um einen Cloud Storage Service mit dem große Datenmengen hochverfügbar verwaltet und bewegt werden können.

    Webseite: http://www.emc.com

    9. IBM
    IBM stellt mit seinen Cloud Produkten eine Kombination aus Services und Systemen für Private und Public Clouds bereit. Dazu gehören auch IBMs bekannte Anwendungen die nun auch als Cloud basierte Versionen zur Verfügung stehen. Produkte kommen u.a. aus den Bereichen Speichermanagement, Cloud basierte E-Mail Services, Kalender und Kontaktverwaltung.

    Webseite: http://www.ibm.com

    10. Informatica
    Informatica ist Spezialist für Cloud basierte Datenintegration. Die Produkte helfen den Benutzern beim Verschieben und Verwalten der Daten (zwischen unterschiedlichen Anwendungen) in der Cloud

    Webseite: http://www.informatica.com

    11. NetApp
    Mit der Data ONTAP 8 Cloud Computing Infrastruktur verknüpft NetApp seine bereits vorhanden Plattformen Data ONTAP 7G und Data ONTAP GX. Data ONTAP 8 verfügt über Funktionen zur Verwaltung von Daten und arbeitet eng mit System zur Verwaltung von Rechenzentren zusammen. Data ONTAP 8 verknüpft die Speicher, Server, Netzwerk und Anwendungsschicht miteinander, so dass diese untereinander kommunizieren können.

    Webseite: http://www.netapp.com

    12. New Relic
    New Relic bietet ein on-Demand Performance Management tool für Web Anwendungen. In wenigen Minuten wird der gesamte Code innerhalb von Private oder Public Clouds, klassischen Infrastrukturen oder hybriden Varianten untersucht. Die Performance von Web Anwendungen in der Cloud kann damit deutlich gesteigert werden.

    Webseite: http://www.newrelic.com

    13. Novell
    Novell versucht die gesamte IT für die Cloud miteinander zu verknüpfen. Mit Moblin - ein auf die Cloud zentriertes Desktop Betriebssystem, dem SUSE Appliance Program - eine Initiative für Softwareentwickler, den Novell Cloud Security Service und PlateSping - einer Workload Management Lösung, hat Novell einige Produkte für die Cloud im Portfolio

    Webseite: http://www.novell.com

    14. Open Nebula
    Mit OpenNebula kann jegliche Art von Cloud Umgebung aufgebaut werden. Darüber hinaus können damit virtuelle Infrastrukturen in einem Rechenzentrum oder einem Cluster verwaltet werden, oder eine lokale Infrastruktur mit einer Public Cloud Infratruktur verbunden und kombiniert werden, um damit hoch skalierbare Hosting Umgebungen zu entwickeln. OpenNebula unterstützt ebenfalls Public Clouds, indem Schnittstellen zur Verfügung stehen mit denen virtuelle Machinen, Speichersysteme und das Netzwerk verwaltet werden können.

    Webseite: http://www.opennebula.org

    15. OpSource
    OpSource bietet alles aus dem Bereich "Cloud Operations". Dazu gehören Infrastrukturen der Enterprise-Klasse bis hin zum vollständigen Managed Hosting und der Verwaötung von Anwendungen. Bei der OpSource Cloud handelt es sich um eine Virtual Private Cloud innerhalb der Public Cloud. Die on-Demand Angebote kombinieren "Technical Operations", "Application Operations" und "Business Operations" mit "Web Operations". Hierzu gehören Anwendungs-Management, Compliance-und Business-Services. Ein Weiteres Produkt aus dem Bereich Abbrechnung ist OpSource Billing CLM.

    Webseite: http://www.opsource.net

    16. Paglo
    Mit der Log Management Lösung von Paglo können Log Dateien gesammelt und in der Cloud gespeichert, durchsucht und analysiert werden. Dazu werden die Daten von sämtlichen Geräten innerhalb des Netzwerks gesammelt. Eine weitere Anwendung von Paglo dient der Überwachung von Amazon EC2 Instanzen. Der Funktionsumfang beläuft sich auf den Lese- und Schreibzugriff der Festplatten, die Prozessor-Auslastung und dem Netzwerkverkehr.

    Webseite: http://paglo.com

    17. RightScale
    Die Cloud Management Platform von RightScale dient zum automatischen Bereitstellen, Verwalten und Kontrollieren von Anwendungen in der Cloud. Dazu werden "Cloud-Ready" Server-Templates und Best-Practise Architekturen für das Deployment zur Verfügung gestellt. Die Plattform unterstützt den Benutzer beim Deployment der Anwendungen beim Verwalten, Überwachen und bei der Fehlersuche. Zusätzlich wird ein (Vendor)-Lock-In vermieden, indem der Benutzer frei über die Art des Deployments, der Umgebung, dem Stack, Speicherplatz und der Cloud entscheiden kann, um über die größtmögliche Portabilität zu verfügen.

    Webseite: http://www.rightscale.com

    18. Stoneware
    Stoneware bietet Produkte für Bildungseinrichtungen, das Gesundheitswesen, Hersteller jeder Art, den juristischen Bereich, die Finanzbranche und generell für Unternehmen. Dazu bietet Stoneware Private Cloud Technologien, die es IT Organisationen ermöglichen sollen Lösungen zu entwickeln, um auf Anwendungen, Inhalte, Daten und Services von überall aus zugreifen zu können.

    Webseite: http://www.stone-ware.com

    19. VMware
    Durch die Acquirierung von SpringSource im vergangenen August schnappte sich VMware einen spezialisten für die Entwicklungen von Webanwendungen und Management Services. Mit "Lean Software" steht dadurch eine Möglichkeit zur Verfügung, Anwendungen schnell in die Cloud auszuliefern. Des Weiteren akquirierte VMWare Hyperic, einen Anbieter von Open Source Monitoring und Software für die Fehlersuche.

    Webseite: http://www.vmware.com

    20. Zeus Technology
    Mit den Produkten von Zeus können Benutzer Services innerhalb einer Cloud, auf einer physischen oder virtuellen Umgebung erstellen, verwalten und bereitstellen. Mit dem Zeus Cloud Traffic Manager kann die Nutzung einer Cloud überwacht und kontrolliert werden. Zusätzlich steht damit eine zentrale Verwaltungsmöglichkeit für verteilte Anwendungen und der Nutzen- und Auslastungsanalyse von Rechenzentren bereit.

    Webseite: http://www.zeus.com

    Quelle
    ChannelWeb



    20 Cloud Storage Anbieter

    Storage as a Service ist neben Software as a Service für Anbieter als auch Benutzer einer der einfachsten Wege mit Cloud Computing in Kontakt zu kommen. In diesem Artikel stelle ich daher 20 Cloud Storage Anbieter und deren Produkte kurz vor.

    1. 3X Systems

    Die Remote-Backup-Appliance (RBA) von 3X Systems dient als verschlüsseltes Backup. Drittanbieter führen bei ihren Kunden zunächst ein Backup aller PCs durch und speichern es auf die 3X RBA. Die PCs bauen automatisch eine Verbindung zur 3X RBA auf um Backups durchzuführen, wenn Änderungen an den Daten vorgenommen werden. Das System kann auf der Kundenseite als Private Cloud oder bei der Seite des Drittanbieter als Public Cloud eingerichtet werden.

    Webseite: http://www.3x.com

    2. Asigra

    Asigra stellt seinen Kunden eine speziell für das WAN optimierte Software zur Verfügung, um mittels einer einzigen Schnittstelle Daten in einer Private oder Public Cloud zu sichern und archivieren. Darüber hinaus kann mit der Software der gesamte Backup-Lebenszyklus der Daten verwaltet werden.

    Webseite: http://www.asigra.com

    3. Axcient

    Axcient bietet ein Hybrid-Cloud Storage-Modell. Als Kunde erhält man eine Storage Appliance für das schnelle lokale Backup. Zusätzlich existiert ein Storage-Service um die Daten per Remote-Backup in der Cloud von Axcient zu sichern. Die Appliances verfügen über eine größe von 500 GB bis 10 TB und können über einen Drittanbieter aus dem Partnernetzwerk bezogen werden. Der Drittanbieter sorgt anschließend dafür, dass die Appliance über das Internet mit der Cloud-Storage Infrastruktur von Axcient verbunden wird.

    Webseite: http://www.axcient.com

    4. Carbonite

    Carbonite ist ein Pionier im Bereich des Online-Backups und der erste Anbieter der ein unlimitiertes Backup zu einem Festpreis von 55 Dollar pro Jahr anbietet. Die Daten werden vor der Sicherung verschlüsselt. Auf Grund der Performance erfolgt das Backup der Daten, wenn der PC nicht unter Volllast arbeitet. Beim Restore können einzelne Dateien oder komplette Datensätze zurückgespielt werden.

    Webseite: http://www.carbonite.com

    5. Caringo
    Mit Caringo's CAStor können Anbieter von Storage Lösungen mittels eines USB-Sticks aus gewöhnlichen Standard-Servern eine Cloud-Storage Infrastruktur aufbauen. Aus den Servern wird ein Clusterverbund, wodurch die gespeicherten Daten auf die einzelnen Server repliziert werden. Das Unternehmen bietet darüber hinaus einen Content-Router an, um Inhalte direkt aus der Castor-Cloud bereitzustellen.

    Webseite: http://www.caringo.com

    6. Ctera
    Mit der CloudPlug Appliance von Ctera kann in kurzer Zeit eine Verbindung zu einem Cloud Storage Anbieter hergestellt werden. CloudPlug basiert auf Linux und hat die Größe eines gewöhnlichen AC-Adapters. Um CloudPlug zu nutzen, wird nur ein Router und ein PC oder eine externe Festplatte benötigt. Anschließend können die Daten entweder Freunden über das Internet bereitgestellt oder für das Backup zu einem Cloud Storage Anbieter geschickt werden.

    Webseite: http://www.ctera.com

    7. Doyenz
    Doyenz stellt Anbietern von Cloud Storage eine virtuelle IT Plattform zur Verfügung, mit denen virtuelle Appliances für die Datenmigration, zur Systemwiederherstellung und zur Ausfallsicherung erstellt werden können. Mit VMwares ESXi Server können die virtuellen Appliances aufgebaut, getestet und in kürzester Zeit auf Infrastrukturen von Savvis oder Rackspace bereitgestellt werden.

    Webseite: http://www.doyenz.com

    8. EFolder
    Mit EFolder können Drittanbieter Cloud-Storage und Lösungen zur E-Mail Archivierung anbieten. EFolder bietet des Weiteren die Möglichkeit zum Aufbau eines Hybrid Cloud-Storage. Dabei wird bei dem Kunden eine lokale Backup Appliance installiert, auf der Backups schnelle vorgenommen werden können. Zusätzlich wird die Appliance mit einer Storage-Cloud für Remote-Backups verbunden.

    Webseite: http://www.efolder.net

    9. EMC
    EMC`s Mozy Online Backup Lösung gehört zu den bekanntesten und klassischen Cloud-Backup Angeboten, bei denen die Daten von einem lokalen PC verschlüsselt in der Cloud von Mozy gespeichert werden.

    Webseite: http://www.mozy.com

    10. i365
    i365 gehört zu Seagate und arbeitet mit Solution-Provider und Manager-Service Provider zusammen um Kunden dabei zu helfen, ihre Daten innerhalb einer Cloud-Storage Infrastruktur zu speichern. Zu den Angeboten gehören u.a. Datenschutz, E-Mail Archivierung, Datenmigration, Datenrettung und Datenlöschung.

    Webseite: http://www.i365.com

    11. IBM
    IBM's Smart Business Storage Cloud ist ein Private Cloud Service mit dem mehrere Petabytes an Daten und Billionen von Dateien verwaltet werden können. Die Technologie basiert auf IBM's Blade Server und XIV Speichertechnologien. Der Service dient zum Aufbau einer Private Cloud im eigenen Rechenzentrum, die von IBM verwaltet wird, oder zum Backup der Daten in einem von IBMs Rechenzentren.

    Webseite: http://www.ibm.com

    12. Intronis
    Mit dem Intronis Online Backup können Drittanbieter einen Cloud Storage Service unter der eigenen Marke anbieten. Zu den Funktionen gehören unter anderem Block-Level Backups, die dafür sorgen, dass nur die Änderungen an den Daten gesichert werden. Darüber hinaus kann damit ebenfalls das Backup, Speichern und Wiederherstellen von Microsoft Exchange-Dateien vorgenommen werden.

    Webseite: http://www.intronis.com

    13. Mezeo Software
    Mezeo stellt IT-Hoster, SaaS Anbieter, Telekommunikationsanbieter und ISPs Softwarelösungen bereit, mit denen sie Cloud-Storage Angebote für Ihre Kunden erstellen können. Die Cloud Storage Plattform umfasst eine Webanwendung, sowie spezielle Clients für Windows, iPhone, Blackberry und Windows Mobile. Zu den Funktionen gehören u.a. der Austausch von Dateien, die Zusammenarbeit, sowie das Verwalten von verschachtelten Dateien und Ordner-Strukturen.

    Webseite: http://www.mezeo.com

    14. Reldata
    Reldata entwickelt Technologien, die iSCSI, SAN, NAS und WAN konsolidieren und zu einer Unified Storage Lösungen machen. Damit können Drittanbieter ihren Kunden dabei helfen, einen eigenen Privat Cloud Storage aufzubauen. Mit der RELDATA 9240i/RELvos Appliance können Kunden unabhängig voneinander ihren Speicher skalieren, replizieren ohne ihre Anwendungen dabei zu beeinträchtigen.

    Webseite: http://www.reldata.com

    15. Robobak
    Robobak bietet automatisierte Backuplösungen für Remote und Zweigstellen. Zu den Funktionen gehören u.a. Block Level Backups und Deduplizierung.

    Webseite: http://www.robobak.com

    16. Symantec
    Symantec verfügt über zwei Cloud Backup Lösungen. Für Geschäftskunden dient das Symantec Protection Network, was Drittanbieter an ihre Kunden vertreiben können. Als Teil von Symantecs Hosted Services, dient die Cloud Plattform zur sicheren Verwaltung von Daten und Informationen auf allen Endgeräten. Für Endanwender steht das Norton Online Backup bereit. Damit können bos zu fünf Computer gleichzeitig ihre Daten automatisch in der Cloud von Symantec speichern.

    Webseite: http://www.symantec.com

    17. Symform
    Symform bietet einen sogenannten Kooperativen Cloud Storage Service an. Jeder der daran teilnimmt, muss freie Speicherkapazitäten auf seinen Systemen bereitstellen um die Daten von anderen darauf abzulegen.

    Webseite: http://www.symform.com

    18. Vembu
    Mit Vembus StoreGrid können Storageanbieter unter ihrer eigenen Marke Cloud basierte Storage-Lösungen anbieten. Funktionen sind neben dem Clustering und Load Balancing die Möglichkeit die Daten direkt zu Amazon S3 zu replizieren.

    Webseite: http://www.vembu.com

    19. Zenith InfoTech
    Drittanbieter können mit den Technologien von Zenith Infotech ihren Kunden Lösungen in den Bereichen Managed Services, Virtual Helpdesk und Systemwiederherstellung anbieten. Das Konzept des Backups und der Systemwiederherstellung basiert auf dem Hybrid Cloud Storage Ansatz. Dazu gehört eine Appliance für das lokale Backup und ein Backup der Daten in die Cloud, was alle 15 Minuten durchgeführt wird.

    Webseite: http://www.zenithinfotech.com

    20. Zetta
    Zetta unterstützt Storage-Anbieter beim Aufbau einer eigenen Cloud-Storage Infrastruktur. Zu den Funktionen der Infrastruktur gehören Snapshots der Daten, Replikationen und vollständige Redundanz.

    Webseite: http://www.zetta.net

    Quelle
    ChannelWeb



    Was ist “Amazon S3?”

    Amazon Simple Storage Service (Amazon S3) [1] stellt über einen Webservice eine Schnittstelle bereit, um darüber von überall aus eine unbegrenzte Menge an Daten zu speichern und diese wieder abzurufen.

    Amazon S3 Funktionsweise

    • Speichern, Lesen und Löschen einer unbegrenzten Anzahl von Objekten (Dateien). Jedes Objekt kann eine Größe von 1 Byte bis zu 5 GByte haben.
    • Jedes Objekt wird in einem sogenannten Bucket gespeichert und kann über einen eindeutigen Key angesprochen werden.
    • Ein Bucket wird in einer von vielen Regionen gespeichert, wobei eine bestimmte Region z.B. auf Grund von Latenzzeiten zu bevorzugen ist. Jeder Bucket verfügt über einen eindeutigen Identifier und ist damit in der gesamten Amazon Cloud einmalig vorhanden.
    • Objekte die in einer bestimmten Region gespeichert werden, können auch nur in dieser Region wieder angesprochen werden. Sind z.B. Daten in Europa (Irland) gespeichert, kann auf diese Daten auch nur innerhalb von Europa zugegriffen werden. Ein Zugriff aus den USA auf die Daten ist in diesem Fall nicht möglich.
    • Über Authentifizierungs-Mechanismen wird sichergestellt, dass die Daten vor unbefugtem Zugriff geschützt sind. Die Objekte können als privat oder öffentlich gekennzeichnet werden. Jeder Benutzer kann unterschiedliche Zugriffsrechte auf Objekte erhalten.
    • Der Zugriff erfolgt über REST und SOAP Schnittstellen.
    • Amazon S3 ist protokollunabhängig, wobei HTTP das Standard Protokoll ist.


    [2]

    Amazon S3 Design Anforderungen

    In Amazon S3 sollen Daten preiswert und sicher gespeichert werden und darüber hinaus zu jeder Zeit verfügbar sein, wenn sie benötigt werden.

    • Skalierbar: Amazon S3 skaliert anhand des verfügbaren Speicherplatz, der Anzahl der aktuellen Anfragen sowie der Anzahl der Benutzer um eine unbegrenzte Anzahl von Web-Anwendungen bereitzustellen. Indem das System weitere Knoten zur Verfügung gestellt bekommt wird die Verfügbarkeit, Geschwindigkeit, Kapazität, Robustheit und der Durchsatz erhöht.
    • Zuverlässig: Daten werden dauerhaft und mit einer Verfügbarkeit von 99,99% gespeichert. Es darf kein Single Point of Failure vorhanden sein. Alle Fehler müssen toleriert und durch das System automatisch repariert werden.
    • Fast: Die Geschwindigkeit muss hoch genug sein, um High-Performance-Anwendungen zu unterstützen. Die Server-seitige Latenz darf im Vergleich zur Internet Latenz keine Bedeutung haben. Jeder Performance-Engpass kann durch das einfache Hinzufügen von weiteren Knoten gelöst werden.
    • Preiswert: Amazon S3 besteht aus kostengünstiger Standard Hardware. Dadurch ist der Ausfall eines einzelnen Knoten der Normalfall, was aber nicht das gesamte System betreffen darf.
    • Einfach: Der Aufbau von hoch skalierbarem, zuverlässigen, schnellen und kostengünstigen Speicherplatz ist schwierig. Darüber hinaus muss jede Anwendung darauf von überall aus zugreifen können. Die Anforderung besteht also darin, Amazons interne Anwendungen (die Amazon Webseite) und zusätzlich parallel die Anwendungen von externen Entwicklern hoch performant zu handhaben.


    [3]

    Amazon S3 Design Grundsätze

    Folgenden Grundsätze für das Design von verteilten Systemen werden für Amazon S3 eingesetzt:

    • Dezentralisierung: Vollständiger Einsatz von Technologien zur Dezentralisierung um Engpässe und Single Point of Failure zu vermeiden.
    • Asynchronität: Das System macht unter allen Umständen Fortschritte.
    • Autonomität: Das System ist so ausgelegt, dass einzelne Komponenten ihre Entscheidungen auf Basis lokaler Informationen treffen können.
    • Lokale Verantwortung: Jede Komponente ist selbst für seine eigene Konsistenz verantwortlich und muss diese auch selber erreichen.
    • Kontrollierte Nebenläufigkeit: Alle Operationen sind so ausgelegt, dass keine oder nur eine begrenzte Kontrolle der Konsistenz erforderlich ist.
    • Fehlertoleranz: Das System behandelt den Ausfall von Komponenten wie gewöhnliche Operationen und wird dadurch gar nicht oder nur minimal Unterbrochen.
    • Kontrollierte Parallelität: Parallelität kann genutzt werden, um die Leistung und Robustheit der Wiederherstellung zu verbessern, bzw. neue Knoten zu verwenden. Ein einziger Dienst sollte nicht alles für jeden bereitstellen. Stattdessen sollten kleine Komponenten verwendet werden, die als Bausteine für andere Dienste genutzt werden können.
    • Symmetrie: Alle Knoten im System sind bzgl. ihrer Funktionalität identisch und benötigen keine oder nur minimale knotenspezifische Konfigurationen um ausgeführt zu werden.
    • Einfachheit: Das System sollte so einfach wie möglich (aber nicht einfacher) gemacht werden.

    Preise

    Alle Preise sind hier zu finden: Amazon S3 Preise

    Quellen:

    [1] Amazon S3
    [2] Graphik: Amazon S3 (1)
    [3] Graphik: Amazon S3 (2)



    Was ist AWS Import/Export?

    Der Import/Export [1] Dienst der Amazon Web Services dient dazu, große Datenmengen auf einem schnelleren Weg in die Amazon Cloud zu transferieren bzw. diese hinaus zu bekommen, indem die Daten auf einem Datenträger auf postalischen Weg an Amazon verschickt werden. Dazu überträgt Amazon die Daten direkt vom gelieferten Datenträger über ihr internes Netzwerk in die Cloud. In einigen Fällen ist es kostengünstiger die Daten auf diesem Weg in die Amazon Cloud zu übertragen, als den Weg über das Internet zu wählen und dabei ggf. die Geschwindigkeit der Internetverbindung zu erhöhen.

    Vorgehensweise

    • Vorbereiten eines Datenträgers mit den zu transferierenden Daten.
    • Eine Manifest Datei, die alle Informationen (Amazon S3 buckt, AWS Access Key ID, Rücksendeadresse) an Amazon verschicken.
    • Anschließend sendet Amazon eine E-Mail mit einem eindeutigen Kennzeichen und der AWS Versandadresse an die der Datenträger versendet werden muss.
    • Jetzt muss der Datenträger noch für die Identifizierung und Authorisierung vorbereitet werden, indem die Manifest-Datei und die Job-Id mit einer Digitalen Signatur verschlüsselt und auf den Datenträger hinterlegt werden.
    • Der Datenträger mird mit sämtlichen Zubehör an Amazon verschickt.


    [2]

    Wofür kann AWS Import/Export verwendet werden?

    • Datenmigration: Große Menge an Daten die erstmals in die Amazon Cloud transferiert werden sollen. AWS Import/Export ist in der Regel schneller als der Datentransfer über das Internet.
    • Externe Datensicherung: Vollständige oder Inkrementelle Backups können durch Amazon S3 zuverlässig und redundant gesichert werden.
    • Direkter Datenaustausch: Erhält man von seinen Geschäftspartnern die Daten regelmäßig auf Datenträgern, können diese auf direkten Weg zu Amazon versendet werden. Von dort werden die Daten dann in das eigene Amazon S3 bucket importiert.
    • Systemwiederherstellung: Für den Fall eines Systemausfalls und der notwendigen Wiederherstellung können die Daten mittels AWS Import/Export von Amazon S3 heruntergeladen, auf einem Datenträger gespeichert und anschließend in das eigene (lokale) System wieder importiert werden.

    Quellen:

    [1] AWS - Import/Export
    [2] Graphik: AWS - Import/Export