Tag: Backup


Back Up und Disaster Recovery: Es geht ums Überleben!

Daten und Informationen sind heutzutage ein geschäftskritischer Wettbewerbsfaktor. Die dauerhafte Gewährleistung des Zugriffs auf digitale Kommunikationswege zu Partnern, Lieferanten und Kunden ist im Zuge der Digitalisierung der gesamten Geschäftsprozesse immer wichtiger. Dazu zählt auch die Verfügbarkeit aller entstandenen Daten der einzelnen Unternehmen. Das Phänomen “Zero-Downtime” beschreibt dabei einen theoretischen Idealzustand, das von einem komplett reibungslosen Betrieb ausgeht. Die Unternehmen sind in der Pflicht, stärker in die Ausfallsicherheit der Systeme zu investieren und Back Up und Disaster Recovery-Szenarien etablieren.

Continue reading “Back Up und Disaster Recovery: Es geht ums Überleben!” »



Quantum vmPRO Standard Edition verändert VMware Backup

Quantums neue vmPRO Software Standard Edition sichert bis zu 1 TB virtueller Daten und ist als kostenloser Download mit voller Funktionalität verfügbar, wodurch Unternehmen ohne jedes Risiko von allen Vorzügen der Software profitieren können. Sie ist bei wachsenden Anforderungen zudem nach oben skalierbar.

Virtuelle Backup Appliance

Die Quantum vmPRO Standard Edition lässt sich herunterladen und als virtuelle Appliance installieren. Zudem haben Kunden freien Zugang zum Quantum Forum V für kostenlosen Online-Support. Mit einem Upgrade auf die vmPRO Enterprise Edition kann zusätzliche Kapazität freigeschaltet werden. Die Enterprise Edition bietet unbegrenzte Kapazität für 651€/TB, inklusive Silber Support Service für ein Jahr und der Möglichkeit auf eine weitere Support-Stufe upzugraden.

Außerdem können Anwender ab sofort die vollumfängliche virtuelle Deduplizierungsappliance, Quantum DXi V1000, kostenlos herunterladen, um bis zu 15 TB deduplizierter Daten vorzuhalten. In Kombination mit der vmPRO Software bildet die DXi V1000 eine komplett virtuelle Datensicherungslösung und öffnet so den Weg in die Cloud.

vmPRO: Die VM Backup Anwendung im Überblick

  • Backup im nativen VMware-Format: Basierend auf den Backup Policies des Kunden sichert vmPRO Software VM’s im nativen VMware-Format (VMDK), ohne die Restriktionen eines proprietären Formats wie bei den übrigen verfügbaren Backup-Anwendungen am Markt. Diese Möglichkeit erleichtert die Wiederherstellung von einzelnen Dateien, Objekten oder ganzen VM’s per „Drag and Drop“ mit dem vmPRO GUI oder jedem anderen Standard Dateisystem Browser. Da die VM’s in ihrem nativen Format gesichert werden, können Anwender VM’s ohne Rückgriff auf eine Backup-Anwendung von jedem Standort aus booten – inklusive Cloud.
  • Einfache Installation und Nutzung: vmPRO Software wird als virtuelle Appliance bereitgestellt und führt Restores in einem Schritt durch. Jeder Browser kann dafür genutzt werden Dateien, Objekte und komplette VM‘s zu suchen und wiederherzustellen – unabhängig von der Quelle und ohne Backup Anwendung.
  • Datenreduktion um 95 Prozent: Die Kombination aus vmPRO Software und DXi Appliances – inklusive DXi V1000 – bietet die derzeit effektivsten Deduplizierungsraten sowie schnellstes VM Recovery. Mit der patentierten progressiven Optimierung löscht vmPRO überflüssige Daten aus den virtuellen Maschinen und in Kombination mit Deduplizierung können Hosting, Netzwerk und Speicherressourcen extrem reduziert werden.
  • Integriert mit VMware API: Da Quantum vmPRO nahtlos mit VMware vCenter Server zusammenarbeitet, werden neu hinzugefügte VM’s automatisch von der VMware API erkannt und für die Datensicherung berücksichtigt. Auf diese Weise ist jede VM stets gesichert.
  • Zertifiziert VMware Ready: Quantum vmPRO trägt die offizielle Bezeichnung VMware Ready, ein Indikator für die Integration mit VMware’s API. VMware Ready ist VMware‘s höchste Anerkennung für Produkte und Lösungen, die von Partnern erstellt wurden.


Die Cloud überlebt sämtliche Speichermedien

Ich habe eine interessante Infographik gefunden, die zeigt, dass die Cloud sämtliche Speichermedien überleben wird. Die Graphik veranschaulicht sehr gut, wie lange die Daten auf einer bestimmten Speichertechnologie sicher abgelegt werden können, bis auf diese nicht mehr zugegriffen werden kann oder wann ein Wechsel auf eine andere Technologie erforderlich ist.

Die Cloud überlebt sämtliche Speichermedien

Die Cloud Anbieter sorgen für das Überleben der Daten

Die Graphik konzentriert sich auf die Lebensdauer eines bestimmten Speichermediums, abhängig von der Nutzung. Eine oft benutzte CD wird natürlich nicht so lange eingesetzt werden können als eine, auf die einmalig Daten kopiert wurden und die anschließend vorsichtig behandelt wird. Hierbei sollte man aber auch nicht den Lebenszyklus einer Technologie vergessen. Nach einem bestimmten Zeitraum, auch abhängig davon wie erfolgreich die Technologie ist, kann diese eingestellt und nicht weiter unterstützt werden. Was passiert dann?

Ein weiteres nicht zu unterschätzendes Risiko sind die Dateiformate und deren Abwärtskompatibilität. So ändern z.B. Anbieter wie Microsoft regelmäßig ihre Office-Datenformate (z.B. .doc > .docx), die dann nur von der aktuellen Office Version bestmöglich unterstützt werden. Mir sind zudem Erfahrungen bekannt, wo sich Excel 97 Tabellen zwar mit Office 2000 öffnen ließen, sämtliche Formatierungen und Formeln aber nicht mehr korrekt dargestellt wurden. Fatal waren die Probleme mit den Formeln, da diese auf den ersten Blick richtig waren. Erst auf dem zweiten Blick wurde deutlich, dass sämtliche Ergebnisse falsch berechnet wurden.

An dieser Stelle helfen Software-as-a-Service (SaaS) Lösungen, indem die Daten in dem Service gespeichert werden und der Anbieter Anspassungen an der Software regelmäßig vornimmt und die "internen" Datenformate ebenfalls selbst anpasst, ohne dass der Nutzer davon betroffen ist. Das trifft natürlich nur dann zu, wenn der Cloud Speicher auch über eigene Office Lösungen verfügt, die in den Storage integriert sind, wie z.B. Google Apps, Zoho oder Office 365.

Werden Daten in der Cloud gespeichert, muss man sich als Unternehmen nicht um die darunterliegende Speichertechnologie kümmern. Der Anbieter stellt den Speicherplatz als Service bereit und sorgt dafür, dass die Technologie den aktuellen Standards entspricht. Die Sorge um die Technologieunterstützung wandert demnach vom Unternehmen hin zum Anbieter.

Alte vs. Neue Welt

Ein gutes Beispiel für eine disruptive Technologie innerhalb des schon sehr disruptiven Cloud Computing ist der erst kürzlich von Amazon veröffentlichte Service Amazon Glacier. Dabei handelt es sich um einen Cloud Service für die Datenarchivierung bzw. für das Langzeit-Backup. Glacier soll Unternehmen dazu bewegen, ihre Tape Libraries aufzugeben und die Daten stattdessen kostengünstig in die Cloud zu verlagern.

AWS beschreibt Amazon Glacier als einen kostengünstigen Storage Service, der dafür entwickelt wurde, um Daten dauerhaft zu speichern. Zum Beispiel für die Datenarchivierung bzw, die Datensicherung. Der Speicher ist, entsprechend der aktuellen Marktsituation, sehr günstig. Kleine Datenmengen können ab 0,01 US-Dollar pro GB pro Monat gesichert werden. Um den Speicher so kostengünstig anzubieten, ist der Service, im Vergleich zu Amazon S3, für solche Daten gedacht, auf die selten zugegriffen wird und deren Zugriffszeit mehrere Stunden betragen darf.

Daten in Amazon Glacier werden als ein Archive gespeichert. Dabei kann ein Archiv aus einer einzigen oder mehreren einzelnen zusammengefassten Dateien bestehen, die in einem sogenannten Tresor organisiert werden können. Der Zugriff auf einen Tresor kann über den AWS Identity and Access Management-Service (IAM) gesteuert werden. Um ein Archiv von Glacier zu laden, ist ein Auftrag erforderlich. Die Bearbeitung so eines Auftrags benötigt, laut Amazon, in der Regel zwischen 3,5 bis 4,5 Stunden.

Anstatt auf gewohnte Speichersysteme, verlässt sich Amazon Glacier auf kostengünstige Commodity Hardware. (Der ursprüngliche Ansatz, Cloud Computing kostengünstig anzubieten.) Für eine hohe Datenredundanz besteht das System aus einer sehr großen Menge von Speicher-Arrays, die sich aus einer Vielzahl von kostengünstigen Festplatten zusammensetzen.

Dann bekomme ich aber auch Meldungen wie Folgende zugeschickt, die zeigen, dass die "Alte Welt" den Kampf noch nicht aufgegeben hat.

"Anbieter" hat die Speicherdichte und Energieeffizienz seiner xyz-Appliances deutlich erhöht und verfügt nun über die effizienteste Enterprise-Disk-Backup- und Deduplizierungslösung am Markt. Die xyz bietet nun 3 TB-Festplatten und damit eine 50 Prozent höhere Speicherdichte, 42 Prozent niedrigeren Energieverbrauch und 25 Prozent höhere Performance. Verglichen mit Wettbewerbsprodukten beansprucht die xyz die kleinste Stellfläche bei gleichzeitig höchstem Mehrwert.

Neben der Verschlüsselung von ruhenden Daten (Data-at-rest) in der xyz, hat "Anbieter" sowohl die Produktfamilie der xyz-Serie als auch die "Produkt" Tape Libraries mit zusätzlichen Security-Erweiterungen ausgestattet. Diese zahlreichen Updates helfen die Datensicherungseffizienz in Unternehmen zu erhöhen und gleichzeitig den immer anspruchsvolleren Service Level Agreements (SLAs) und Sicherheitsbedürfnissen gerecht zu werden.

Die Cloud macht Speichermedien überflüssig

Es gab Zeiten, in denen Unternehmen sich darüber Gedanken machen mussten, welche Speichertechnologie sie einsetzen sollten, um Daten über einen langen Zeitraum sicher zu archivieren. Es ist sehr leicht zu argumentieren, "Schieb einfach alles in die Cloud, da läuft's schon.". So ist das natürlich nicht. Aber Cloud Anbieter können hier definitiv helfen, indem sie die darunter liegenden Speichertechnologien bei Bedarf austauschen, ohne dass der Kunde etwas davon mitbekommt. Vor allem die Anbieter der "Alten Welt" sollten sich darüber Gedanken machen, wie sie ihren Kunden diese on-Premise Sorgen nehmen können und sich den Ideen aus der "Neuen Welt" annehmen.

Ich kenne bspw. ein Unternehmen, dass einen Mitarbeiter, der eigentlich schon in Rente sein sollte, beschäftigt, da er der Einzige ist, der das Wissen über eine spezielle Magnetband Technologie besitzt. Dies ist dem Umstand der Aufbewahrungsfristen geschuldet. Erst wenn die Frist abgelaufen ist, darf dieser Mitarbeiter in seinen Wohl verdienten Ruhestand gehen.


Quelle: http://www.thecloudinfographic.com



Amazon Web Services präsentieren Amazon Glacier: Günstiger Cloud Storage für das Langzeit-Backup

Die Amazon Web Services (AWS) haben gestern Amazon Glacier vorgestellt. Dabei handelt es sich um einen Cloud Service für die Datenarchivierung bzw. für das Langzeit-Backup. Glacier soll Unternehmen dazu bewegen, ihre Tape Libraries aufzugeben und die Daten stattdessen kostengünstig in die Cloud zu verlagern. Dateien, die per Glacier gesichert werden, sollen laut Amazon eine Langlebigkeit von 99,999999999 Prozent aufweisen. Bei einer Speichermenge von 100 Milliarden Objekten entspricht das den Verlust von einem Objekt pro Jahr.

Amazon Web Services präsentieren Amazon Glacier: Günstiger Cloud Storage für das Langzeit-Backup

Amazon Glacier

AWS beschreibt Amazon Glacier als einen kostengünstigen Storage Service, der dafür entwickelt wurde, um Daten dauerhaft zu speichern. Zum Beispiel für die Datenarchivierung bzw, die Datensicherung. Der Speicher ist, entsprechend der aktuellen Marktsituation, sehr günstig. Kleine Datenmengen können ab 0,01 US-Dollar pro GB pro Monat gesichert werden. Um den Speicher so kostengünstig anzubieten, ist der Service, im Vergleich zu Amazon S3, für solche Daten gedacht, auf die selten zugegriffen wird und deren Zugriffszeit mehrere Stunden betragen darf.

Hintergrund: Amazon Glacier

Daten in Amazon Glacier werden als ein Archive gespeichert. Dabei kann ein Archiv aus einer einzigen oder mehreren einzelnen zusammengefassten Dateien bestehen, die in einem sogenannten Tresor organisiert werden können. Der Zugriff auf einen Tresor kann über den AWS Identity and Access Management-Service (IAM) gesteuert werden. Um ein Archiv von Glacier zu laden, ist ein Auftrag erforderlich. Die Bearbeitung so eines Auftrags benötigt, laut Amazon, in der Regel zwischen 3,5 bis 4,5 Stunden.

Tape Library Ade

Mit Amazon Glacier nimmt AWS den Kampf mit on-Premise Speichersystemen, in erster Linie mit den, im Unternehmensumfeld stark verbreiteten, Tape Libraries auf. Insbesondere die hohe Datenredundanz und der Preis sind ausschlaggebende Argumente gegen die in die Jahre gekommene Tape Technologie.

Anstatt auf gewohnte Speichersysteme, verlässt sich Amazon Glacier auf kostengünstige Commodity Hardware. (Der ursprüngliche Ansatz, Cloud Computing kostengünstig anzubieten.) Für eine hohe Datenredundanz besteht das System aus einer sehr großen Menge von Speicher-Arrays, die sich aus einer Vielzahl von kostengünstigen Festplatten zusammensetzen.

Wie Werner auf seinem Blog schreibt, wird Amazon Glacier in naher Zukunft mir Amazon S3 verschmelzen, um Daten zwischen den beiden Services nahtlos übertragen zu können.

Mit Amazon Glacier zeigen die Amazon Web Services wieder einmal, dass sie der disruptivste und mit Abstand innovativste Cloud Computing Anbieter im Bereich Infrastructure-as-a-Service sind.


Bildquelle: All Things Distributed



CloudBerry Lab kündigt 3 Updates an und gibt einen Vorgeschmack auf Version 2.8

CloudBerry Lab, Anbieter von Tools für das Backup der Daten in der Cloud erweitert seinen S3 Explorer, Explorer für OpenStack und Rackspace und die Version 2.7 seiner Backup Software um weitere Funktionen. Darunter CloudFront TTL Konfigurationsmöglichkeiten und einen intelligenten Bandbreiten Scheduler. Zudem gibt das Unternehmen Informationen zum kommenden Release 2.8 und weiteren neuen Produkten bekannt.

CloudBerry Backup kündigt 3 Updates an und gibt einen Vorgeschmack auf Version 2.8

Begonnen hat CloudBerry mit dem CloudBerry S3 Explorer, einer Managementoberfläche für Amazon S3. Im Laufe der Zeit sind immer weitere Produkte für das Backup von Daten in der Cloud hinzugekommen.

Der CloudBerry S3 Explorer befindet sich mittlerweile in der Version 3.3 und erhält mit dem neuesten Update TTL (Time To Live) Konfigurationsmöglichkeiten für Amazon CloudFront. CloudBerry reagiert damit auf eine Änderung vom Amazon CloudFront Team, die kürzlich eine kürzere TTL - statt der bisherigen 60 Minuten - angekündigt hatten. Mit der neuen Funktion können Entwickler die TTL ihrer Objekte auf 0 Sekunden setzen, wodurch sehr kurze Caching Zeiträume genutzt werden können.

Eine weitere Erneuerung ist die Unterstützung von weiteren OpenStack basierten Cloud Storage wie HP Cloud und Haylix für den "CloudBerry Explorer for OpenStack and RackSpace 1.2". Zudem wurde ein Metadata Editor für die Container hinzugefügt, die nun als private und public deklariert werden können.

Darüber hinaus wurde CloudBerry Backup 2.7 mit einem intelligenten Bandbreiten Scheduler erweitert und unterstützt nun OpenStack Object Storage (Swift). Mit dem Bandbreiten Scheduler ist es bspw. möglich, die Drosselung der Bandbreite für das Backup in Echtzeit zu steuern, um die gesamte verfügbare Bandbreite während der Geschäftszeiten zu nutzen.

Ein Vorgeschmack auf die kommenden Releases

Das CloudBerry Backup 2.8 wird um konkrete Planungen für das Backup in der Cloud erweitert. Damit können automatisierte Backup-Routinen zu bestimmten Zeitpunkten erstellt werden, die für einen späteren Restore oder das Verteilen auf weiteren Maschinen genutzt werden können. Eine weitere Erneuerung für das Release 2.8 sind die Verschlüsselung von Dateien und Ordnernamen. Damit sollen Dateien und Ordner geschützt werden, die ggf. streng vertrauliche Informationen enthalten.

Mit CloudBerry Backup Drive wird eines von zwei neuen Produkten veröffentlicht. CloudBerry Backup Drive wird es ermöglichen, die lokale Festplatte als einen Cloud Storage freizugeben. CloudBerry Lab befindet sich hier noch in der Entwicklungsphase und plant demnächst eine Beta zu veröffentlichen.

CloudBerry Backup for MS SQL Server ist das zweite neue Produkt von CloudBerry Lab. Das Tool bietet Backup-und Restore-Funktionen und wurde entwickelt, um Amazon S3 und Windows Azure Storage für das Backup eines MS SQL Server zu nutzen.



JungleDisk

JungleDisk ist das Cloud Storage Angebot von Rackspace Cloud. Dabei handelt es sich im Prinzip um eine Schicht (Applikation) zwischen dem Benutzer bzw. dem lokalen PC/Server und dem Speicherdienst Amazon S3 oder dem von Rackspace.

Die Daten können bei Amazon S3 dabei wahlweise in den USA oder Europa gespeichert werden, was sich in den Preisen und der Geschwindigkeit (Latenz/ Laufzeiten) wiederspiegelt. Die Preise der jeweiligen Angebote setzen sich aus einer festen Grundgebühr (in USD) plus dem tatsächlich genutzen Speicherplatz auf S3 zusammen. Der genutzte Speicherplatz wird dabei mit den bekannten Gebühren von Amazon S3 verrechnet. In diesem Fall ist daher auch ein Amazon AWS Account erforderlich. Man bezahlt also hier - abgesehen von der Grundgebühr - nur für den Speicherplatz, der auch wirklich genutzt wird.

Die Abbrechnung erfolgt vollständig über Amazon. Man erhält am Anfang des Monats eine Rechnung von Amazon über die Grundgebühr der JungleDisk. Die Rechnung über den genutzen Speicherplatzverbrauch findet über den Amazon AWS Account statt.

JungleDisk stellt als einer der wenigen Anbieter für die drei großen Betriebssysteme Windows, Linux und MAC native Clients zur Verfügung. Weiterhin kann der Zugriff auf die gespeicherten Daten mittels einer Weboberfläche oder des iPhones stattfinden.

Die Datenübertragung und die Daten selber sind mit einer 256 bit AES Verschlüsselung gesichert. Zusätzlich können die Buckets auf Amazon S3 mit einem weiteren Passwort geschützt werden.

JungleDisk ist, wie es auf dem ersten Blick erscheint kein reines Tools für das Backup in der Cloud. Daten können ebenfalls damit über mehrere Rechner synchronisiert werden, was die Kollaboration verbessert.

Im Folgenden werden die vier Angebote der JungleDisk, die sich in die Bereiche Business und Personal unterteilen, vorgestellt.


Business Class

Die Business Class besteht aus der Workgroup Edition und der Server Edition. Dabei ist die Workgroup Edition auf Desktop PCs von kleinen bis mittleren Unternehmen ausgerichtet, mit der Backups erstellt, sowie Daten ausgetauscht und synchronisiert werden können. Die Server Edition dient zum Backup eines Servers und verfügt über Möglichkeiten das System per Fernwartung zu verwalten.

Workgroup Edition

Mit der Workgroup Edition können Daten mittels "Master Accounts" zwischen mehreren Benutzer ausgetauscht und synchronisiert werden. Dabei werden Teamgrößen von 2 - 100 Mitgliedern unterstützt. Die Benutzer können damit auf einfache Weise miteinander zusammenarbeiten und haben Zugriff auf ihre Daten auch dann, wenn Sie gerade nicht mit dem Internet verbunden sind. Wenn eine Internerverbindung wieder vorhanden ist, werden automatische alle Änderungen mit der Cloud synchronisiert. Der Zugriff auf die Daten kann ebenfalls über eine Weboberfläche oder ein iPhone erfolgen. Zudem steht eine protable Version zur Verfügung, die von einem USB-Stick ausgeführt werden kann. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 4 USD pro Benutzer pro Monat + Gebühren von Amazon S3 (siehe unten)

Server Edition

Die Server Edition richtet sich an Windows und Linux Server. Mit ihr stehen im Prinzip unbegrenzte Speicherkapazitäten für Backups in der Cloud zur Verfügung. Die Abbrechnung erfolgt hier nach dem pay per use Modell, es entstehen also nur Kosten für den tatsächlich genutzten Speicherplatz.

Zur Verwaltung der Backups stehen Tools für Windows, Linux und Mac Clients zur Verfügung, die auch parallel auf unterschiedlichen Maschinen genutzt werden können. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt. Weitere Funktionen sind erweiterte Kompressionsmechanismen und die Möglichkeit der Deduplication.

Preise

  • 5 USD pro Server pro Monat + Gebühren von Amazon S3 (siehe unten)


Personal

Die Angebote aus dem Bereich Personal setzen sich aus dem Simply Backup und der Desktop Edition zusammen. Bei dem Simply Backup handelt es sich lediglich um die Möglichkeit automatisierter Backups, wobei die Desktop Edition Elemente der Workgroup Edition beinhaltet.

Simply Backup

Mit Simply Backup können die Daten auf einem Rechner zeitgesteuert und automatisiert auf Amazon S3 oder Rackspace gesichert und im Fehlerfall z.B. von der letzten Nacht oder der letzten Woche wiederhergestellt werden. Clients sind für Windows und Mac OS vorhanden. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 2 USD pro Monat + Gebühren von Amazon S3 (siehe unten)

Desktop Edition

Die Desktop Edition beinhaltet alle Funktionen des Simply Backup und bietet darüber hinaus die Möglichkeit die JungleDisk wie eine lokale Festplatte (als Netzlaufwerk) auf dem Computer einzubinden. Somit kann direkt von und auf diesem Netzlaufwerk gearbeitet werden. Weiterhin können ausgewählte Ordner mit der JungleDisk synchronisiert werden. Damit hat man die Möglichkeit seine Daten über mehrere Rechner hinweg zu synchronisieren, da sich die Daten zentral in der JungleDisk befinden und mit dem lokalen Rechner abgeglichen werden. Somit stehen auf jedem Rechner und an jedem Ort (vorausgesetzt eine Internetverbindung ist vorhanden) immer die aktuellen Daten zur Verfügung. Der Zugriff auf die Daten kann aber auch dann erfolgen, wenn gerade keine Internetverbindung vorhanden ist, da die Daten ebenfalls lokal gespeichert werden. Ist die Internerverbindung wieder vorhanden, werden automatische alle Änderungen mit der Cloud synchronisiert. Der Zugriff auf die Daten kann ebenfalls über eine Weboberfläche oder ein iPhone erfolgen. Es stehen Clients für Windows, Mac OS und Linux zur Verfügung. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 3 USD pro Monat + Gebühren von Amazon S3 (siehe unten)


Screenshots

Konfigurationsmenü

Auswählen der Dateien für das Backup

Backupvorgang

Activity Monitor

Wiederherstellen von Dateien

Verbindung zu einem Server herstellen


Amazon S3 Gebühren


Quelle