CloudCache

Mit CloudCache stellt das Unternehmen Quetzall eine flexible Caching Infrastuktur als Service bereit, in der über eine API beliebige Objekte zwischengespeichert werden können. Entwickler haben damit die Möglichkeit ihre Daten innerhalb eines in-memory Cache abzulegen um damit die Zugriffe auf die Datenbank zu verringern und die Performance zu erhöhen.

CloudCache kann u.a. für das Zwischenspeichern von Anfragen, Sessions oder Templates genutzt werden und funktioniert ebenfalls in Verbindung mit Amazon's Netzwerk Topologie.

Funktionen

  • Latenz: 1.5 ms
  • Multi-Get
  • Statistiken: Hits/Misses/Usage
  • Nutzung von 1 bis 1000 Caches
  • AJAX oder XML Unterstützung
  • Inkrementierungs- und Dekrementierungsmöglichkeiten
  • Konfigurierbare Time-to-Live der Objekte für das automatische Löschen

Dokumentation

CloudCache unterstützt derzeit die Programmiersprachen Ruby, Java, PHP und Python sowie eine Raw REST API. Um den Einstieg zu erleichtern existiert eine separate Dokumentationsseite auf der die ersten Schritte für den Umgang mit CloudCache erklärt werden.

Preise

  • $0.05/MB
  • 10 MB Cache frei bis zum 1.November 2010
  • Keine Vertragslaufzeit
  • Keine Einrichtungsgebühr
  • Abrechnung nach dem tatsächlichen Verbrauch
  • Monatliche Abrechnung

Demo Video

http://vimeo.com/7105046

Quelle

  • CloudCache


Cloud Computing – Ein einleitender Überblick

Der Begriff Cloud Computing prägt seit nun mehr zwei Jahren das Bild der Informationstechnologie um Dienste und Infrastrukturressourcen über das Internet zu vermieten. Gartner sieht in Cloud Computing den Hype - siehe Graphik und prophezeit, dass es sich in den kommenden zwei bis fünf Jahren etabliert und die Welt der Informationstechnologie grundlegend verändern wird.

Die Idee IT-Ressourcen zu mieten anstatt diese zu kaufen ist allerdings nicht neu und blickt auf eine
lange Geschichte zurück.

Cloud Computing verspricht kostengünstig und schnell IT-Ressourcen und Dienste zu beziehen, was zunehmend von den Großen der Internetbranche sowie Anbietern von Software as a Service Diensten, Hostingprodukten und Netz- und Infrastrukturen vorangetrieben wird. Letztendlich ist jedes dieser genannten Angebote aber nur ein Teil dieses großen Puzzles. Nur die (Teil-)Kombination aller genannten Angebote führt am Ende zum Cloud Computing.

Cloud Computing soll zu einer dauerhaften Verbesserung der Kostenstruktur durch Kostenreduktion führen, indem die benötigten Leistungen nur nach Bedarf genutzt und anschließend abhängig vom Verbrauch abgerechnet werden. Weitere Vorteile werden in der nachhaltigen Produktivitätssteigerung und Flexibilität einer Organisation gesehen. Aber auch die Anbieter von Cloud Computing Diensten können ihren Profit anhand einer besseren Auslastung ihrer Ressourcen und die Nutzung von Skaleneffekten steigern.

Neben hellen existieren aber auch immer dunkle Wolken. Sicherheit, Datenschutz(!) und Qualitätssicherung sind Themen denen sich Anbieter von Cloud Computing Diensten stellen und Lösungen finden müssen. Des Weiteren macht Cloud Computing für die Anbieter nur Sinn, wenn sie ihre Angebote, Abläufe und Prozesse standardisieren. Stellt sich die Frage, ob Unternehmen bereit sind, sich ihre Geschäftsprozesse und die IT-Infrastruktur bis ins kleinste Detail diktieren zu lassen und die Angebote der Anbieter überhaupt den Anforderungen der Unternehmen entsprechen.

Graphik:



Was ist ein Hypervisor?

Der Begriff Hypervisor setzt sich aus den griechischen Worten Hyper (deutsch: über) und Visor (lateinisch videre, deutsch: sehen) zusammen. Er wird auch als Virtual Machine Manager bezeichnet, der Hardware-Ressourcen dynamisch und transparent zuweisen kann, wodruch auf einer physikalischen Hardware mehrere Betriebssysteme parallel ausgeführt werden können. Die einzelnen Betriebssysteme sind so voneinander isoliert, dass sie die Existenz des jeweils anderen nicht kennen. Dadurch wird jedem System suggeriert, dass es alleine über die vollständigen Ressourcen wie Prozessorleistung, Arbeitsspeicher, Festplattenspeicher etc. der darunter liegenden physikalischen Hardware verfügt. Der Hypervisor ist für die Kontrolle des Prozessors und aller Ressourcen zuständig, und weist diese den jeweiligen Betriebssystemen (Gastsysteme, Virtual Machines) je nach Bedarf zu. Weiterhin sorgt er dafür, dass die einzelnen Gastsysteme ungestört voneinander arbeiten können und sich nicht gegenseitig während des Betriebs stören.

In den meisten Fällen wird ein Hypervisor noch vor dem eigentlichen Betriebssystem auf der physikalischen Hardware installiert. Da seine einzige Aufgabe darin besteht Virtualisierungsfunktionen bereitzustellen, ist er sehr Schlank aufgebaut. Er verfügt über spezielle Administrationssschnittstellen mit denen die Gastsysteme später installiert werden können und weitere Schnittstellen die ihn von den Gästen strikt trennen.

Ein Hypervisor arbeitet transparent und flexibel. Daher ist er in der Lage im Prinzip jedes Betriebssystem sei es Windows, Linux, Mac OS, etc. auszuführen. Aktuelle Hypervisor verfügen mittlerweile über eine Performanz, die mit einer direkten Installation des Gastbetriebssystems auf der physikalischen Hardware vergleichbar ist.

Es werden zwei Typen (Typ1, Typ2) von Hypervisorn unterschieden.

Typ 1

Ein Hypervisor vom Typ1 wird direkt auf der darunter liegenden physikalischen Hardware ausgeführt. Von dort aus kontrolliert er die Hardware Ressourcen und überwacht die Gastbetriebssysteme, die auf (über) ihm installiert werden.

Aktuelle Hypervisor vom Typ1 sind VMware ESX Server, Microsoft Hyper-V, IBM POWER Hypervisor (PowerVM), IBM System z Hypervisor (PR/SM), Xen, Citrix XenServer, Oracle VM Server und Parallels Server.

Typ 2

Ein Hypervisor vom Typ2 wird, wie eine gewöhnliche Software, auf einem Betriebssystem ausgeführt, dass auf der physikalischen Hardware installiert ist. Die Gastbetriebssysteme werden anschließend auf (über) ihm installiert und ausgeführt.

Aktuelle Hypervisor vom Typ2 sind VMware Server (GSX), VMware Workstation, VMware Fusion, QEMU, Microsoft Virtual PC, Microsoft Virtual Server, VirtualBox, Parallels Workstation und Parallels Desktop



Deutschland bei Cloud-Services Adaption ganz vorne dabei.

Laut einer Umfrage von Sterling Commerce mit 300 europäischen CIOs planen davon ca. 72% aus Deutschland, Frankreich und Großbritannien für 2010 in Cloud-Services aus dem Bereich Business-to-Business Integration zu investieren. Betrachtet man nur Deutschland alleine sind es sogar schon 87%.

Gründe für die Adaption sind:

  • Verringerung der Kosten bzgl. der Optimierung für den Einsatz des IT-Personals und weiterer Aufwendungen (55%, Deutschland 57%).
  • Einsparungen durch die Verringerung von manuellen Prozessen (35%, Deutschland 40%).
  • 1/3 aller Befragten erhoffen sich einen besseren Überblick über die eigenen Business-to-Business Prozesse.

Quelle: CIO plus 4/2010 S. 7



Vorteile durch Desktop-Virtualisierung!

Was ist Desktop-Virtualisierung?

Im Vergleich zu klassischen Desktop-PCs werden virtuelle Desktops als virtuelle Maschinen wie eine zentral verwaltete Ressource betrachtet und im Rechenzentrum bereitgestellt. Das führt dazu, dass die Konfiguration und Verwaltung nicht mehr auf dem physikalischen Endgerät eines Benutzers stattfindet, sondern innerhalb der virtuellen Maschine.

Auf einem zentralen Rechner werden dabei mehrere individuelle Betriebssysteminstanzen für mehrere Benutzer zur Verfügung gestellt, wodurch jeder Benutzer in (s)einer eigenen virtuellen Umgebung arbeitet. Der Benutzer merkt nicht, dass seine Systemumgebung virtualisiert ist, da sich sein Gesamtsystem wie ein gewöhnlicher Desktop-PC verhält.

Es lassen sich drei Typen von virtuellen Desktops klassifizieren:

  • Standard Desktop
    Dabei handelt es sich um einen gewöhnlichen Desktop, der für alle Benutzer gleich aufgebaut und so ausgestattet ist, das Büroaufgaben damit ohne weiteres erledigt werden können.
  • Personalisierter Desktop
    Auf Basis von virtuellen Maschinen werden auf den Servern für jeden Benutzer individuell eingerichtete virtuelle Desktops bereitstellen, die dort zentral gepflegt und verwaltet werden. Die Anwender haben zudem die Möglichkeit selbständig Änderungen vorzunehmen.
  • High-End Desktop
    Wird eine enorme Leistung benötigt, erhält jeder Benutzer auf Basis von Blade PCs seine eigene Instanz im Rechenzentrum. Der Desktop wird dabei auf dem Blade PC ausgeführt, wodurch der Benutzer die vollständigen Ressourcen wie z.B. die Prozessorleistung alleine für sich nutzen kann.

Vorteile und Nutzen der Desktop-Virtualisierung

Durch die Trennung des Desktops von dem physikalischen Endgerät kann die Administration zentral auf einem Server vorgenommen werden, womit der Wartungsaufwand reduziert wird, da die Installation, Konfiguration und Aktualisierung nicht mehr vor Ort vorgenommen werden muss. Speziell im Falle von Migrationen stehen hier enorme Zeitvorteile im Vordergrund. So kann z.B. in kurzer Zeit die Umstellung auf eine neue Betriebssystemversion vorgenommen werden.

Weiterhin können die Kosten für die Client-Hardware gesenkt werden. Aktuelle Windows Betriebssysteme benötigen performante und damit kostspielige Endgeräte. Durch die Virtualisierung des Desktops können entweder ältere Endgeräte oder Thin Clients eingesetzt werden, die zudem stromsparend und wartungsarm sind. Laut einer IDC Kundenbefragung können die Kosten, im Vergleich zu herkömmlichen Desktop PCs (Fat Clients), um ca. 600 Dollar pro Benutzer pro Jahr gesenkt werden.

Ein weiterer zu beachtender Punkt ist die Erhöhung der Sicherheit. Die Daten befinden durch die Desktop-Virtualisierung nicht mehr lokal auf den Endgeräten, sondern werden zentral auf den Unternehmensservern gespeichert. Somit werden die Daten zusätzlich in die zentralen Datensicherungsmechanismen eingegliedert und der Zugriff auf die Daten wird zentral gesteuert. Die Compliance kann ebenfalls unternehmensweit verbessert werden, da die Installation von unerwünschter Software zentral unterbunden werden kann und es kann sichergestellt werden, dass die Daten im Rechenzentrum verbleiben.

In Unternehmen die mit wechselnden Arbeitsplätzen arbeiten, erhalten die Benutzer den Vorteil, immer über ihre eigene tatsächliche Umgebung zu verfügen. Der Nachteil der "Roaming Profiles" besteht darin, dass die Installation & Konfiguration des Betriebssystems und der darauf installierten Software für jeden Benutzer, der an dem Rechner arbeitet, gleich ist. Im Falle der Desktop-Virtualisierung ist ein Benutzer damit (wirklich) nicht mehr an einen bestimmten Arbeitsplatz (Ort) gebunden.

Anforderungen & Herausforderungen der Desktop-Virtualisierung

Desktop-Virtualisierung ist kein Thema, dass kurzfristig umgesetzt werden kann, sondern bedarf einem gut durchdachten und ganzheitlichen Ansatz. Dazu gehören neben der Administration der virtuellen Desktops, ebenso die benutzerspezifische Anpassung und die Gewährleistung der Geschwindigkeit und Performanz. Letzteres ist vor allem kritisch zu betrachten, wenn ein Unternehmen über mehrere Standorte verteilt ist und der Zugriff über eine WAN-Verbindung stattfindet. Die Berücksichtigung der gesamten IT-Infrastruktur ist bei der Einführung und Implementierung von Desktop-Virtualisierung von enormer Wichtigkeit. Wozu eine ganzheitliche Betrachtung und ebenfalls Technologien zur Optimierung und Überwachung der WAN-Verbindungen und Performanz sowie des sicheren Zugriffs gehören.



Google Apps Marketplace

Mit dem Google Apps Marketplace hat Google kürzlich eine Plattform vorgestellt, auf der Softwarehersteller ihre eigenen Produkte auf Basis von Webservices anbieten können. Diese können vollständig einer Domain von Google Apps zugewiesen und vollständig in die Google Anwendungen wie Google Docs, Google Kalender, etc. integriert werden. Ein Vorteil besteht in der anschließenden Single-Sign-On Funktion sowie dem Zugriff auf bereits vorhandene Daten in der Domain. So kann z.B. ein CRM-System auf die Kontaktdaten zugreifen damit diese nicht erneut eingepflegt werden müssen.

Aktuell verfügt der Marketplace über Anwendungen aus den folgenden Bereichen:

  • Accounting & Finance
  • Calendar & Scheduling
  • Customer Management
  • Document Management
  • Productivity
  • Project Management
  • Sales & Marketing
  • Workflow

Speziell für den deutschen Markt hat Google eine Google Apps Trust Webseite eingeführt, auf der Benutzer weitere Informationen bzgl. Datenhaltung und Datensicherheit auf den Google Servern erhalten. Neben Details zum Safe-Harbour Abkommen, eine Datenschutz-Vereinbarung zwischen der Europäischen Union und den Vereinigten Staaten, kann man sich dort ebenfalls über die SAS-70-Zertifizierung, die Bestätigung eines Audits durch einen Wirtschaftsprüfer, erkundigen.

Quelle



IBM Smart Business Services

Mit den IBM Smart Business Services bietet IBM standardisierte Services auf Basis der IBM Cloud oder Private-Cloud-Services die von IBM verwaltet werden. Zu dem Leistungsumfang gehören u.a. das Infrastrukturdesign, die Beachtung einer hohen Verfügbarkeit sowie Sicherheitsimplementierungen.

Zwei bereits definierte und veröffentlichte Angebote sind das Development und Test Workload Angebot, dazu gehört die IBM Smart Business Test Cloud und das Desktop Workload Angebot, zu welchem die IBM Smart Business Desktop Cloud gehört.

IBM Smart Business Test Cloud

Bei der IBM Smart Business Test Cloud handelt es sich um eine Privat Cloud die auf die Technologien und Konzepte der IBM Public Cloud basiert. Mit der IBM CloudBurst Hardware wird dazu die Implementierung und das Management der Cloud vorgenommen, um die vorhandene Infrastrukturen mit der IT-Topologie innerhalb der Cloud zu verbinden. IBM verspricht damit Einsparungen bei den Kapital- und Lizenzierungskosten von bis zu 75%, sowie eine Kostenreduzierung der Betriebs- und Personalkosten um bis zu 50%. Weiterhin sollen mit standardisierten und einfach bereitzustellenden Services Softwaremängel reduziert werden, die auf Grund von fehlerhaften Konfigurationen und mangelhafter Modellierung entstehen.

Funktionen und Vorteile der IBM Smart Business Test Cloud

  • Reduzierung von Personalkosten für Konfiguration, Betrieb und Überwachung durch automatisierte Self-Service-Bereitstellung.
  • Risikominderung und Verbesserung der Qualität durch ein vereinfachtes Management
  • Verringerung der Lizenzkosten.
  • Effektiverer Kapitaleinsatz und flexible Skalierung durch Virtualisierung.

IBM Smart Business Desktop Cloud

Mit dem IBM Smart Desktop Cloud können Benutzer mit einem Thin Client oder eines Desktop-PCs mit Java™ und einem Web-Browser eine Verbindung zu einem Betriebssystem (virtuelle Maschine) auf einem zentralen Server herzustellen. Als Betriebssysteme können Windows oder Linux verwendet werden, deren Desktopumgebungen vollständig standardisiert sind und als Image vorliegen.

Funktionen und Vorteile der IBM Smart Business Desktop Cloud

  • Schnelle Skalierung der IT-Infrastruktur.
  • Steigerung des Return-on-Investment (ROI) und Reduzierung des Total Cost of Ownership (TCO, Gesamtbetriebskosten), durch flexibleren Betrieb und Energieeinsparungen.
  • Abrechnung der Betriebskosten nach dem tatsächlichen Bedarf.

Quelle

  • IBM Smart Business Services


IBM Smart Business Systems

Mit den Smart Business Systems stellt IBM integrierte Plattformen für die Servicebereitstellung inkl. Managementfunktionen für Hardware, Speicher, Netze, Virtualisierung und Services bereit, mit denen Lastoptimierte Systeme aufgesetzt werden können.

Zu den aktuellen Angeboten gehören die IBM CloudBurst™ Family (IBM CloudBurst 1.1) und die WebSphere CloudBurst Appliance.

IBM CloudBurst™ Family

Bei der IBM CloudBurst™ handelt es sich um ein IBM Service Management-Paket, mit dem die vorhandene IT-Infrastruktur erweitert werden kann. Dazu zählen Hardware-, Software- und Service-Lösungen für den Einsatz einer Private Cloud.

IBM CloudBurst 1.1

IBM CloudBurst 1.1 bietet auf Basis der IBM BladeCenter®-Plattform bereits vorinstallierte und integrierte Management-Funktionen für die Verwaltung der Hardware, Middleware und vorhandener Applikationen.

Funktionen und Vorteile der IBM CloudBurst 1.1

  • Schnellere Wertschöpfung durch bereits vorinstallierte und vorkonfigurierte Umgebung.
  • Flexibilität auf Basis einer skalierbaren Plattform.
  • Self-Service-Portal zur schnellen Bereitstellung von Cloud-Services.
  • Eine zentrale Schnittstelle zur Verwaltung physischer und virtueller Workloads und Systeme.
  • Verringerung des Ausfalls des Gesamtsystems durch mehrere Redundanzebenen.
  • Steigerung der Energieeffizienz durch die Möglichkeit des aktiven Managements des Stromverbrauchs der BladeCenter.

WebSphere CloudBurst Appliance

Mit der IBM WebSphere CloudBurst Appliance kann auf virtuelle WebSphere-Images zugegriffen werden, um das Erstellen, Implementieren und Management von Anwendungsumgebungen in einer Private Cloud vorzunehmen.

Funktionen und Vorteile der WebSphere CloudBurst Appliance

  • Verringerung der Einrichtung von WebSphere-Umgebungen
  • Vordefinierte Muster und virtuelle Images
  • Überwachung der Nutzung zur Leistungsverrechnung (Abrechnung der tatsächlichen Nutzung) durch Managementberichte

Quelle

  • IBM Smart Business Systems


Was sind Application Service Provider?

Als die indirekten Nachkommen der Service Bureaus gelten die Application Service Provider. Application Service Provider sind Dienstleister, die über eine Datenverbindung Anwendungssoftware wie z.B. ein CRM-System (Customer Relationship Management) anbieten, das von einem Kunden gegen eine Nutzungsgebühr gemietet werden kann - siehe Graphik. Der Vorteil für den Kunden besteht darin, dass er sich nicht mehr um die Administration der Software wie z.B. eine tägliche Datensicherung oder das Einspielen von Updates kümmern muss. Die Software befindet sich innerhalb der Infrastruktur auf den Servern des Application Service Providers, der sich um die gesamte Maintenance, was auch die Betreuung der Endbenutzer beinhalten kann, kümmert. Bekannte Anwendungen, die über einen Application Service Provider gemietet werden können, sind z.B. Office Suites, E-Mail Lösungen, CRM-System oder ERP-Systeme (Enterprise Resource Planning).

In der Anfangszeit der Application Service Provider gab es immer wieder Schwierigkeiten bei der Umsetzung dieses Modells, da die zu der Zeit vorhandene Hardware und die Telekommunikationstechnologie nicht leistungsfähig genug und die Mandantenfähigkeit der Software nicht gegeben war.



Was sind Service Bureaus?

Ein auf das Utility Computing aufbauendes und daher ebenfalls aus den 1960er stammendes Geschäftsmodell sind die so genannten Service Bureaus. Die Idee der Service Bureaus bestand darin, die eigenen Ressourcen wie z.B. Computer oder Mitarbeiter für andere Unternehmen gegen eine Gebühr zur Verfügung zu stellen. Weitere Dienstleistungen, die durch Service Bureaus übernommen wurden waren, u.a. die Bereitstellung von Speicherplatz, Datenverarbeitung, individuelle Programmierung, Mietsoftware, die auf den Systemen des Service Bureaus betrieben wird, aber auch Bereiche wie Desktop Publishing oder Bildverarbeitung gehörten zum Angebot. Um eine große Anzahl von Kunden zu erreichen und damit Skaleneffekte zu erzielen, wurden die Dienstleitungen zu Produkten zusammengefasst. Für die Verbindung von den Kunden zu den Service Bureaus wurden einfache Wählverbindungen oder private Mietleitungen verwendet.



Nutzung des Google Apps Marketplace

Dieses kleine How to erklärt wie der Google Apps Marketplace in Verbindung mit einer Google Apps Domain genutzt werden kann. Dazu installieren wir das Social Productivity, Project Management & Task Management Manymoon.

Voraussetzungen

  • Google Apps Account
  • Sprache: Englisch (US)

Installation des Webservice Manymoon

Zunächst melden wir uns an der Google Apps Management Console an und wählen dort den Punkt Add more services.

Dort sehen wir den Bereich Other services, wir wählen Google Apps Marketplace.

Auf der linken Seiten unter Product wählen wir die Kategorie Project Management.

Hier entscheiden wir uns für Manymoon: Free Social Productivity, Project Management & Task Management.

Wir klicken auf der rechten Seiten auf den Button Add it now.

Und geben dort unsere Google Apps Domain an.

Wir bestätigen im nächsten Schritt die Nutzungsbedingungen.

Nun müssen wir der Anwendung ihre benötigten Rechte für den Zugriff auf unserer Google Apps Domain gewähren.

Und können anschließend die Anwendung aktivieren.

Am Ende erhalten wir eine Zusammenfassung über den Status der Anwendung sowie aller gewährten Zugriffsrechte.

Über den Link Sign in now to get started rufen wir die Anwendung das erste Mal auf.

Ein Blick auf die Startseite unserer Google Apps Management Console zeigt, dass die Anwendung unserer Google Apps Domain zugewiesen wurde.



IBM LotusLive

LotusLive ist das Software as a Service Angebot von IBM, mit dem Unternehmen integrierte Services für die Kollaboration sowie das Social Networking zur Verfügung stehen. Über den Web-Browser stehen Dienste wie E-Mail, Instant Messaging, Webkonferenzen und weitere Tools für die tägliche Zusammenarbeit und die Interaktion mit Kunden und Geschäftspartnern bereit.

LotusLive unterscheidet derzeit die Produkte Meetings, Events, Connections, Engage, Notes und iNotes, deren Funktionsumfang dieser Artikel jeweils vorstellt.

Dashboard

LotusLive Engage

Bei LotusLive Engage handelt es sich um eine vollständig integrierte Collaboration Suite, die Funktionalitäten für Webkonferenzen und Kollaborationen beinhaltet. Dazu zählen die gemeinsame Bearbeitung von Dateien, sowie das Instant Messaging und die Verwaltung von Aktivitäten. Mittels Web-Meetings können soziale Onlinenetzwerke aufgebaut werden, zu denen zusätzlich Gäste (z.B. Kunden, Geschäftspartner) eingeladen werden können.

Web Meetings

Mit Web Meetings können persönliche Web-Konferenzräume online aufgebaut werden. Zu den Funktionen gehören das Desktop- und Applikation-Sharing, Abstimmungen, Q&A-Chats, Videoübertragungen und SSL-Verschlüsselung.

Besprechungen

Mein Netzwerk

Über Mein Netzwerk können sämtliche Kontakte verwaltet und mit diesen darüber kollaboriert werden. Zu den Funktionen gehören der Zugriff auf Profile, das Hinzufügen, Importieren und Verwalten von Kontakte, Gruppierungsmöglichkeiten und Tagging sowie das Herstellen von Verbindungen innerhalb des Netzwerks.

Dateien

Mit Dateien steht ein Bereich für das Speichern und gemeinsame bearbeiten von Dokumenten, Präsentationen etc. online zur Verfügung. Da der Zugriff über den Web-Browser stattfindet, sind die Dateien überall verfügbar, vorausgesetzt eine aktive Internetverbindung ist vorhanden. Zu den Funktionen gehören die die Onlinespeicherung, gemeinsame Bearbeitungsmöglichkeiten, Möglichkeiten der Versionierung und Kommentierung, Tagging zu Suche und Filterung von Inhalten, Gruppierung von Dateien und eine SSL-Verschlüsselung.

Dateien

Aktivitäten

Aktivitäten ist ein Bereich zur Steuerung von Aufgaben, der Verwaltung von Projekten und dem Brainstorming für Teams. Zu den Funktionen gehören Tools für das Projektmanagement, Vorlagen, Markierung von unerledigten Aufgaben, Festlegen von Terminen, Priorisierung, Tagging und Kommentare sowie eine automatische Benachrichtigung an die Benutzer.

Aktivitäten

Formulare

Formulare dient der Unterstützung zum Erstellen und Veröffentlichen von Umfragen und Formularen. Zu den Funktionen gehören das erstellen von Kundenumfragen, Veröffentlichung über E-Mail, automatischea Benachrichtigungen und das erstellen von Antwort in dynamischen Diagrammen.

Formulare

Diagramme

Diagramm hilft bei der Visualisierung von unformatierten Daten mittels Balkendiagramme, Kurvendiagramme, Kreisdiagramme, Schlagwortwolken, Baumdiagramme oder Blasendiagramme. Zu den Funktionen gehören eine automatische Aktualsierung, Download und Versionierung und Kommentierung.

Diagramme

Instant Messaging

Instant Messaging dient zur Echtzeitkommunkation (Chat) mit Geschäftspartner, Kunden und Kollegen. Darüber hinaus können während einer Chat-Sitzung Dateien, Fotos, URLs und Screenshots gemeinsam verwendet werden. Zu den Funktionen gehören Rich Text und Emoticons, eine gemeinsame Foto- und Dateinutzung, sowie ein End-to-End-Verschlüsselung.

Instant Messaging

LotusLive Connections

LotusLive Connections bietet webbasierte Services zur Kollaboration und zum Social Networking. Der Funktionsumfang von LotusLive Connections ist etwas kleiner als der von LotusLive Engange und stellt mit Mein Netzwerk, Dateien, Aktivitäten und Instant Messaging eine kleine Teilmenge zur Verfügung.

LotusLive Meetings

LotusLive Meetings bildet ebenfalls eine Teilmenge von LotusLive Engage ab, konzentriert sich im Kern aber auf den Bereich der Webkonferenzen. Funktionen von LotusLive Meetings sind u.a. eine Videoübertragung, Abstimmungsmöglichkeiten und Anmerkungsfeatures.

LotusLive Events

LotusLive Events stellt Online Services zur Verfügung, mit denen Ereignisse (z.B. Konferenzen von LotusLive Meeting) verwaltet und gesteuert werden können. Weiterhin können damit Registrierungen eingerichtet und verwaltet, sowie eine Analyse nach dem Event durchgeführt werden.

Funktionen

  • Einladungsvorlagen
  • Automatisierte E-Mail-Ankündigung
  • Registrierungsverwaltung
  • Ereignistest
  • Ereigniszusammenfassung und -protokoll
  • Exportieren von Registrierungsinformationen für zukünftige Ereignisse
  • SSL-Verschlüsselung
  • Unterstützung von mehreren Browsern und Plattformen

LotusLive Notes

LotusLive Note ist die durch IBM gehostete E-Mail und Instant Messaging Lösung für Unternehmen. Mitarbeiter können damit jederzeit und an jedem Ort mit einer aktiven Internetverbindung auf die Ressourcen des Unternehmens zugreifen.

Kontakte

Funktionen

  • Zentraler Zugriff auf E-Mails, Kalender, Kontakte und mehr
  • Volltextsuche, Delegierung, E-Mail-Filterung und -Sortierung, Gespächsansichten und Markierungen
  • Anpassbare Widgets, die bestimmte Textmuster in Lotus Notes-Dokumenten erkennen können
  • Verschlüsselung für Datenaustausch im Netz und für den lokalen Festplattenspeicher
  • Erweiterte Replikationstechnologie
  • Zwei Service-Level-Agreement-Optionen
  • Spam- und Virenfilterung sowie Sicherungs- und Wiederherstellungsservices
  • Unterstützung durch ein dediziertes IBM Team

LotusLive iNotes

LotusLive iNotes ist die webbasierte schlanke E-Mail und Kalenderverwaltung für Unternehmen, mit der Mitarbeiter über einen Web-Browser Zugriff auf ihre Daten haben.

Funktionen

  • Webmail-Services POP3, IMAP4 und SMTP mit Authentifizierung
  • Kalender mit Ereigniserinnerungen und Ansichten für Arbeitstage
  • Spamschutz- und Virenschutzfeatures
  • SSL-Verschlüsselung
  • Sichere Kennwortwiederherstellung
  • Webmail, Kontakte und Kalender
  • Support für mobile Endgeräte über IMAP IDLE
  • 1 GB Speicher pro Benutzer
  • Verwaltungstools für Benutzeraccounts

Preise und Vergleich

Demos

Quelle



Was ist Virtualisierung?

Auf einer abstrakten Ebene ist Virtualisierung für die Emulation und Simulation von Hardware-Ressourcen zuständig und entkoppelt in diesem Zusammenhang die Computer-, Speicher- und Netzwerk-Hardware von dem darauf ausgeführten Betriebssystem (Software), wodurch eine virtuelle Infrastruktur geschaffen wird. Unternehmen erhalten dadurch die Möglichkeit ihre Infrastrukturkosten zu senken und können schneller auf wechselnde Anforderungen reagieren. Wird zum Beispiel ein zentrales SAN (Storage Area Network) für das gemeinsame Speichern von Daten genutzt, führt das zur Verbesserung des ROI (Return on Investment).

Schauen wir uns das Thema Virtualisierung im Kern genauer an, handelt es sich dabei um das Bereitstellen von Hardware-Ressourcen auf einer physikalisch vorhandenen Maschine für ein oder mehrere voneinander vollständig getrennte Gastsysteme, die auf dieser physikalischen Maschine (Wirtsystem) parallel ausgeführt werden. Die Gastsysteme (virtuelle Maschinen) teilen sich die Ressourcen des Wirtsystems, wissen aber gegenseitig nichts von ihrer Existenz.

Einsatz und Nutzen von Virtualisierung

Für Virtualisierung kommen verschiedene Einsatzgebiete in Frage. Ein Bereich ist das Einsparen von Energie und Ressourcen oder die Erhöhung der Serverauslastung, um Rechenzentren effizienter zu betreiben. Dazu werden mehrere physikalische Server in virtuelle Maschinen migriert, um diese anschließend auf einem einzigen physikalischen Server zu konsolidieren.

Virtualisierung führt u.a. zu folgenden Nutzen/ Vorteilen:

  • Hardwareunabhängigkeit auf Grund der Virtualsierungsebene.
  • Verringerung der Administrations- und Serverwartungskosten.
  • Optimierung des Platzbedarfs.
  • Verbesserung der Ausfallsicherheit und des Disaster Recovery auf Grund von Clustering Möglichkeiten innerhalb der virtuellen Systeme.
  • Verbesserung des Energieverbrauchs und der Wärmeentwicklung (z.B. USV, Klimaanlage).
  • Verbesserung der Wirtschaftlichkeit auf Grund der besseren Serverauslastung (Hardware).
  • Erhöhung und Verbesserung der Flexibilität und Skalierbarkeit.
  • Zeit- und Kostenminimierung für den Aufbau von Serverlandschaften und komplexen Testumgebungen.
  • Ab Infrastrukturen mit drei Server erhöht der Einsatz von Virtualisierungstechnologien die Effizienz.

Virtualisierungsarten

Aktuell existieren einige unterschiedliche Virtualisierungstechnologien auf dem Markt, die ich im Folgenden vorgestellt werden.

Systemvirtualisierung

Eine Systemvirtualisierung bietet die Möglichkeit mehrere Betriebssysteme auf derselben Hardware parallel auszuführen. Dabei werden zwei Systeme unterschieden. Zum einen das virtualisierte System, dass auch Gastsystem genannt wird und zum anderen das Hostsystem, auf dem das Gastsystem ausgeführt wird und welches direkt mit der Hardware kommuniziert.

Hardware-Virtualisierung (Full-Virtualisierung)

Die Hardware-Virtualisierung ist eine Untermenge der Systemvirtualisierung. Dabei kann ein Gastsystem, ohne Änderungen an seinem Betriebssystemkernel, direkt innerhalb einer virtualisierten Umgebung ausgeführt werden.

Paravirtualisierung

Die Paravirtualisierung ist ein Spezialfall der Systemvirtualisierung. In diesem Fall sind Anpassungen am zu virtualisierenden Betriebssystem notwendig, da eine direkte Schnittstelle zur darunter liegenden Hardware benötigt wird. Der Vorteil besteht in der höheren Performance, da die virtuelle Maschine direkt mit der Hardware kommuniziert.

Anwendungsvirtualisierung

Mit der Anwendungsvirtualisierung lassen sich einzelne Anwendungen mit einer Virtualisierungsschicht vom sich darunter befindenden System entkoppeln. Damit wird eine spezielle Umgebung für die virtualisierte Anwendung geschaffen. Diese Umgebung muss nicht abhängig von der Umgebung des Hosts sein, wodurch auch Anwendungen genutzt werden können, die nicht mehr von dem Hostsystem unterstützt werden.

Netzwerk-Virtualisierung

Netzwerk-Virtualisierung wird genutzt, um logische Teilnetze (Virtual Local Area Networks, VLANs) innerhalb eines physikalischen Netzwerks oder eines Switches aufzubauen. Das VLAN unterteilt ein physikalisches Netz in einzelne (logische) Teilnetze, indem die Datagramme eines VLANs nicht in ein anderes übertragen werden, auch wenn die Teilnetze mit gemeinsam genutzte Switches verbunden sind.




Einrichten eines Proxy Server mit der Google App Engine

Im Internet findet man viele Skripte die dabei helfen einen Proxy Server auf Basis von PHP zu erstellen. Einziger Nachteil ist, dass dafür ein eigener Webserver benötigt wird, um die Skripte zu hosten sowie eine eigene Domain, um den Proxy zu adressieren. Amit Agarwals beschreibt auf seinem Blog http://www.labnol.org wie man in 5 Minuten seinen eigenen kostenlosen Proxy Server unter Verwendung der Google App Engine einrichtet.

Dieser Artikel beschreibt, wie dabei vorzugehen ist.

Schritt 1: Google App Engine Account

Wenn nicht schon vorhanden muss zuerst ein Google App Engine Account eingerichtet werden. Dazu gehen wir auf http://appengine.google.com

Schritt 2: Erstellen der Application

Hier klicken wir auf "Create an Application". Sollte dieses die erste Applikation sein, die für diesen Account erstellt wird, erhalten wir einen Verifizierungscode an unsere hinterlegte Mobilfunknummer. Diesen tragen wir in das dafür vorgesehene Feld ein.

Schritt 3: Auswahl einer Sub-Domain

Als nächstes wählen wir einen für die Sub-Domain, um den Proxy-Server zu adressieren. Die Sub-Domain entspricht dabei außerdem der App ID die als eindeutiger Identifier für die spätere Proxy Anwendung dient. In diesem Beispiel wird als Sub-Domain der Name labnol-proxy-server verwendet.

Schritt 4: Herunterladen von Python

Es ist soweit alles vorbereitet, um die Anwendung für den Proxy Server zur Google App Engine hochzuladen. Zunächst wird aber Python benötigt, dass wir uns unter http://python.org herunterladen und installieren.

Schritt 5: Installation des Google App Engine SDK

Als nächstes laden wir uns das Google App Engine SDK for Python von http://code.google.com herunter und installieren es.

Schritt 6: Herunterladen der Proxy Server Applikation

Mit http://img.labnol.org/files/proxy.zip steht bereits eine fertige Proxy Server Applikation bereit. Diese kann unter den oben genannten Link heruntergeladen werden und wird auf unserem Rechner entpackt.

Schritt 7: Einstellungen für die Google App Engine vornehmen

Unter der Einstellungen der Google App Engine müssen folgende Einstellungen vorgenommen werden.

Schritt 8: Anwendung der Google App Engine hinzufügen

In der (lokalen) Google App Engine klicken wir auf "File >> Add Exisiting Application" und wählen die Anwendung aus, die wir in Schritt 6 heruntergeladen haben. Unter "Edit" muss "YOUR_APP_ID" noch gegen die eigene in Schritt 3 erstellte Sub-Domain ausgetauscht werden.

Schritt 9: Deployment der Proxy Server Applikation

Mit dem Button "Deploy" kann die Anwendung veröffentlicht und genutzt werden.

Durch das Ändern der main.html kann aus Aussehen der Webseite des Proxys geändert werden. Zusätzlich können Google Analytics and AdSense hinzugefügt werden. Wurden Änderungen vorgenommen, reicht ein Klick auf den Button "Deploy" oder der Befehl -- appcfg.py update

Beispiel Live

Unter http://labnol-proxy-server.appspot.com kann der Proxy Server auf Basis der Google App Engine Live getestet werden.

Video Tutorial

Amit Agarwals hat zusätzlich ein Video veröffentlicht, in dem die oben beschriebene Vorgehensweise nachvollzogen werden kann.

http://www.youtube.com/watch?v=3f6Zq4prys0

Quelle



Was ist Utility Computing?

Bereits 1961 definierte Prof. John McCarthy das Time Sharing von Ressourcen wie z.B. die Nutzung von Rechnerleistung oder Anwendungen als Geschäftsmodell. Er stellte sich dabei vor, diese Ressourcen der Öffentlichkeit als ein Public Utility zur Verfügung zu stellen, also genau so, wie auch Strom, Wasser oder Gas bereitgestellt wird.

Der Begriff Utility Computing wird von Herbert Kircher in seinem Buch „IT: Technologien, Lösungen, Innovationen,“ wie folgt definiert: ’Utility Computing beschreibt eine grundlegende Transformation der Bereitstellung und des Managements von IT-Services - von einem technologieorientierten zu einem geschäftsorientierten Ansatz. Diese Umstellung erfordert eine äußerst flexible und effizient verwaltete dynamische IT-Infrastruktur mit vollständiger Kostenkontrolle, flexibler Kostenverrechnung und aktivem SLA-Management.’

Beim Utility Computing bekommt also ein ’Kunde’ von einem ’Serviceanbieter’ Rechenkapazität (Ressourcen) und die gesamte Infrastruktur inkl. dessen Management zur Verfügung gestellt. Dabei wird der Kunde nach dem Prinzip ’pay per use ’, also bezahle nur das, was Du tatsächlich verbrauchst, abgerechnet - was auch den entscheidenden Ansatz beim Utility Computing ausmacht. Für Utility Computing wird oft auch der Begriff ’On-Demand Computing’ (deutsch: in etwa ’rechnen auf Anfrage’) verwendet. Das Ziel von Utility Computing ist klar: Steigerung der effizienten Nutzung der Computerressorucen und das Senken der dabei anfallenden Nebenkosten (Strom, etc.).

Der große Vorteil von Utility-Computing ist eine bessere Wirtschaftlichkeit, da Unternehmen nur für die Computerressourcen bezahlen, die sie nutzen, wenn sie diese nutzen. Rechenzentren von Unternehmen sind in der meisten Zeit nicht ausgelastet. Server sind in der Regel im Durchschnitt mit 15% ausgelastet, sind also in 85% der Zeit im Leerlauf. Unternehmen statten ihre Rechenzentren grundsätzlich mit zu vielen Ressourcen aus. Dies ist auf der einen Seiten genau der richtige Ansatz, denn die Systeme müssen auch in Spitzenzeiten (z.B. Urlaubszeit bei einem Online Reiseveranstalter aber auch für unvorhersehbare Ereignisse) voll funktionsfähig sein und dürfen nicht plötzlich überlastet sein und ausfallen. Andererseits sind die Systeme für normale Zeiten total überdimensioniert. Um genau diese eben angesprochenen Spitzenzeiten abzufangen ist Utility Computing das richtige Konzept, da der Anbieter in der Zeit die (angemieteten Systeme) dynamisch vergrößern kann. Die Kosten sind in den normalen Zeit ’...relativ gering und konstant...’ und steigen nur während der Hochkonjunktur, da auch die Systeme wachsen.

Anbieter von Utility Computing Diensten profitieren von den Größenvorteilen ihrer Systeme, da sie dieselbe Infrastruktur nutzen können, um damit mehrere Kunden zu bedienen.

Wie im Grid Computing wird auch im Utility Computing der Begriff der Virtuellen Organisation verwendet, mit denen Organisationen Computer Ressourcen in dem Moment kaufen oder verkaufen, wenn diese gerade benötigt werden.



Was ist Grid Computing?

Die Charakteristiken von Computercluster sind das Bereitstellen von reiner Rechnerleistung in einem lokalen begrenzten Bereich. Die nächste Herausforderung bestand also darin, die Rechenleistung nicht nur lokal, sondern auch global verfügbar zu machen und neben der Rechenleistung z.B. auch Daten und Applikationen bereitzustellen.

Mitte der 1990er wurde der Begriff des Metacomputing als Möglichkeit zur Erweiterung von Paralleler Datenverarbeitung und Custer Computing eingeführt. Die Idee bestand darin, große Computersysteme über WAN-Leitungen (Wide Area Network) miteinander zu verbinden. Im Jahr 1997 wurden erstmals zwei Supercomputer des High Performance Computing Center Stuttgart (HLRS) und des Pittsburgh Supercomputing Centre (PSC) miteinander verbunden. Trotz der Verfügbarkeit von hohen Bandbreiten innerhalb der nationalen und internationalen Forschungsnetzwerke scheiterte das Experiment auf Grund der Latenz.

Das Metacomputing bezieht sich aber lediglich nur auf Computer (Rechenleistung) im Allgemeinen. Ian Foster und Carl Kesselman stellten im Jahre 1999 ein neues erweitertes Konzept mit dem Namen Grid Computing vor, das neben Computer auch andere Arten von (IT-)Ressourcen wie Software, Datenbanken, Rechenleistung, Speicherplatz oder spezielle Hardware beinhalten und miteiander vernetzen kann. Der Begriff des Grid wird abgeleitet aus dem englischen Wort Electrical Power Grid (Deutsch: Stromnetz), dessen Idee darin besteht, die Ressourcen den Benutzern so zur Verfügung zu stellen, als wenn sie den Strom aus der Steckdose bekommen würden. Dabei verfügt das Grid über standardisierte Schnittstellen, über die der Benutzer seine Anfragen übermitteln kann und ihm die Ressourcen dann automatisiert zugeteilt werden. Die Ressourcen sind dabei über das Internet verteilt und können unterschiedlichen ’virtuellen’ Organisationen angehören. Anhand der Schnittstellen kann der Status der Ressourcen abgefragt und diese direkt angesprochen werden. Ein entscheidender Vorteil liegt darin, dass der geographische Ort an dem sich die Ressource befindet nicht mehr von Bedeutung ist - siehe Graphik. Auf Grund des beliebigen und weltweiten Zugriffs auf Ressourcen über das Internet gilt das Grid als Generalisierung des World Wide Web. Davon abgeleitet steht die Technologie des Grid Computing somit als die Basistechnologie für die Koordination und Verarbeitung organisationsübergreifender Geschäftsprozesse und den gemeinschaftlichen Austausch und die Nutzung von Ressourcen.

Das entscheidende Ziel des Grid Computings bestand also darin, Ressourcen gemeinschaftlich global zu nutzen sowie diese zu koordinieren und darüber hinaus gemeinsam Probleme institutionsübergreifend in dynamischen virtuellen Organisationen zu lösen. Genauer bedeutet dies, dass zu Beginn Formalitäten wie das Abrechnungsschema und die Zugangsrechte geklärt werden und anschließend der Zugriff auf die Ressourcen wie z.B. Rechnerleistung oder Anwendungen für die gemeinschaftliche Nutzung bereitgestellt werden. Der Begriff der virtuellen Organisation beschreibt in diesem Fall eine dynamische Allianz von Organisationen, die ein gemeinsames Interesse während der Nutzung des Grids vertreten.

Arten von Grid Computing

Je nachdem wie die Ressourcen miteinander vernetzt sind und um was für ein Anwendungsszenario es sich handelt, können Grids in unterschiedliche Arten unterteilt werden. Nachfolgend werden fünf unterschiedliche Arten betrachtet.

  • Compute Grids
    Compute Grids werden verwendet um einem Benutzer Rechnerleistung bzw. Rechnerkapazität, die ihm in seiner eigenen Umgebung nicht zur Verfügung stehen, verteilt bereitzustellen. Das Bereitstellen kann hierbei eine derzeit nicht verwendete Ressource - z.B. eine Workstation außerhalb der Geschäftszeiten sein, oder aber auch ein Hochleistungclustersystem.
  • Data Grids
    Data Grids werden eingesetzt um große verteilte Datenmengen gemeinsam zu Nutzen und diese zu verarbeiten. Dabei wird eine sogenannte Data-Federation, eine organisationübergreifende Sicht auf alle Daten, die beispielsweise einem Projekt zugewiesen sind, definiert. Bei so einer Data-Federation handelt es sich um ein dezentral verwaltetes System, bei dem derjenige, der die Daten in dieser Umgebung zur Verfügung stellt auch die uneingeschränkte Kontrolle über diese Daten behält.
  • Application Grids
    Application Grids waren der erste Ansatz um virtuelle Organisationen zu etablieren und damit die organisationsübergreifende gemeinsame Nutzung von Ressourcen voranzutreiben. Die Betreiber der Grids sollten dadurch eine höhere Auslastung und die Benutzer ein besseres Angebot erfahren. Themen, die innerhalb dieses Grids auftreten, sind sichere und schnelle Datenverbindungen, Authentifikationen, Authorisierungen und Single-Sign-On sowie Accounting und Abbrechnungsmöglichkeiten.
  • Resource Grids
    Resource Grids sind die Erweiterung der Application Grids. Diese definieren ein Rollenmodell, in dem eindeutig zwischen einem Grid Benutzer, einem Grid Provider und einem Resource Provider unterschieden wird. Die Hierarchie ist logisch geordnert. Ein Grid Benutzer verwendet die Grid Infrastruktur des Grid Provider um die dort vorhandenen Ressourcen des Resource Providers zu nutzen. Für den Grid Benutzer unterscheidet sich die Funktionalität des Application- und des Resource Grids nicht. Das Konzept der beiden hat aber einen gravierenden Unterschied. Application Grids werden vertikal integriert, was bedeutet dass der Bedarf an Fremdleistungen sehr gering gehalten wird und die Komponenten individuell hinzugefügt werden. Dagegen müssen bei einem Resource Grid alle Schnittstellen definiert und offen gelegt werden, da jeder Ressource Provider über die Spezifikation der Grid Infrastruktur des Grid Providers informiert sein muss um dort ggf. seine Ressourcen anbieten zu können.
  • Service Grids
    Ein Service Grid verbindet das Konzept der Serviceorientierung mit der Technik der Resource Grids. Ein Service wird in diesem Zusammenhang als ein Bündel von mehreren Komponenten betrachtet, von dem jede einzelne Komponente wiederum als Utility von einem anderen Resource Provider zur Verfügung gestellt wird. In dieser Form des Grids existiert eine übergeordnete Form des Grid Providers, der so genannte Grid Service Provider, der im direkten Kontakt mit den Grid Benutzern steht und ihnen einen Komplettservice anbietet. Das bedeutet, dass der Grid Benutzer nicht darüber informiert ist, welcher Resource Provider ihm welche Ressource bereitstellt.


Enomalys – ECP Cloud Service Provider Edition

Mit der Enomaly Service Provider Edition steht eine von Enomaly auch "cloud in a box" genannte Plattform zur Verfügung, mit der Internetcarrier und Hosting Anbieter ihren Kunden Infrastructure as a Service Lösungen anbieten können.

Die Platform verfügt über eine Benutzerschnittstelle sowie eine REST API, mit der die Kunden die Verwaltung ihrer Cloud eigens vornehmen können. Ein weiteres Feature ist die "Theme Engine" mir der das Branding vom Internetcarrier oder Hosting Anbieter auf die jeweiligen Bedürfnisse angepasst werden kann. Weiterhin können mehrere Kunden eines Anbieters parallel auf einer einzigen Plattform verwaltet werden und ein Quota System sorgt für die gerechte Verteilung der Ressourcen. Die Plattform kann darüber hinaus in bereits bestehende Systeme für die Abbrechnung, Ressourcenversorgung und das Monitoring integriert werden.

Nach Angaben von Enomaly wird die Plattform derzeit von 15.000 Unternehmen weltweit eingesetzt.

Funktionen & Umgebung

Die Plattform verfügt u.a. über folgende Funktionen, die im weiteren Verlauf dieses Artikels jeweils kurz vorgestellt werden.

  • Managementkonsole für die Endkunden
  • Fernverwaltung
  • Flexible Hardware-Profile
  • Management für virtuelle Maschinen
  • Nutzungsabbrechnung
  • App Center
  • Virtual Private Cloud (Vlan)
  • Theme Engine
  • Gruppierung von virtuellen Maschinen

Managementkonsole für die Endkunden

Mit der Managementkonsole können Endkunden auf ihre virtuellen Maschinen zugreifen, diese verwalten und bekommen darüber die Fehlermeldungen des Systems angezeigt. Die Anbieter können mittels RSS Feeds die Inhalte entsprechend anpassen und darüber ihre eigenen Inhalte anzeigen.

Fernverwaltung

Mittels einer Remote Desktop Verbindung oder der Kommandozeile kann auf die virtuellen Maschinen zugegriffen werden, auch dann wenn keine Netzwerkverbindung nach Aussen hin besteht.

Flexible Hardware-Profile

Auf Basis von flexiblen Hardware Profilen können virtuelle Maschinen nach ihrer Bereitstellung durch den Endkunden angepasst und skaliert werden. Die Hochverfügbarkeit einer virtuellen Maschine wird dadurch garantiert, indem im Falle eines physikalischen Fehlers die virtuelle Maschine automatisch auf eine andere funktionsfähige Hardware übertragen wird.

Management für virtuelle Maschinen

Endkunden können entweder einzelne virtuelle Maschinen oder ganze Gruppen von virtuellen Maschinen weltweit und von jedem Rechner aus starten, stoppen und neu starten.

Nutzungsabbrechnung

Über die Nutzungsabbrechnung haben Endkunden einen Echtzeit-Überblick über die aktuell genutzen Ressourcen (virtuelle Maschinen, Arbeitsspeicher, CPUs und Speicherplatz) im Verhältnis zu den noch verfügbaren Ressourcen.

App Center

Mit dem App Center können Anbieter ihren Kunden bereits vor-konfigurierte Cloud Anwendungen, wie z.B. Betriebssysteme zur Verfügung stellen. Endkunden können aus den virtuellen Maschinen Images eines Anbieters virtuelle Maschinen erstellen und diese direkt ihrer Cloud hinzufügen, oder eigene virtuelle Maschinen verwenden.

Virtual Private Cloud (Vlan)

Für jeden Endkunden und dessen virtuellen Maschinen steht ein oder mehrere private VLANs zur Verfügung, die durch den Endkunden selber verwaltet werden können.

Theme Engine

Mit der Theme Engine kann jeder Anbieter das Branding, sowie das look & feel enstprechend seiner Bedürfnisse anapssen.

Gruppierung von virtuellen Maschinen

Mittels eines Tagging Systems (tags) können mehrere einzelne virtuelle Maschinen zu einer Gruppe von virtuellen Maschinen organisiert werden.

Quelle



Thin Clients

IT-Abteilungen leben neben einem erhöhten Kostendruck zusätzlich mit den Problemen der Sicherheit und der Aufrechterhaltung des IT-Betriebs.

Der in den letzten Jahren immer mal wieder aktuell gewordene und dann wieder verblasste Ansatz der Thin Client Nutzung kann der IT helfen diese Probleme zu bewältigen, verfügen Thin Clients doch gegenüber den klassischen Desktop PCs über einige Vorteile.

Zunächst sind Thin Clients - wie der Name schon andeutet - sehr einfach und weniger komplex als Desktop PCs. Das liegt zum einen an den geringeren und funktional beschränkten Hardwareressourcen, zum anderen an der eingesetzten Software. Die benötigte Software wird serverseitig betrieben, wodurch ein lokales "vollwertiges" Betriebssystem nicht benötigt wird. Diese beiden Kernpunkte sorgen dafür, das Thin Clients weniger sensibel bzgl. Fehler und Angriffe sind.

Von Desktop PCs wird heutzutage erwartet, dass sie 24/7 funktionsfähig sind. Dabei wird jedoch nicht bedacht, das nicht vorhersehbare Situationen, wie Hackerangriffe, der Ausfall der Hardware oder ganz einfach Benutzer dafür verantwortlich sind, das dem nicht so ist und niemand diese Erwartungen gewährleisten kann.

Speziell die Einflussnahme der Benutzer auf die Systemkonfiguration erhöht auf Thin Clients, durch das Beschränken oder vollständige entziehen der Rechte, die Systemstabilität und schützt den Benutzer und das gesamte Unternehmensnetzwerk vor Angriffen durch Viren, Würmer und jeglicher Form von Malware. Weiterhin wird die Stabilität und der Schutz erhöht, da Thin Clients ihre Anwendungen von einem oder mehreren zentralen Servern beziehen und nicht mehr - wie Desktop PCs - auf lokale Anwendungen und ein vollwertiges lokales Betriebssystem angewiesen sind.

Trotz hinreichender Anordnung speichern Benutzer ihre Daten generell auf der lokalen Festplatte und nicht wie gefordert auf die dafür vorgesehenen Netzlaufwerke, also auf den zentralen Servern. Nicht selten hört man von Fehlern der Festplatte die dazu führen, dass die Arbeit eines Tages in kurzer Zeit hinfällig war und erneut erledigt werden muss. Der Diebstahl der Daten sollte auch hier nicht außer acht gelassen werden. Auf der anderen Seite sind Benutzer in diesem Fall für Backups selber zuständig, was verständlicherweise gerne mal vergessen wird. Da Thin Clients über keine lokalen Daten verfügen, sind damit alle oben genannten Probleme hinfällig. Das Speichern der Daten erfolgt auf zentralen Servern, wo von ihnen jeden Tag automatisiert ein Backup vorgenommen wird. Dazu kommt, dass wenn keine lokalen Daten vorhanden sind, diese auch nicht gestohlen werden können. Zudem reicht es aus, Desktop-Firewall Konzepte serverseitig einzurichten, wodurch der Administrationsaufwand verringert wird.

Der letzte Themenbereiche behandelt die physikalische Sicherheit der Systeme. Werden Desktop PCs gestohlen, ist der Angreifer im schlimmsten Fall im Besitz unternehmenskritischer Daten (Festplattenverschlüsselung hin oder her). Thin Clients hingegen werden erst dann sinnvoll, wenn sie mit einem Server des Unternehmensnetzwerks verbunden sind und haben außerhalb des Unternehmens für den Angreifer keinen Nutzen. Auch der Diebstahl der Daten durch den Anschluss externer Geräte wie USB-Sticks oder USB-Festplatten oder das Übertragen von Viren etc. durch CDs stellt ein nicht zu verkennendes Problem dar. Der Zugriff kann bei Desktop PCs natürlich unterbunden werden. Das physikalische entfernen stellt sich jedoch als ziemlich schwierig und aufwendig dar. Fällt die Entscheidung daher auf Thin Clients, sollte mit den Gedanken gespielt werden sich gegen physikalische vorhandene USB-Ports und CD/DVD Laufwerke zu entscheiden.

All die oben beschriebenen Probleme der Desktop PCs können natürlich durch diverse Softwareangebote behoben werden. Jedoch verursachen diese wiederum Anschaffungs-, Installations- und Wartungskosten. Zudem ist die Verträglichkeit mit vorhandener (spezial)-Software nicht garantiert.

Erweitern wir den Thin Client Gedanken nun um das Thema Cloud Computing ist es durchaus vorstellbar, dass die Infrastruktur für die Terminalserver nun nicht mehr im eigenen Rechenzentrum steht, sondern als Appliance/Image oder einem Terminalserver in einer Cloud z.B. von Amazon, GoGrid oder einem anderen Anbieter gehostet wird. Ein Unternehmen müsste dann lediglich über die Hardwareressourcen (Thin Clients) und eine schnelle Internetverbindung verfügen. Das ist wohlgemerkt natürlich eine sehr abstrakte und ideale Sicht auf das Thema, die noch tiefer durchdrungen werden muss.

Quelle der Graphik

  • NetPoint


JungleDisk

JungleDisk ist das Cloud Storage Angebot von Rackspace Cloud. Dabei handelt es sich im Prinzip um eine Schicht (Applikation) zwischen dem Benutzer bzw. dem lokalen PC/Server und dem Speicherdienst Amazon S3 oder dem von Rackspace.

Die Daten können bei Amazon S3 dabei wahlweise in den USA oder Europa gespeichert werden, was sich in den Preisen und der Geschwindigkeit (Latenz/ Laufzeiten) wiederspiegelt. Die Preise der jeweiligen Angebote setzen sich aus einer festen Grundgebühr (in USD) plus dem tatsächlich genutzen Speicherplatz auf S3 zusammen. Der genutzte Speicherplatz wird dabei mit den bekannten Gebühren von Amazon S3 verrechnet. In diesem Fall ist daher auch ein Amazon AWS Account erforderlich. Man bezahlt also hier - abgesehen von der Grundgebühr - nur für den Speicherplatz, der auch wirklich genutzt wird.

Die Abbrechnung erfolgt vollständig über Amazon. Man erhält am Anfang des Monats eine Rechnung von Amazon über die Grundgebühr der JungleDisk. Die Rechnung über den genutzen Speicherplatzverbrauch findet über den Amazon AWS Account statt.

JungleDisk stellt als einer der wenigen Anbieter für die drei großen Betriebssysteme Windows, Linux und MAC native Clients zur Verfügung. Weiterhin kann der Zugriff auf die gespeicherten Daten mittels einer Weboberfläche oder des iPhones stattfinden.

Die Datenübertragung und die Daten selber sind mit einer 256 bit AES Verschlüsselung gesichert. Zusätzlich können die Buckets auf Amazon S3 mit einem weiteren Passwort geschützt werden.

JungleDisk ist, wie es auf dem ersten Blick erscheint kein reines Tools für das Backup in der Cloud. Daten können ebenfalls damit über mehrere Rechner synchronisiert werden, was die Kollaboration verbessert.

Im Folgenden werden die vier Angebote der JungleDisk, die sich in die Bereiche Business und Personal unterteilen, vorgestellt.


Business Class

Die Business Class besteht aus der Workgroup Edition und der Server Edition. Dabei ist die Workgroup Edition auf Desktop PCs von kleinen bis mittleren Unternehmen ausgerichtet, mit der Backups erstellt, sowie Daten ausgetauscht und synchronisiert werden können. Die Server Edition dient zum Backup eines Servers und verfügt über Möglichkeiten das System per Fernwartung zu verwalten.

Workgroup Edition

Mit der Workgroup Edition können Daten mittels "Master Accounts" zwischen mehreren Benutzer ausgetauscht und synchronisiert werden. Dabei werden Teamgrößen von 2 - 100 Mitgliedern unterstützt. Die Benutzer können damit auf einfache Weise miteinander zusammenarbeiten und haben Zugriff auf ihre Daten auch dann, wenn Sie gerade nicht mit dem Internet verbunden sind. Wenn eine Internerverbindung wieder vorhanden ist, werden automatische alle Änderungen mit der Cloud synchronisiert. Der Zugriff auf die Daten kann ebenfalls über eine Weboberfläche oder ein iPhone erfolgen. Zudem steht eine protable Version zur Verfügung, die von einem USB-Stick ausgeführt werden kann. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 4 USD pro Benutzer pro Monat + Gebühren von Amazon S3 (siehe unten)

Server Edition

Die Server Edition richtet sich an Windows und Linux Server. Mit ihr stehen im Prinzip unbegrenzte Speicherkapazitäten für Backups in der Cloud zur Verfügung. Die Abbrechnung erfolgt hier nach dem pay per use Modell, es entstehen also nur Kosten für den tatsächlich genutzten Speicherplatz.

Zur Verwaltung der Backups stehen Tools für Windows, Linux und Mac Clients zur Verfügung, die auch parallel auf unterschiedlichen Maschinen genutzt werden können. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt. Weitere Funktionen sind erweiterte Kompressionsmechanismen und die Möglichkeit der Deduplication.

Preise

  • 5 USD pro Server pro Monat + Gebühren von Amazon S3 (siehe unten)


Personal

Die Angebote aus dem Bereich Personal setzen sich aus dem Simply Backup und der Desktop Edition zusammen. Bei dem Simply Backup handelt es sich lediglich um die Möglichkeit automatisierter Backups, wobei die Desktop Edition Elemente der Workgroup Edition beinhaltet.

Simply Backup

Mit Simply Backup können die Daten auf einem Rechner zeitgesteuert und automatisiert auf Amazon S3 oder Rackspace gesichert und im Fehlerfall z.B. von der letzten Nacht oder der letzten Woche wiederhergestellt werden. Clients sind für Windows und Mac OS vorhanden. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 2 USD pro Monat + Gebühren von Amazon S3 (siehe unten)

Desktop Edition

Die Desktop Edition beinhaltet alle Funktionen des Simply Backup und bietet darüber hinaus die Möglichkeit die JungleDisk wie eine lokale Festplatte (als Netzlaufwerk) auf dem Computer einzubinden. Somit kann direkt von und auf diesem Netzlaufwerk gearbeitet werden. Weiterhin können ausgewählte Ordner mit der JungleDisk synchronisiert werden. Damit hat man die Möglichkeit seine Daten über mehrere Rechner hinweg zu synchronisieren, da sich die Daten zentral in der JungleDisk befinden und mit dem lokalen Rechner abgeglichen werden. Somit stehen auf jedem Rechner und an jedem Ort (vorausgesetzt eine Internetverbindung ist vorhanden) immer die aktuellen Daten zur Verfügung. Der Zugriff auf die Daten kann aber auch dann erfolgen, wenn gerade keine Internetverbindung vorhanden ist, da die Daten ebenfalls lokal gespeichert werden. Ist die Internerverbindung wieder vorhanden, werden automatische alle Änderungen mit der Cloud synchronisiert. Der Zugriff auf die Daten kann ebenfalls über eine Weboberfläche oder ein iPhone erfolgen. Es stehen Clients für Windows, Mac OS und Linux zur Verfügung. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 3 USD pro Monat + Gebühren von Amazon S3 (siehe unten)


Screenshots

Konfigurationsmenü

Auswählen der Dateien für das Backup

Backupvorgang

Activity Monitor

Wiederherstellen von Dateien

Verbindung zu einem Server herstellen


Amazon S3 Gebühren


Quelle