Cloud Computing Nutzen: High Performance Computing

Die Verarbeitung großer Datenmengen für die eine hohe Rechenleistung benötigt wird ist in den vergangenen Jahren stark angestiegen. Davon betroffen sind vor allem Unternehmen aus den Bereichen der Medizintechnik, Finanzdienstleitungen und Medien.

Für einzelne rechenintensive Projekte werden die Kapazitäten Infrastrukturen oftmals stark erweitert, da die bestehende Infrastruktur nicht leistungsfähig genug ist. Im schlimmsten Fall stehen zusätzlich nicht ausreichend finanzielle Mittel und Zeit zur Verfügung, um die Infrastruktur gemäß den Anforderungen anzupassen. Hinzu kommt der Aufwand zur Errichtung und dem Erweitern der Serverumgebungen und der damit verbundenen Beschaffung und Bereitstellung der Hard- und Software. Das Gewährleisten einer hohen Verfügbarkeit darf ebenso wenig vernachlässigt werden wie die Sicherheit der gesamten Umgebung. Weiterhin muss die Infrastruktur verwaltet (u.a. Zuweisung des Speichers, Konfiguration der Batchprozesse) werden um den Geschäftszweck zu erfüllen, was implizit dazu führt, dass die Mitarbeiter dementsprechend fortgebildet und verwaltet werden müssen.

Eine weitere Herausforderung ist die Verwaltung und Neuzuordung der Ressourcen nach dem erfolgreichen Beenden eines Projekts. Werden die verfügbaren Ressourcen nicht umgehend neuen Projekten oder Aufgaben zugewiesen, stehen diese nur rum und verursachen Kosten ohne einen Wertbeitrag zu liefern.

Mittels Cloud Computing können die Problematiken der oben genannten Punkte minimiert werden und Ressourcen für Projekte aus dem Bereich des High Performance Computing (HPC) bzw. Parallel Computing bedarfsgerecht und kosteneffizient bezogen werden.

Für die Verlagerung von HPC-Projekte in die Cloud eines Anbieters ist zu prüfen, wieviele Speicher- und Rechenkapazitäten zur Verfügung stehen und in welchem Zeitraum weitere benötigte Ressourcen für das Projekt hinzugefügt bzw. wieder freigegeben werden können. In diesem Zusammenhang steht weiterhin die Kostenfrage, also ob langfristige Verträge eingegangen werden müssen oder ob nur die Ressourcen abgerechnet werden, die auch tatsächlich genutzt wurden. Ein weiterer technischer Aspekt sind die verfügbaren Programmiersprachen und Modelle, die der Anbieter zur Verfügung stellt bzw. unterstützt.



openQRM ab sofort mit Service Level Agreements & Professional Services

Die openQRM Enterprise aus Köln bietet ihren Kunden und Nutzern von openQRM per sofort professionelle Service Level Agreements (SLA) auf Basis der Level Basic, Standard und Premium.

Durch die Einführung dieser SLAs setzt sich die openQRM Enterprise damit selbst das Ziel, hochqualitativen Support für die Cloud Computing Plattform openQRM zu liefern, wodurch Kunden direkten Kontakt mit dem openQRM Enterprise Support-Team herstellen können und weiterhin Zugriff auf einen Bug-Tracker erhalten.

Abgerundet werden die SLAs mit Professional Services, mit denen eine direkte Unterstützung bei der Einführung und der Lösung von Problemen mit openQRM geboten wird. Dazu gehören ebenfalls die regelmäßige Unterstützung durch das openQRM Enterprise Support-Team, um den einwandfreien Betrieb und die Wartung (Updates) von openQRM zu gewährleisten und die Entwicklung spezieller und spezifischer Funktionen und Anforderungen durch den Kunden.

Service Level Agreements

  • Vollständiges Zugriff auf das openQRM Enterprise Bug-Tracking System
  • Updates durch die openQRM Enterprise
  • Zertifizierung der openQRM Umgebung durch die openQRM Enterprise
  • openQRM Enterprise Newsletter
  • Monatliche Berichte inkl. Besprechung
  • Direkter Kontakt zum openQRM Enterprise Support-Team

Professional Services

  • Unterstützung der openQRM Umgebung auf Basis der eigenen Anforderungen
  • Automatische openQRM Updates
  • Entwicklung neuer Funktionen für openQRM - auch auf Basis eigener Anforderungen
  • Zertifizierung der openQRM Umgebung durch die openQRM Enterprise
  • openQRM Enterprise Newsletter

openQRM Updates ab sofort durch die openQRM Enterprise

Weiterhin wird die openQRM Enterprise die aktive Entwicklung von openQRM übernehmen, wodurch die Qualität und Innovation von openQRM weiter verbessert werden soll und wichtige Updates zeitnah veröffentlicht werden können.

Wichtig hierbei ist, dass die openQRM Enterprise alle Änderungen und Releases weiterhin auf dem Open-Source Repository von SourceForge.net zur Verfügung stellen wird, so dass jeder openQRM weiter frei nutzen kann.

Quelle

  • openQRM
  • openQRM Enterprise


Cloud Computing Nutzen: Externe E-Commerce Lösungen

Im Bereich des E-Commerce verfügen die meisten Unternehmen nicht über die Kernkompetenzen, ihren Anwendungen die notwendigen Eigenschaften für einen ganzheitlichen Handelsprozess zu etablieren. Dazu gehören der gesamte Zahlungsverkehr, die Auftragsverwaltung, das Kommissionieren und Verpacken der Artikel sowie den Versand zum Kunden. Weiterhin muss die gesamte IT-Infrastruktur auf die E-Commerce Lösung abgestimmt sein, um die Bearbeitung der Kundenanfragen zuverlässig und sicher abzuwickeln und ebenfalls auf saisonale bzw. unerwartete Lastspitzen durch schwankende Anfragen flexibel zu reagieren.

Zahlreiche Cloud Computing Anbieter stellen E-Commerce Lösungen bereit, wodurch Unternehmen auf den Aufbau und die Verwaltung einer eigenen Plattform verzichten können und sich damit auf ihre Kernkompentenzen und ihre Kunden konzentrieren können.

Bei der Auswahl eines Anbieters sind zunächst einfache Randbedingungen zu beachten wie das Angebot der Zahlungsmöglichkeiten (Kreditkarte, EC-Karte etc.) an meinen Kunden und die Reichweite meiner Kunden (lokal, global, Europa, Amerika, etc.). Wie steht es um das mögliche Angebot, dass ich offerieren kann. Beschränkt sich dieses auf materielle Waren oder bin ich ebenfalls in der Lage Dienstleitungen und digitale Güte zu verkaufen. Stellt mir der Anbieter Möglichkeiten zur Verfügung, um meine Waren und Dienstleistungen zu bewerben?

Neben diesen eher technisch fremden Bereichen steht ebenfalls die Infrastruktur des Anbieters im Fokus. Verfügt der Anbieter über ausreichend Ressourcen und Kapazitäten um saisonale Lastspitzen abzufangen und das Backend stabil zu betreiben, also z.B. Lagerbestände in Echtzeit zu kontrollieren und verwalten. Kann ich meine Artikel indizieren, um meinen Kunden eine schnelle Suche über meine Produktpalette anzubieten. Zu guter letzt muss die Plattform auf der die E-Commerce Lösung betrieben wird zuverlässig arbeiten und meine Entwickler unterstützen darauf schnell und unkompliziert neue Anwendungen zu entwickeln und bereitzustellen.



Zoho – Productivity & Collaboration Apps

Mit der ZOHO Office Suite bietet der gleichnamige Anbieter ein webbasiertes Angebot zu der u.a. Tools für die Textverarbeitung, Tabellenkalkulation, Präsentationen, Datenbanken, Wikis, CRMs Projektmangement, Rechnungsstellung etc. gehören. Damit stellt ZOHO derzeit mit Abstand das größte Portfolio bzgl. webbasierter Office & Collaboration Angebote.

Die jeweiligen Angebote werden als Software as a Service bereitgestellt und befinden sich auf den Servern in der Cloud von ZOHO. Für den Zugriff benötigen die Benutzer lediglich einen Standard Webbrowser. Weiterhin existieren Plugins für die lokale Integration z.B. in Microsoft Office und Microsoft SharePoint.

Unterschieden wird derzeit in die Bereiche Productivity & Collaboration Apps, Business Apps und Utilities.

Dieser Artikel zeigt die Angebote aus dem Bereich Productivity & Collaboration Apps.

Zoho Mail

  • Offline-Support
    Auch ohne Internetverbindung können E-Mails gelesen und verfasst werden.
  • Mobilversion
    Zugriff auf Zoho Mail per iPhone und anderer mobiler Geräte.
  • Spamschutz
    Vermeidung von Spam durch selbstlernende Algorithmen.
  • Personalisierte E-Mail-Adresse
    Personalisierte E-Mail-Adresse (d.h. name@unternehmen.de), oder name@zoho.com.
  • Ordner und Beschriftungen
    Unterstütztung von traditionellen Ordnern und Beschriftungen.
  • Instant Messaging
    Integriertes Instant Messaging innherhalb von Zoho Mail ohne die Nutzung eines separaten Clients.
  • Webseite
    http://mail.zoho.com

Zoho Writer

  • Freigabe & Kollaboration
    Kollaboration in Echtzeit durch Freigabe von Dokumente, entweder individuell pro Person oder für Gruppen.
  • Offline Support
    Zugriff und Bearbeitung von Dokumente auch ohne Internetverbindung.
  • Posten zu Blog
    Veröffentlichung vion Dokumente direkt in einem Blog.
  • Import / Export Dokumente
    Hochladen und Herunterladen von Dokumenten und Speichern auf dem lokalen Computer.
  • Vorlage Bibliothek
    Auswahl von vorgefertigten Dokumenten aus einer Vorlagen Bibliothek.
  • Webseite
    http://writer.zoho.com

Zoho Sheet

  • Zugriff von jedem Ort
    Erstellen, Bearbeiten und Zugriff auf Tabellen von jedem Ort ohne vorherige Installation.
  • Gemeinsame Nutzung
    Gemeinsame Nutzung und Bereitstellung von Tabellen für Freunde oder die gesamte Öffentlichkeit.
  • Zusammenarbeit
    Gemeinsame arbeiten von mehreren Benutzern an einer Tabelle zur gleichen Zeit.
  • Import / Export Excel
    Import und Export von Excel Tabellen.
  • Makros und Pivot Tabellen
    Nutzung von VBA Makros und Pivot Tabellen.
  • Entwicklung von Mashups
    Synchronisation von entfernten Daten im Web und Nutzung der Zoho API zum Aufbau von Mashups.
  • Webseite
    http://sheet.zoho.com

Zoho Show

  • Zugang von überall zu jeder Zeit
    Zugriff, Import und Bearbeitung von Präsentationen von überall und zu jeder Zeit.
  • Gemeinsame Nutzung und Zusammenarbeit
    Teilen der Präsentationen mit Ihren Freunden/Kollegen. Gemeinsames Öffnen/Bearbeiten mit einem normalen Browser.
  • Präsentieren Sie von der Ferne
    Darstellung der Präsentation über das Web ohne selber vor Ort zu sein.
  • Integration
    Integration der Präsentation in einem Blog/Webseite ein.
  • Webseite
    http://show.zoho.com

Zoho Docs

  • Online-Speicherung von Dateien
    Speichern der Dokumente online. Zugriff von überall. Pflege mehrerer Dateiversionen.
  • Sichere Dateifreigabe
    Freigabe der Dateien und Fotos online. Gleichzeitiges arbeiten und kollaborieren mehrerer Benutzer in Echtzeit an einem Dokument.
  • Online-Chat und Zusammenarbeit
    Zusammenarbeit und Diskussionen über das Dokument zwischen mehreren Benutzern in verschiedenen Zeitzonen mittels Chat-Funktion.
  • Administratorkonsole
    Hinzufügen von Benutzern und verteilen von Rechten durch einen Administrator.
  • Integriert Zoho Writer, Sheet und Show
    Erstellen, bearbeiten, freigeben, suchen und anzeigen der gesamten Dokumente auf einer einzigen Seite.
  • Online-Arbeitsbereich
    Erstellen von Ordner, und freigeben von Dateien durch das Einladen von weiteren Benutzern. Die Dateien können entsprechend der vom Besitzer festgelegten Berechtigung angezeigt und bearbeitet werden.
  • Erstellen von Ordnern und Tags
    Organisation aller Dateien mittels verschieben (Drag&Drop) in Ordnern und durch versehen mit Tags.
  • Suchen
    Volltextsuche für Metadaten, Inhalte und Tags in jedem gespeicherten Dokument, z. B. PDF, Bilder usw.
  • Webseite
    http://docs.zoho.com

Zoho Notebook

  • Erstellen unterschiedlicher Inhalte
    Erstellen von Texten, Bildern, Audio und Video Inhalten.
  • Zusammenfassung aller Informationen an einem Ort
    Integration unterschiedlicher Inhalte aus mehreren Anwendungen.
  • Zusammenarbeit
    Teilen unterschiedlicher Informationen wie einem kompletten Buch, einer Seite oder einem Objekt auf einer Seite, je nach Rechtevergabe.
  • Versionskontrolle
    Änderungsverfolgung sämtlicher Informationen bis hinunter auf Objektebene.
  • Webseite
    http://notebook.zoho.com

Zoho Wiki

  • WYSIWYG Editor
    WYSIWYG Editor zur Erstellung von Inhalten.
  • Teilen und Zusammenarbeiten
    Gemeinsames verteiltes Arbeiten von jedem Ort.
  • Organisieren und Verwalten von Seiten
    Verwaltung der Seiten von einer zentralen Stelle in einer hierarchischen Ordnerstruktur.
  • Personalisierung
    Auswahl des eigenen Logos, eigenes Design, Anpassung des Header, Footer und der Sidebar.
  • Verwaltung der Zugriffsrechte
    Bestimmung der Zugriffsrechte auf Basis von Gruppen oder auf Seitenebene.
  • RSS Feeds
    Informieren neuer Inhalte durch einen RSS Feed.
  • Webseite
    http://wiki.zoho.com

Zoho Planner

  • Online Organizer
    Hinzufügen, Verwalten und Teilen von Aufgaben, Notizen und Bildern.
  • Aufgabenlisten
    Hinzufügen und Verwalten von mehreren Aufgabenlisten.
  • Erinnerungen erstellen
    Hinzufügen von E-Mail Erinnerungen.
  • Hochladen von Dateien und Bildern
    Hochladen von Dateien und Bildern an eine zentrale Stelle für den Zugriff von jedem Ort.
  • Notizen erstellen
    Hinzufügen von täglichen Notizen.
  • Webseite
    http://planner.zoho.com

Zoho Chat

  • Live Support
    Live Unterstützung von Kunden/Kollegen/Freunden via Chat.
  • Shoutbox
    Integration einer Shoutbox innerhalb eines Blogs oder einer Webseite.
  • Live Chat
    Live Kommunikation mit den Besuchern des eigenen Blogs oder der Webseite.
  • Gruppen Chat
    Möglichkeit zum Aufbau von Chats innerhalb von Gruppen.
  • Multi-Protokol Unterstützung
    Unterstützung von allen gängigen Protokollen wie Yahoo, Google, MSN, AIM, ICQ & Jabber.
  • Hinzufügen von Events im Kalendar
    Hinzufügen von Kalendereinträgen innerhalb von Zoho Chat.
  • Prüfen von E-Mails
    Lesen und Erstellen von E-Mails innerhalb von Zoho Chat inkl. automatischer Benachrichtigung neuer E-Mails.
  • Desktopsharing
    Freigeben des eigenen Desktops für Chatpartner.
  • Webseite
    http://chat.zoho.com


Cloud Computing Nutzen: Webcrawler

Informationen sind im Internet weit verteilt und unorganisiert, wodurch für das Suchen, Abfragen, Verteilen und Verarbeiten dieser Daten hohe Anforderungen hinsichtlich der Verarbeitung und dem Speichern gestellt werden. Weiterhin werden moderne Algorithmen benötigt, mit denen diese Daten manipuliert, indiziert und die Anfragen der Benutzer beantwortet werden können. Der ständige Wandel innerhalb des Internets verstärkt zudem die Situation exakt die Informationen zu finden die gesucht wurden.

Mit Cloud Computing steht im Prinzip jedem die Möglichkeit bzgl. Speicherplatz und Rechenleistung zur Verfügung um einen eigenen Webcrawler zu entwickeln. Dazu müssen Dinge beachtet werden, die auch von der Infrastruktur eines Cloud Computing Anbieter erfüllt werden müssen, auf welcher der Webcrawler dann ggf. ausgeführt wird.

Zunächst stellt sich die grundsätzliche Frage, auf was für eine Infrastruktur zurückgegriffen werden muss, um ein skalierbares System aufzubauen, das den Herausforderungen des heutigen und vor allem zukünftigen Internets gewachsen ist. Das fängt bei der Speicherarchitektur zur Ablage sämtlicher Daten an, die davon abhängt, wie der zukünftige Speicherbedarf aussieht (Wachstumsrate) und wie viel Speicher tatsächlich notwendig ist. Weiterhin muss bedacht werden, wie dynamisch und skalierbar sich die Performance hinsichtlich der Indizierung und dem Durchsuchen der aktuellen und zukünftigen Daten sowie der grundsätzlichen Verarbeitung verhält.



Cloud Computing Nutzen: Datenspeicherung und Datenbackup

Eine der größten Herausforderungen für Unternehmen ist die stetige Zunahme der zu speichernden Daten, welche die Verwaltungsaufgaben immmer komplexer und kostspieliger werden lässt. Nicht nur auf Grund dieser Situation wird die Gewährleistung des Datenschutzes und der Datenverfügbarkeit immer wichtiger. Cloud Storage für das Speichern und Backup der Daten ist hierfür ein idealer Ansatz wenn gewisse Punkte beachtet werden.

Wie kann ich zukünftig auf meine Daten zugreifen und ist der Zugriff ortsunabhängig möglich. Wie ist das Sicherheitsmodell des Anbieters, kann ich den Zugriff verwalten oder hat stets jeder Zugriff auf die Daten? Verfügt der Anbieter über ein Risikomanagement, wodurch Ausfallszeiten und der Verlust meiner Daten vermieden wird? Stehen mir Möglichkeiten zur Verfügung, mit denen ich zuverlässige Backupstrategien implementieren kann und im Worst Case ebenfalls eine Systemwiederherstellung durchführen kann. Wie skalierbar ist die Speicher/Backup Lösung des Anbieters. Wächst diese automatisch mit meinen Bedürfnissen oder bin ich zunächst auf einen fixen Speicherplatz angewiesen der manuell erweitert werden muss, wodurch deutlich höhere Kosten entstehen?



openQRM mit neuen Funktionen

Bereits seit dem 12.03.2010 ist der Funktionsumfang der Cloud Computing Plattform openQRM erweitert. Eines der neuen Features ist die Unterstützung des Windows Betriebssystems. Folgende vier neue Funktionen sind verfügbar:

kvm-storage plug-in

Das kvm-storage Plugin kombiniert die KVM Virtualisierungstechnologie mit der LVM Speichertechnologie. Dadurch können ab sofort lokale virtuelle Maschinen auf Basis von KVM durch die Nutzung von virtuellen Festplatten auf Basis von LVM Volumes schnell bereitgestellt werden.

xen-storage plug-in

Das xen-storage Plugin kombiniert die Xen Virtualisierungstechnologie mit der LVM Speichertechnologie. Dadurch können ab sofort lokale virtuelle Maschinen auf Basis von Xen durch die Nutzung von virtuellen Festplatten auf Basis von LVM Volumes schnell bereitgestellt werden.

sanboot-storage plug-in

Mit dem sanboot-storage Plugin können Windows Betriebssysteme schnell auf dem physischen System bereitgestellt werden. Dazu werden die Windows Server Images auf direktem Weg von einem SAN Speicher (iSCSI oder AOE) mittels gPXE bereitgestellt. Eine der herausragenden neuen Funktionen ist die Möglichkeit Live Snapshots des Windows Betriebssystems direkt in einem SAN zu speichern. Diese Snapshots können anschließend für ein erneutes Deployment/ Rollback verwendet werden.

windows plug-in

Mit dem windows Plugin kann über die Oberfläche des openQRM Servers ein Windows Betriebssystem vollständig verwaltet werden, indem der openQRM-Client auf dem Windows Server Image installiert wird. Durch die Unterstützung des Windows Betriebssystems geht openQRM damit den nächsten Schritt, eine zentrale Management Console für Cloud Computing Rechenzentren und IT-Infrastrukturen bereitzustellen.



Cloud Computing Nutzen: Web-Hosting

Unternehmen haben unterschiedliche Lösungsansätze, um das Web-Hosting ihrer Webseite zu betreiben. Zunächst besteht die Möglichkeit ein eigens Rechenzentrum aufzubauen und zu betreiben. Weiterhin kann ein Drittanbieter damit beaufragt werden die Webseite auf seine dafür dedizierten Servern zu hosten und zu verwalten. Der letzte Ansatz ist die Nutzung Cloud Computing basierter Lösungen.

Egal welcher Ansatz nun verfolgt wird, ist es für Unternehmen unabdingbar eine Infrastruktur auszuwählen, die Ihnen eine größtmögliche Sicherheit, Zuverlässigkeit und Performance bietet. Unabhängig davon rücken die Kosten, also fixe Kosten und variable Kosten immer weiter in den Fokus und betreffen jedes Unternehmen jeder Größe. Zudem ist in den letzten Jahren der Wunsch nach Flexibilität immer weiter gestiegen um die Kosten transparenter im Blick zu behalten.

Cloud Computing Lösungen geben Unternehmen hierbei die Chance ihre vorab Investitionen zu verringern und damit Kapital zu sparen. Ein weiterer Vorteil eine Cloud Lösung besteht in der Skalierbarkeit in beide Richtungen. Steigt die Auslastung an, können die Ressourcen nach oben skaliert werden. Nimmt die Auslastung wieder ab, werden die überschüssigen Ressourcen wieder freigegeben. In beiden Fällen entstehen nur Kosten für die Ressourcen die auch tatsächlich genutzt werden.

Fällt die Entscheidungen auf eine Cloud Computing Lösung müssen sich Unternehmen vorab genau informieren, um nicht doch in eine Kostenfalle oder einen Vendor oder Technik lock-in zu geraten. Dabei sollte zunächst geprüft werden, was für Kosten zu Beginn und während des Webhosting Betriebs entstehen und ob nicht doch versteckte Gebühren in den Verträgen vorhanden sind. Stichwort: Transparenz! Weiterhin ist zu klären, wie verlässlich und hochverfügbar die Infrastruktur des Anbieters ist. Ist dieser ggf. von einer unabhängigen Instanz hinsichtlich dieser Anforderungen geprüft und zertifiziert worden? Wie verhält sich die Infrastruktur des Anbieters, wenn die Anfragen/Last plötzlich unerwartet zunimmt. Wie ist das Ressourcenhandling der Infrastruktur? Hier ist ein unabhängiges Audit eine Möglichkeit (z.B. durch Zusammenschluss mehrerer Kunden).

Wie ist der Anbieter bzgl. seines technischen Angebots und seiner Umgebung ausgestattet. Genauer, gibt der Anbieter die zu verwendenen Programmiersprachen und Webplattform vor, oder kann beides jeweils selbst ausgewählt werden? Findet eine Migration zu dem Anbieter statt, muss geklärt werden, ob u.a. die aktuell verwendeten Betriebssysteme und Umgebungen weiter verwendet werden können, oder ob eine vollständige/ teilweise Erneuerung stattfinden muss.



Scalarium

Scalarium, das Cloud Computing Produkt der Peritor GmbH dient zur Automatisierung der Kommunikation und Konfiguration von Amazon EC2 Cluster.

Eine Beispielkonfiguration für einen Cluster würde z.B. aus einem Load Balancer, drei Rails Applikations-Servern und einem Datenbankserver bestehen. Für den Start dieses Clusters ist anschließend Scalarium verantwortlich, indem es eine Verbindung zur Amazon Compute Cloud (EC2) herstellt und die entsprechenden Instanzen startet. Die Images werden geladen und der Scalarium Agent installiert.

Der Scalarium Agent wird auf jedem Server ausgeführt und ist über eine verschlüsselte Verbindung ständig mit Scalarium in kontakt. Webserver werden dabei automatisch mit Nginx konfiguriert, während Datenbankserver eine MySQL Installation erhalten. Nachdem der Scalarium Agent auf einer Instanz installiert wurde und das System konfiguriert hat, wird die Instanz als online markiert und kann durch den Cluster verwendet werden.

Scalarium bietet die folgenden vier Funktionen, die im Anschluß jeweils kurz vorgestellt werden.

  • Auto Config
  • Auto Healing
  • Auto Scaling
  • One Click Deploy

Auto Config

Mittels der Auto Configuration werden die Server automatisiert konfiguriert, indem die benötigte Software installiert und eingerichtet wird. Werden weitere Instanzen hinzugefügt, konfiguriert Scalarium automatisch die Anwendungen und den gesamten Cluster. Die einzigen Informationen die von Scalarium dazu benötigt werden sind die gewünschten Ubuntu Packages und Rubygems. Anschließend werden alle Pakete und Libraries auf jedem Server installiert und das zu jederzeit.

Weitere Informationen zu Auto Config sind HIER zu finden.

Auto Healing

Mit Auto Healing sorgt Scalarium dafür, dass die vorher festgelegten Services und Hosts des Cluster im Fehlerfall automatisch wiederhergestellt werden. Fällt z.B. ein Server aus, wird dieser durch Scalarium entfernt und in kurzer Zeit durch eine neue Instanz ersetzt, wodurch der gesamte Cluster automatisch neu konfiguriert wird.

Weitere Informationen zu Auto Healing sind HIER zu finden.

Auto-Scaling

Durch das Auto-Scaling können Schwellwerte festgelegt werden die dafür sorgen, dass entweder weitere Instanzen gestartet oder nicht mehr benötigte Instanzen beendet werden. Dazu überwacht Scalarium die CPU- und Arbeitspeicher-Auslastung, sowie die durchschnittliche Belastung jeder Instanz.

Weitere Informationen zu Auto Scaling sind HIER zu finden.

One Click Deploy

Mittels One Click Deploy können Anwendungen über den gesamten Cluster hinweg zu einem Zeitpunkt vollständig automatisiert verteilt, installiert und konfiguriert werden.

Weitere Informationen zu One Click Deploy sind HIER zu finden.

Demo Video

http://www.youtube.com/watch?v=F2UzrYOZNM4

Preise

Quelle



CloudCache

Mit CloudCache stellt das Unternehmen Quetzall eine flexible Caching Infrastuktur als Service bereit, in der über eine API beliebige Objekte zwischengespeichert werden können. Entwickler haben damit die Möglichkeit ihre Daten innerhalb eines in-memory Cache abzulegen um damit die Zugriffe auf die Datenbank zu verringern und die Performance zu erhöhen.

CloudCache kann u.a. für das Zwischenspeichern von Anfragen, Sessions oder Templates genutzt werden und funktioniert ebenfalls in Verbindung mit Amazon's Netzwerk Topologie.

Funktionen

  • Latenz: 1.5 ms
  • Multi-Get
  • Statistiken: Hits/Misses/Usage
  • Nutzung von 1 bis 1000 Caches
  • AJAX oder XML Unterstützung
  • Inkrementierungs- und Dekrementierungsmöglichkeiten
  • Konfigurierbare Time-to-Live der Objekte für das automatische Löschen

Dokumentation

CloudCache unterstützt derzeit die Programmiersprachen Ruby, Java, PHP und Python sowie eine Raw REST API. Um den Einstieg zu erleichtern existiert eine separate Dokumentationsseite auf der die ersten Schritte für den Umgang mit CloudCache erklärt werden.

Preise

  • $0.05/MB
  • 10 MB Cache frei bis zum 1.November 2010
  • Keine Vertragslaufzeit
  • Keine Einrichtungsgebühr
  • Abrechnung nach dem tatsächlichen Verbrauch
  • Monatliche Abrechnung

Demo Video

http://vimeo.com/7105046

Quelle

  • CloudCache


Cloud Computing – Ein einleitender Überblick

Der Begriff Cloud Computing prägt seit nun mehr zwei Jahren das Bild der Informationstechnologie um Dienste und Infrastrukturressourcen über das Internet zu vermieten. Gartner sieht in Cloud Computing den Hype - siehe Graphik und prophezeit, dass es sich in den kommenden zwei bis fünf Jahren etabliert und die Welt der Informationstechnologie grundlegend verändern wird.

Die Idee IT-Ressourcen zu mieten anstatt diese zu kaufen ist allerdings nicht neu und blickt auf eine
lange Geschichte zurück.

Cloud Computing verspricht kostengünstig und schnell IT-Ressourcen und Dienste zu beziehen, was zunehmend von den Großen der Internetbranche sowie Anbietern von Software as a Service Diensten, Hostingprodukten und Netz- und Infrastrukturen vorangetrieben wird. Letztendlich ist jedes dieser genannten Angebote aber nur ein Teil dieses großen Puzzles. Nur die (Teil-)Kombination aller genannten Angebote führt am Ende zum Cloud Computing.

Cloud Computing soll zu einer dauerhaften Verbesserung der Kostenstruktur durch Kostenreduktion führen, indem die benötigten Leistungen nur nach Bedarf genutzt und anschließend abhängig vom Verbrauch abgerechnet werden. Weitere Vorteile werden in der nachhaltigen Produktivitätssteigerung und Flexibilität einer Organisation gesehen. Aber auch die Anbieter von Cloud Computing Diensten können ihren Profit anhand einer besseren Auslastung ihrer Ressourcen und die Nutzung von Skaleneffekten steigern.

Neben hellen existieren aber auch immer dunkle Wolken. Sicherheit, Datenschutz(!) und Qualitätssicherung sind Themen denen sich Anbieter von Cloud Computing Diensten stellen und Lösungen finden müssen. Des Weiteren macht Cloud Computing für die Anbieter nur Sinn, wenn sie ihre Angebote, Abläufe und Prozesse standardisieren. Stellt sich die Frage, ob Unternehmen bereit sind, sich ihre Geschäftsprozesse und die IT-Infrastruktur bis ins kleinste Detail diktieren zu lassen und die Angebote der Anbieter überhaupt den Anforderungen der Unternehmen entsprechen.

Graphik:



Was ist ein Hypervisor?

Der Begriff Hypervisor setzt sich aus den griechischen Worten Hyper (deutsch: über) und Visor (lateinisch videre, deutsch: sehen) zusammen. Er wird auch als Virtual Machine Manager bezeichnet, der Hardware-Ressourcen dynamisch und transparent zuweisen kann, wodruch auf einer physikalischen Hardware mehrere Betriebssysteme parallel ausgeführt werden können. Die einzelnen Betriebssysteme sind so voneinander isoliert, dass sie die Existenz des jeweils anderen nicht kennen. Dadurch wird jedem System suggeriert, dass es alleine über die vollständigen Ressourcen wie Prozessorleistung, Arbeitsspeicher, Festplattenspeicher etc. der darunter liegenden physikalischen Hardware verfügt. Der Hypervisor ist für die Kontrolle des Prozessors und aller Ressourcen zuständig, und weist diese den jeweiligen Betriebssystemen (Gastsysteme, Virtual Machines) je nach Bedarf zu. Weiterhin sorgt er dafür, dass die einzelnen Gastsysteme ungestört voneinander arbeiten können und sich nicht gegenseitig während des Betriebs stören.

In den meisten Fällen wird ein Hypervisor noch vor dem eigentlichen Betriebssystem auf der physikalischen Hardware installiert. Da seine einzige Aufgabe darin besteht Virtualisierungsfunktionen bereitzustellen, ist er sehr Schlank aufgebaut. Er verfügt über spezielle Administrationssschnittstellen mit denen die Gastsysteme später installiert werden können und weitere Schnittstellen die ihn von den Gästen strikt trennen.

Ein Hypervisor arbeitet transparent und flexibel. Daher ist er in der Lage im Prinzip jedes Betriebssystem sei es Windows, Linux, Mac OS, etc. auszuführen. Aktuelle Hypervisor verfügen mittlerweile über eine Performanz, die mit einer direkten Installation des Gastbetriebssystems auf der physikalischen Hardware vergleichbar ist.

Es werden zwei Typen (Typ1, Typ2) von Hypervisorn unterschieden.

Typ 1

Ein Hypervisor vom Typ1 wird direkt auf der darunter liegenden physikalischen Hardware ausgeführt. Von dort aus kontrolliert er die Hardware Ressourcen und überwacht die Gastbetriebssysteme, die auf (über) ihm installiert werden.

Aktuelle Hypervisor vom Typ1 sind VMware ESX Server, Microsoft Hyper-V, IBM POWER Hypervisor (PowerVM), IBM System z Hypervisor (PR/SM), Xen, Citrix XenServer, Oracle VM Server und Parallels Server.

Typ 2

Ein Hypervisor vom Typ2 wird, wie eine gewöhnliche Software, auf einem Betriebssystem ausgeführt, dass auf der physikalischen Hardware installiert ist. Die Gastbetriebssysteme werden anschließend auf (über) ihm installiert und ausgeführt.

Aktuelle Hypervisor vom Typ2 sind VMware Server (GSX), VMware Workstation, VMware Fusion, QEMU, Microsoft Virtual PC, Microsoft Virtual Server, VirtualBox, Parallels Workstation und Parallels Desktop



Deutschland bei Cloud-Services Adaption ganz vorne dabei.

Laut einer Umfrage von Sterling Commerce mit 300 europäischen CIOs planen davon ca. 72% aus Deutschland, Frankreich und Großbritannien für 2010 in Cloud-Services aus dem Bereich Business-to-Business Integration zu investieren. Betrachtet man nur Deutschland alleine sind es sogar schon 87%.

Gründe für die Adaption sind:

  • Verringerung der Kosten bzgl. der Optimierung für den Einsatz des IT-Personals und weiterer Aufwendungen (55%, Deutschland 57%).
  • Einsparungen durch die Verringerung von manuellen Prozessen (35%, Deutschland 40%).
  • 1/3 aller Befragten erhoffen sich einen besseren Überblick über die eigenen Business-to-Business Prozesse.

Quelle: CIO plus 4/2010 S. 7



Vorteile durch Desktop-Virtualisierung!

Was ist Desktop-Virtualisierung?

Im Vergleich zu klassischen Desktop-PCs werden virtuelle Desktops als virtuelle Maschinen wie eine zentral verwaltete Ressource betrachtet und im Rechenzentrum bereitgestellt. Das führt dazu, dass die Konfiguration und Verwaltung nicht mehr auf dem physikalischen Endgerät eines Benutzers stattfindet, sondern innerhalb der virtuellen Maschine.

Auf einem zentralen Rechner werden dabei mehrere individuelle Betriebssysteminstanzen für mehrere Benutzer zur Verfügung gestellt, wodurch jeder Benutzer in (s)einer eigenen virtuellen Umgebung arbeitet. Der Benutzer merkt nicht, dass seine Systemumgebung virtualisiert ist, da sich sein Gesamtsystem wie ein gewöhnlicher Desktop-PC verhält.

Es lassen sich drei Typen von virtuellen Desktops klassifizieren:

  • Standard Desktop
    Dabei handelt es sich um einen gewöhnlichen Desktop, der für alle Benutzer gleich aufgebaut und so ausgestattet ist, das Büroaufgaben damit ohne weiteres erledigt werden können.
  • Personalisierter Desktop
    Auf Basis von virtuellen Maschinen werden auf den Servern für jeden Benutzer individuell eingerichtete virtuelle Desktops bereitstellen, die dort zentral gepflegt und verwaltet werden. Die Anwender haben zudem die Möglichkeit selbständig Änderungen vorzunehmen.
  • High-End Desktop
    Wird eine enorme Leistung benötigt, erhält jeder Benutzer auf Basis von Blade PCs seine eigene Instanz im Rechenzentrum. Der Desktop wird dabei auf dem Blade PC ausgeführt, wodurch der Benutzer die vollständigen Ressourcen wie z.B. die Prozessorleistung alleine für sich nutzen kann.

Vorteile und Nutzen der Desktop-Virtualisierung

Durch die Trennung des Desktops von dem physikalischen Endgerät kann die Administration zentral auf einem Server vorgenommen werden, womit der Wartungsaufwand reduziert wird, da die Installation, Konfiguration und Aktualisierung nicht mehr vor Ort vorgenommen werden muss. Speziell im Falle von Migrationen stehen hier enorme Zeitvorteile im Vordergrund. So kann z.B. in kurzer Zeit die Umstellung auf eine neue Betriebssystemversion vorgenommen werden.

Weiterhin können die Kosten für die Client-Hardware gesenkt werden. Aktuelle Windows Betriebssysteme benötigen performante und damit kostspielige Endgeräte. Durch die Virtualisierung des Desktops können entweder ältere Endgeräte oder Thin Clients eingesetzt werden, die zudem stromsparend und wartungsarm sind. Laut einer IDC Kundenbefragung können die Kosten, im Vergleich zu herkömmlichen Desktop PCs (Fat Clients), um ca. 600 Dollar pro Benutzer pro Jahr gesenkt werden.

Ein weiterer zu beachtender Punkt ist die Erhöhung der Sicherheit. Die Daten befinden durch die Desktop-Virtualisierung nicht mehr lokal auf den Endgeräten, sondern werden zentral auf den Unternehmensservern gespeichert. Somit werden die Daten zusätzlich in die zentralen Datensicherungsmechanismen eingegliedert und der Zugriff auf die Daten wird zentral gesteuert. Die Compliance kann ebenfalls unternehmensweit verbessert werden, da die Installation von unerwünschter Software zentral unterbunden werden kann und es kann sichergestellt werden, dass die Daten im Rechenzentrum verbleiben.

In Unternehmen die mit wechselnden Arbeitsplätzen arbeiten, erhalten die Benutzer den Vorteil, immer über ihre eigene tatsächliche Umgebung zu verfügen. Der Nachteil der "Roaming Profiles" besteht darin, dass die Installation & Konfiguration des Betriebssystems und der darauf installierten Software für jeden Benutzer, der an dem Rechner arbeitet, gleich ist. Im Falle der Desktop-Virtualisierung ist ein Benutzer damit (wirklich) nicht mehr an einen bestimmten Arbeitsplatz (Ort) gebunden.

Anforderungen & Herausforderungen der Desktop-Virtualisierung

Desktop-Virtualisierung ist kein Thema, dass kurzfristig umgesetzt werden kann, sondern bedarf einem gut durchdachten und ganzheitlichen Ansatz. Dazu gehören neben der Administration der virtuellen Desktops, ebenso die benutzerspezifische Anpassung und die Gewährleistung der Geschwindigkeit und Performanz. Letzteres ist vor allem kritisch zu betrachten, wenn ein Unternehmen über mehrere Standorte verteilt ist und der Zugriff über eine WAN-Verbindung stattfindet. Die Berücksichtigung der gesamten IT-Infrastruktur ist bei der Einführung und Implementierung von Desktop-Virtualisierung von enormer Wichtigkeit. Wozu eine ganzheitliche Betrachtung und ebenfalls Technologien zur Optimierung und Überwachung der WAN-Verbindungen und Performanz sowie des sicheren Zugriffs gehören.



Google Apps Marketplace

Mit dem Google Apps Marketplace hat Google kürzlich eine Plattform vorgestellt, auf der Softwarehersteller ihre eigenen Produkte auf Basis von Webservices anbieten können. Diese können vollständig einer Domain von Google Apps zugewiesen und vollständig in die Google Anwendungen wie Google Docs, Google Kalender, etc. integriert werden. Ein Vorteil besteht in der anschließenden Single-Sign-On Funktion sowie dem Zugriff auf bereits vorhandene Daten in der Domain. So kann z.B. ein CRM-System auf die Kontaktdaten zugreifen damit diese nicht erneut eingepflegt werden müssen.

Aktuell verfügt der Marketplace über Anwendungen aus den folgenden Bereichen:

  • Accounting & Finance
  • Calendar & Scheduling
  • Customer Management
  • Document Management
  • Productivity
  • Project Management
  • Sales & Marketing
  • Workflow

Speziell für den deutschen Markt hat Google eine Google Apps Trust Webseite eingeführt, auf der Benutzer weitere Informationen bzgl. Datenhaltung und Datensicherheit auf den Google Servern erhalten. Neben Details zum Safe-Harbour Abkommen, eine Datenschutz-Vereinbarung zwischen der Europäischen Union und den Vereinigten Staaten, kann man sich dort ebenfalls über die SAS-70-Zertifizierung, die Bestätigung eines Audits durch einen Wirtschaftsprüfer, erkundigen.

Quelle



IBM Smart Business Services

Mit den IBM Smart Business Services bietet IBM standardisierte Services auf Basis der IBM Cloud oder Private-Cloud-Services die von IBM verwaltet werden. Zu dem Leistungsumfang gehören u.a. das Infrastrukturdesign, die Beachtung einer hohen Verfügbarkeit sowie Sicherheitsimplementierungen.

Zwei bereits definierte und veröffentlichte Angebote sind das Development und Test Workload Angebot, dazu gehört die IBM Smart Business Test Cloud und das Desktop Workload Angebot, zu welchem die IBM Smart Business Desktop Cloud gehört.

IBM Smart Business Test Cloud

Bei der IBM Smart Business Test Cloud handelt es sich um eine Privat Cloud die auf die Technologien und Konzepte der IBM Public Cloud basiert. Mit der IBM CloudBurst Hardware wird dazu die Implementierung und das Management der Cloud vorgenommen, um die vorhandene Infrastrukturen mit der IT-Topologie innerhalb der Cloud zu verbinden. IBM verspricht damit Einsparungen bei den Kapital- und Lizenzierungskosten von bis zu 75%, sowie eine Kostenreduzierung der Betriebs- und Personalkosten um bis zu 50%. Weiterhin sollen mit standardisierten und einfach bereitzustellenden Services Softwaremängel reduziert werden, die auf Grund von fehlerhaften Konfigurationen und mangelhafter Modellierung entstehen.

Funktionen und Vorteile der IBM Smart Business Test Cloud

  • Reduzierung von Personalkosten für Konfiguration, Betrieb und Überwachung durch automatisierte Self-Service-Bereitstellung.
  • Risikominderung und Verbesserung der Qualität durch ein vereinfachtes Management
  • Verringerung der Lizenzkosten.
  • Effektiverer Kapitaleinsatz und flexible Skalierung durch Virtualisierung.

IBM Smart Business Desktop Cloud

Mit dem IBM Smart Desktop Cloud können Benutzer mit einem Thin Client oder eines Desktop-PCs mit Java™ und einem Web-Browser eine Verbindung zu einem Betriebssystem (virtuelle Maschine) auf einem zentralen Server herzustellen. Als Betriebssysteme können Windows oder Linux verwendet werden, deren Desktopumgebungen vollständig standardisiert sind und als Image vorliegen.

Funktionen und Vorteile der IBM Smart Business Desktop Cloud

  • Schnelle Skalierung der IT-Infrastruktur.
  • Steigerung des Return-on-Investment (ROI) und Reduzierung des Total Cost of Ownership (TCO, Gesamtbetriebskosten), durch flexibleren Betrieb und Energieeinsparungen.
  • Abrechnung der Betriebskosten nach dem tatsächlichen Bedarf.

Quelle

  • IBM Smart Business Services


IBM Smart Business Systems

Mit den Smart Business Systems stellt IBM integrierte Plattformen für die Servicebereitstellung inkl. Managementfunktionen für Hardware, Speicher, Netze, Virtualisierung und Services bereit, mit denen Lastoptimierte Systeme aufgesetzt werden können.

Zu den aktuellen Angeboten gehören die IBM CloudBurst™ Family (IBM CloudBurst 1.1) und die WebSphere CloudBurst Appliance.

IBM CloudBurst™ Family

Bei der IBM CloudBurst™ handelt es sich um ein IBM Service Management-Paket, mit dem die vorhandene IT-Infrastruktur erweitert werden kann. Dazu zählen Hardware-, Software- und Service-Lösungen für den Einsatz einer Private Cloud.

IBM CloudBurst 1.1

IBM CloudBurst 1.1 bietet auf Basis der IBM BladeCenter®-Plattform bereits vorinstallierte und integrierte Management-Funktionen für die Verwaltung der Hardware, Middleware und vorhandener Applikationen.

Funktionen und Vorteile der IBM CloudBurst 1.1

  • Schnellere Wertschöpfung durch bereits vorinstallierte und vorkonfigurierte Umgebung.
  • Flexibilität auf Basis einer skalierbaren Plattform.
  • Self-Service-Portal zur schnellen Bereitstellung von Cloud-Services.
  • Eine zentrale Schnittstelle zur Verwaltung physischer und virtueller Workloads und Systeme.
  • Verringerung des Ausfalls des Gesamtsystems durch mehrere Redundanzebenen.
  • Steigerung der Energieeffizienz durch die Möglichkeit des aktiven Managements des Stromverbrauchs der BladeCenter.

WebSphere CloudBurst Appliance

Mit der IBM WebSphere CloudBurst Appliance kann auf virtuelle WebSphere-Images zugegriffen werden, um das Erstellen, Implementieren und Management von Anwendungsumgebungen in einer Private Cloud vorzunehmen.

Funktionen und Vorteile der WebSphere CloudBurst Appliance

  • Verringerung der Einrichtung von WebSphere-Umgebungen
  • Vordefinierte Muster und virtuelle Images
  • Überwachung der Nutzung zur Leistungsverrechnung (Abrechnung der tatsächlichen Nutzung) durch Managementberichte

Quelle

  • IBM Smart Business Systems


Was sind Application Service Provider?

Als die indirekten Nachkommen der Service Bureaus gelten die Application Service Provider. Application Service Provider sind Dienstleister, die über eine Datenverbindung Anwendungssoftware wie z.B. ein CRM-System (Customer Relationship Management) anbieten, das von einem Kunden gegen eine Nutzungsgebühr gemietet werden kann - siehe Graphik. Der Vorteil für den Kunden besteht darin, dass er sich nicht mehr um die Administration der Software wie z.B. eine tägliche Datensicherung oder das Einspielen von Updates kümmern muss. Die Software befindet sich innerhalb der Infrastruktur auf den Servern des Application Service Providers, der sich um die gesamte Maintenance, was auch die Betreuung der Endbenutzer beinhalten kann, kümmert. Bekannte Anwendungen, die über einen Application Service Provider gemietet werden können, sind z.B. Office Suites, E-Mail Lösungen, CRM-System oder ERP-Systeme (Enterprise Resource Planning).

In der Anfangszeit der Application Service Provider gab es immer wieder Schwierigkeiten bei der Umsetzung dieses Modells, da die zu der Zeit vorhandene Hardware und die Telekommunikationstechnologie nicht leistungsfähig genug und die Mandantenfähigkeit der Software nicht gegeben war.



Was sind Service Bureaus?

Ein auf das Utility Computing aufbauendes und daher ebenfalls aus den 1960er stammendes Geschäftsmodell sind die so genannten Service Bureaus. Die Idee der Service Bureaus bestand darin, die eigenen Ressourcen wie z.B. Computer oder Mitarbeiter für andere Unternehmen gegen eine Gebühr zur Verfügung zu stellen. Weitere Dienstleistungen, die durch Service Bureaus übernommen wurden waren, u.a. die Bereitstellung von Speicherplatz, Datenverarbeitung, individuelle Programmierung, Mietsoftware, die auf den Systemen des Service Bureaus betrieben wird, aber auch Bereiche wie Desktop Publishing oder Bildverarbeitung gehörten zum Angebot. Um eine große Anzahl von Kunden zu erreichen und damit Skaleneffekte zu erzielen, wurden die Dienstleitungen zu Produkten zusammengefasst. Für die Verbindung von den Kunden zu den Service Bureaus wurden einfache Wählverbindungen oder private Mietleitungen verwendet.



Nutzung des Google Apps Marketplace

Dieses kleine How to erklärt wie der Google Apps Marketplace in Verbindung mit einer Google Apps Domain genutzt werden kann. Dazu installieren wir das Social Productivity, Project Management & Task Management Manymoon.

Voraussetzungen

  • Google Apps Account
  • Sprache: Englisch (US)

Installation des Webservice Manymoon

Zunächst melden wir uns an der Google Apps Management Console an und wählen dort den Punkt Add more services.

Dort sehen wir den Bereich Other services, wir wählen Google Apps Marketplace.

Auf der linken Seiten unter Product wählen wir die Kategorie Project Management.

Hier entscheiden wir uns für Manymoon: Free Social Productivity, Project Management & Task Management.

Wir klicken auf der rechten Seiten auf den Button Add it now.

Und geben dort unsere Google Apps Domain an.

Wir bestätigen im nächsten Schritt die Nutzungsbedingungen.

Nun müssen wir der Anwendung ihre benötigten Rechte für den Zugriff auf unserer Google Apps Domain gewähren.

Und können anschließend die Anwendung aktivieren.

Am Ende erhalten wir eine Zusammenfassung über den Status der Anwendung sowie aller gewährten Zugriffsrechte.

Über den Link Sign in now to get started rufen wir die Anwendung das erste Mal auf.

Ein Blick auf die Startseite unserer Google Apps Management Console zeigt, dass die Anwendung unserer Google Apps Domain zugewiesen wurde.