Tag: Hybrid Cloud


ownCloud erweitert seine Hybrid Cloud Lösung für Unternehmen

ownCloud hat eine erweiterte Version seiner Hybrid Cloud Lösung für den produktiven Einsatz freigegeben. Neben den Funktionen der Community-Edition ownCloud 4, ermöglicht die kostenpflichtige Business und Enterprise Edition die Integration in bestehende IT-Infrastrukturen.

ownCloud erweitert seine Hybrid Cloud Lösung für Unternehmen

Anbindung an Verzeichnissdienste

Mit dem neuen Update lässt sich ownCloud mit bestehenden LDAP- und Active Directory-Verzeichnissen verbinden. Damit lassen sich Gruppenzugehörigkeiten und die Speichergrößen, die jedem Benutzer zur Verfügung stehen sollen, zentral verwalten. Weiterhin unterstützt ownCloud jetzt den Defacto-Standard Syslog zur Übermittlung von Log-Meldungen.

Customizing erwünscht

Unternehmen haben darüber hinaus nun die Möglichkeit, die Benutzeroberfäche von ownCloud mit Hilfe eines Stylesheets mit Logo, Farben und Schriften ihren Bedürfnissen nach anzupassen. ownCloud erwartet auf Grund einer einheitlichen CI eine schnellere und höhere Akzeptanz bei den Mitarbeitern.

Mac OS und Android Unterstützung

Das neue Update bringt zudem die Client-Software für Mac OS mit. Somit stehen neben dem ownCloud Webclient ebenfalls Software-Clients für die drei Desktop-Betriebssysteme Windows, Mac OS und Linux zur Verfügung, um darüber Adressen, Termine, Office-, Audio- und Video-Dateien auszutauschen.

Ein weiteres Schmankerl ist die Freigabe der Version 1.1 der Android App. Die Anwendung befindet sich zwar noch im Betastatus, dennoch können Nutzer damit bereits von ihren Android Smartphones direkt auf den ownCloud-Server zugreifen. Die App erkennt eigenständig SSL-Verbindungen und ermöglicht den automatischen Upload der Fotos direkt von der Kamera. Eine App für iOS soll in den kommenden Monaten veröffentlicht werden.

Weitere Verbesserungen auf einen Blick

Zu den weiteren Erneuerungen, die Ende Mai mit der Community Edition ownCloud 4 veröffentlicht wurden, gehören neben Bugfixes, Securityfixes und Optimierungen in der Performance:

  • Synchronisation von Dateien und Ordnern – Einfach einen Ordner auswählen und mit dem ownCloud-Server verbinden. Dadurch werden Server und Client miteinander synchronisiert.
  • Teilen von Dateien und Ordnern – Datei oder Ordner markieren, “Teilen” anklicken und auswählen, mit wem die Daten geteilt werden sollen.
  • Datei-Upload per Drag & Drop – Zum Upload muss eine Datei nur vom Desktop auf den antsprechenden Ordner im ownCloud-WebClient gezogen werden.
  • Versionierung – Alle Änderungen werden als jeweils eigene Version einer Datei gespeichert. Damit können “ältere” Versionen einer Datei einfach wiederhergestellt werden.
  • ODF-Viewer – Damit können alle Texte, Tabellen und Grafiken, die im Open Document Format (ODF) gespeichert wurden, angesehen werden, ohne dass sie gespeichert werden müssen.
  • Application Programming Interface – Über eine neue API können Unternehmen ihre eigenen Plug-Ins integrieren.
  • ownCloud Application Store Integration – Damit können Unternehmen die kostenlosen Plug-Ins der ownCloud-Community schnell und einfach einbinden.

Preise und Verfügbarkeit

Die Kosten für die Business Edition betragen 799 EUR pro Jahr für die ersten 50 Nutzer. Die Enterprise Edition kann für 12.500 Euro pro Jahr für die ersten 250 Nutzer erworben werden. Kunden die sich für die kommerziellen Versionen entscheiden, erhalten offizielle Maintenance und technischen Support von der ownCloud Inc.



Unternehmen aufgepasst: Red Hat schiebt Java EE 6 in die Cloud

Die neue JBoss Enterprise Application Platform 6 kann nun auch als Developer Preview zusammen mit dem Platform-as-a-Service (PaaS) Red Hat OpenShift eingesetzt werden. Damit wäre OpenShift der erste PaaS, der mit der Java EE 6 läuft. Das gab Red Hat während seines Red Hat Summit 2012 bekannt.

Unternehmen aufgepasst: Red Hat schiebt Java EE 6 in die Cloud

Java EE in der Cloud

Die Enterprise Application Platform 6 steht aktuell als Developer Preview kostenlos auf OpenShift.com bereit. Die neue Version ermöglicht das Code Deployment mit Hilfe des JBoss Developer Studio 5 direkt auf OpenShift. Zudem unterstützt sie Java Funktionen wie EJB 3.1 und JMS und erlaubt die Konfiguration und Administration entweder über das Web oder eine Kommandozeile. Weiterhin können eine Reihe an Java Framework für die Entwicklung von Web, Mobile, HTML5 und komplexen Anwendungen genutzt werden.

Kostenpflichtiger Support

Im Laufe des Jahres plant Red Hat einen kostenpflichtigen Support als Teil seines "MegaShift" Angebots. Zudem sind weitere Optionen wie Auto-Clustering oder Skalierung in Vorbereitung.



Microsoft erweitert Windows Azure zu einem vollständigen IaaS und PaaS Cloud Stack

Microsoft baut seine Cloud Plattform Windows Azure mit vielen neuen Services und Funktionen weiter aus. Das kündigt das Unternehmen auf dem Windows Azure Team Blog und auf seiner Konferenz Meet Windows Azure an.

Microsoft erweitert Windows Azure um weitere Services und Funktionen

Mit "Windows Azure Virtual Machines" ermöglicht Microsoft endlich die lang erwartete Möglichkeit eigene Windows- oder Linux basierte VMs persistent auf Windows Azure zu nutzen. Das "Windows Azure Virtual Network" unterstützt beim Aufbau heterogener Netzwerktopologien inkl. lokalen und Cloud basierten Elementen. Convenience bieten die "Windows Azure Websites", mit denen Webseiten anhand bekannter Frameworks auf Windows Azure gehostet werden können. Die "Windows Azure Media Services" runden die neuen Services ab und bieten Möglichkeiten für die Produktion, Verarbeitung und Bereitstellung von medialen Content.

Neben neuen Services wurden ebenfalls bereits vorhandene Dienste mit weiteren Funktionen aktualisiert. Dazu gehört ein auf HTML 5 basierendes Management Portal sowie das Windows Azure SQL Reporting. Zudem wurden die Java und Python Bibliotheken verbessert und das Windows Azure SDK aktualisiert. Neben einem neuen verteilten Caching wurde darüber hinaus die Windows Azure Active Directory und das CDN erweitert.

Windows Azure Virtual Machines

Azure Virtual Machines ermöglicht den Betrieb eigener virtueller Maschinen auf Windows Azure. Anders als von dem Web/ Worker Modell bekannt, wird der lokale Speicher der virtuellen Maschinen persistiert, wodurch der Inhalt auch z.B. nach einem Reboot vorhanden bleibt. Um das zu ermöglichen, liegen die Dateisysteme im Blob Speicher. Die virtuellen Maschinen können entweder direkt aus einer VM Gallery, also einer Art Shop vorkonfigurierter Images geladen werden oder zunächst selbst in einen eigenen Blob Speicher kopiert und später von dort bezogen werden. Dazu müssen die VMs als virtuelle Festplatten (VHDs) vorliegen. Windows Azure unterstützt zunächst sowohl Windows als auch Linux Images.

Windows Azure Virtual Network

Mit dem Azure Virtual Network können Nutzer eigene Virtual Private Networks (VPNs) innerhalb von Windows Azure aufbauen und diese ebenfalls mit der eigenen lokalen IT-Infrastruktur verbinden. Hier unterstützt Windows Azure IPv4-Adressen sowie eigene Routing Tabellen und Sicherheitseinstellungen. Auf dieser Basis lassen sich Hybrid Cloud Modelle aufbauen, wodurch sich die eigene IT-Infrastruktur mit Ressourcen aus der Azure Cloud erweitern lassen, um z.B. unerwartete Spitzenlasten auszugleichen.

Windows Azure Websites

Mit Azure Websites lassen sich Web basierte Systeme auf Basis bekannter Frameworks und Open Source Lösungen wie ASP.NET, PHP, Node.js, Wordpress usw. hochskalierbar hosten.

Windows Azure Media Services

Die Azure Media Services stehen bereits seit längerem zur Verfügung. Sie ermöglichen auf Basis von mehreren Cloud Services die Produktion von Medieninhalten wie bspw. der Codierung, der Content Protection und dem Streaming der Inhalte.

Erweiterung der Zielmärkte

Windows Azure steht mittlerweile für Kunden in 48 Ländern weltweit zur Verfügung. Darunter Russland, Südkorea, Taiuwan, Türkei, Ägypten, Südafrika und die Ukraine. Bis zum Ende diesen Monats sollen es dann 89 Länder sein und 19 lokale Währungen unterstützen.

Fazit

Microsoft legt langsam richtig los. Nachdem Windows Azure zunächst als PaaS vermarktet wurde, ziehen die Redmonder nun auch im Bereich Infrastructure-as-a-Service gewaltig nach. Ein neutraler Blick zeigt einen vollständigen und sehr umfangreichen Public Cloud Stack, der in starker Konkurrenz zu den Amazon Web Services steht. Konzentriert sich Amazon derzeit verstärkt auf die Startups dieser Welt, ist Microsoft bereits da angekommen, wo Amazon gewillt ist hinzukommen, das Enterprise. Vor allem die breite Kundenbasis Microsofts im nicht Cloud-Umfeld ist ein enormer Wettbewerbsvorteil den Amazon nicht genießt. Durch die Erweiterung seiner Azure Plattform um IaaS Eigenschaften, insbesondere das Hosting eigener VMs und die Möglichkeit zum Aufbau von Hybrid Clouds (VPNs), wird es Microsoft vereinfachen seine Bestandskunden in die eigene Cloud zu führen.



Red Hat veröffentlicht finale Version seiner IaaS Plattform CloudForms

Red Hat hat heute die finale Version von CloudForms veröffentlicht. Dabei handelt es sich um eine offene und hybride Infrastructure-as-a-Service (IaaS) Lösung, mit der Unternehmen Private und Hybrid Clouds erstellen und verwalten können.

Red Hat veröffentlicht finale Version von CloudForms

Unternehmen können mit CloudForms eine offene Hybrid Cloud aufbauen, die aus den verschiedensten Infrastrukturbausteinen unterschiedlicher Hersteller besteht. Sie vermeiden damit die Herstellerabhängigkeit und sind in der Lage, alle Applikationen effizient zu verwalten. Einmal eingerichtet, können Unternehmen Anwendungen bereitstellen, verwalten und kontrolliert zwischen verschiedenen Clouds, Virtualisierungsumgebungen und physischen Servern anordnen.

Die wichtigsten Vorteile von CloudForms beschreibt Red Hat wie folgt.

  • Endanwender sind selbstständig in der Lage Cloud-Ressourcen zu nutzen und IT-Administratoren erhalten alle Werkzeuge, um diese Ressourcen wirksam zu überwachen und zu steuern.
  • Unternehmen können eine offene, hybride Cloud aufbauen, indem sie die Funktionen ihrer internen IT-Infrastruktur mit zuverlässigen und vertrauenswürdigen Public Clouds kombinieren.
  • Administratoren können mit einem Application Blueprint komplexe Anwendungen einfacher konfigurieren und verwalten – unter Einbeziehung unterschiedlicher Virtualisierungstechnologien. Dadurch reduziert sich der Verwaltungsaufwand und die Infrastruktur wird flexibler.
  • Tools und Software von unterschiedlichen Anwendern sowie ein breites Spektrum von Cloud-Technologien können problemlos in eine vorhandene Infrastruktur einbezogen werden. Unternehmen erhalten so eine breite Auswahl an Lösungsvarianten und vermeiden die Abhängigkeit von einzelnen Herstellern.

Red Hat CloudForms erweitert das recht umfangreiche Portfolio von Infrastrukturlösungen, bestehend aus Red Hat Enterprise Linux, Red Hat Enterprise Virtualization, JBoss Enterprise Middleware, Red Hat Storage und ein Vielzahl von zertifizierten ISV-Applikationen. Dennoch bleibt abzuwarten, ob sich die Lösung im mittlerweile doch hart umkämpften Markt von Open Source Cloud Infrastrukturen durchsetzen wird. Zumal mit Eucalyptus aber auch OpenStack oder Cloudstack ein starker Mitbewerb wartet.



HP erweitert sein Converged Cloud Portfolio um heterogene IT-Landschaften und hybride Cloud-Umgebungen

Nach dem Einstieg in das Big Data Geschäft hat HP auf seiner Discover 2012 ebenfalls Neuigkeiten rund um sein HP Converged Cloud Portfolio angekündigt. Dazu gehören neue Funktionen am HP CloudSystem, durch die Kunden nun weitere Möglichkeiten zum Cloud Bursting und mehr Flexibilität im Betrieb ihrer Managed-, Private- oder Public-Cloud-Umgebungen erhalten. Die HP Cloud Planning Services sollen Kunden dabei helfen, den Bedarf und die Anforderungen an Cloud-Lösungen zu identifizieren sowie die Implementierung zu beschleunigen. Die neuen Angebote sollen zudem die Leistungsfähigkeit der Cloud über die gesamte Infrastruktur sowie alle Anwendungen und Informationen hinweg steigern.

HP erweitert sein Converged Cloud Portfolio um heterogene IT-Landschaften und hybride Cloud-Umgebungen

Cloud Bursting Möglichkeiten steigern Flexibilität von hybriden Cloud Umgebungen

Ein großes Versprechen von Cloud Computing lautet, dass Unternehmen ihre IT-Umgebung bei Bedarf mittels Bursting um externe Cloud-Ressourcen erweitern können. Mit dem HP CloudSystem bietet HP nun ein Portal, mit dem Unternehmen zusätzliche IT-Ressourcen von HP Cloud Services und Amazon Web Services sowie aus der schon bestehenden Bursting-Partnerschaft mit Savvis beziehen können. Unternehmen erhalten damit zusätzliche Flexibilität in der Dienstleisterauswahl und behalten volle Kontrolle und Übersicht über den Ressourceneinsatz. Die Kosten für das Bursting richten sich danach, wie lange und in welchem Umfang der Service genutzt wird.

HP CloudSystem Matrix und HP Cloud Service Automation

Die HP CloudSystem Matrix ist nun auch als alleinstehende Software-Lösung verfügbar und unterstützt Server-Umgebungen von HP und Drittanbietern. Die Lösung setzt als Virtualisierungs-Software VMware vSphere oder Windows Server Hyper-V voraus. Unternehmen können die Software selbst herunterladen, installieren und damit Infrastructure-as-a-Service innerhalb eines Tages einrichten. Die Lösung umfasst neben den Kernfunktionen von CloudSystem Matrix einen Cloud-Service-Designer, ein Self-Service-Portal für IT sowie Werkzeuge für die automatisierte Bereitstellung von Ressourcen und Kapazitätsplanung.

Die neue Version 3.0 von HP Cloud Service Automation soll die Flexibilität erhöhen und die Kosten für Dienstleister reduzieren, die die Cloud als Plattform-as-a-Service oder Software-as-a-Service anbieten. Die automatisierte Lösung für Service Lifecycle Management von Cloud-Anwendungen umfasst einen grafischen Service-Designer und ein Self-Service-Portal für Geschäftskunden. Die offene, erweiterbare Architektur ermöglicht Kunden eine umfassende, einheitliche Verwaltung für Private, Public und Managed Clouds wie auch für traditionelle IT. HP Cloud Service Automation 3.0 ist erhältlich als Teil von HP CloudSystem Enterprise sowie als alleinstehende Lösung.

Cloud-Implementierung mit Hilfe eines individuellen Support

HP Cloud Planning Services helfen bei der Planung von konvergenten Cloud-Lösungen. Die Services beinhalten folgende Module:

  • Der HP Converged Cloud Workshop hilft Kunden bei der Auswahl des richtigen Cloud-Modells. Er umfasst Beratungsleistungen für die Konzeption von Converged-Cloud-Umgebungen, die Entwicklung der Architektur und den Aufbau der Infrastruktur. Der Workshop beschäftigt sich auch mit den nötigen Anpassungen der Anwendungslandschaft, der Finanzierung, der Einführung von Governance-Regeln und Fragen der Sicherheit. Der ein- bis zweitägige Workshop ist eine Weiterentwicklung des HP Cloud Discovery Workshops.
  • Der HP Cloud Future Definition Service ermöglicht es Kunden, künftige IT-Betriebsmodelle zu veranschaulichen. Dabei werden der Soll-Zustand, die Architektur und das künftige Modell für die Bereitstellung von IT-Services über Private, Public und Hybride Clouds definiert. Mithilfe des HP Cloud Capability Planning Tools unterstützt HP Kunden außerdem dabei, den nötigen Aufwand einzuschätzen und die nächsten Schritte zu priorisieren.
  • Mit der HP Cloud Gap Analysis reduzieren Unternehmen das Risikopotenzial bei der Einführung von Cloud Computing. Hierzu wird der Ist- mit dem Soll-Zustand anhand von Branchen-Benchmarks verglichen. HP stellt außerdem einen umfassenden Projektplan bereit, der Abhängigkeiten von Einzelschritten aufzeigt und einzuschätzen hilft, inwieweit Menschen, Prozesse und Technologien auf einen reibungslosen Übergang in die Cloud vorbereitet sind.
  • Mit dem HP Cloud Business Case werden die finanziellen Aspekte von Cloud-Implementierungen analysiert und Kalkulationen für Service-Anbieter von Private Clouds erstellt. So werden die Kostenplanung und Investitionsfreigaben beschleunigt sowie wichtige Entscheider frühzeitig in die Planungen einbezogen. Zusätzlich arbeitet HP mit Anbietern von Public Clouds zusammen und hilft ihnen bei der Entwicklung ihres Geschäftsplans. So können sie ihre Marketing-Strategie und Investitionsplanung für neue Public-Cloud-Angebote aufstellen.

Verfügbarkeit der Ankündigungen

Die erweiterte Bursting-Fähigkeit von HP CloudSystem und die Software HP CloudSystem Matrix werden weltweit ab Juni, CloudSystem Enterprise und Cloud Service Automation Software 3.0 ab Juli erhältlich sein. Die neue Version von CloudSystem Service Provider erscheint im September.

Die HP Cloud Planning Services sind bereits durch HP Technology Consulting verfügbar. Die Preise richten sich je nach Standort und Implementierung.



Eucalyptus Systems expandiert mit seiner Cloud Lösung nach Deutschland

Eucalyptus Systems, Hersteller der gleichnamigen on-Premise Cloud Computing Software, hat heute seinen Markteintritt in Deutschland bekannt gegeben. Mit dieser Initiative möchte das US-amerikanische Unternehmen seine Vertriebs- und Support-Aktivitäten in Mitteleuropa verstärken. An der Spitze der neuen Europa-Präsenz steht Paul Holt, der kürzlich zum Executive Vice President für den EMEA-Vertrieb ernannt wurde. Aufbauend auf Eucalyptus schnell wachsender Verbreitung im Markt soll das Angebot und die Unterstützung für deutsche Kunden, zu denen bereits Plinga und PUMA gehören, damit weiter vorangetrieben werden.

Eucalyptus Systems expandiert mit seiner Cloud Lösung nach Deutschland

Strenge Datenschutzgesetze, die festlegen, wie Unternehmen Daten länderübergreifend verwalten und teilen können, führen in Deutschland und Mitteleuropa zu einer zunehmenden Nachfrage nach on-Premise IaaS-Plattformen. Um schnell auf wechselnde Marktbedingungen reagieren zu können, fordern Unternehmen zudem Lösungen, die sich durch hohe Flexibilität und gute Skalierbarkeit auszeichnen. Basierend auf diesen Trends wird der Umsatz im Bereich Cloud Computing 2012 voraussichtlich um 50 Prozent wachsen und damit auf insgesamt 5,3 Milliarden Euro ansteigen. Bis 2016 rechnen Analysten mit einem Wachstum von bis zu 17 Milliarden Euro.

„Wir brauchten unbedingt die Kontrolle, die Zuverlässigkeit und die Kosteneinsparungen, die nur eine eigene private Cloud bieten kann“, sagt Thorsten Lubinski, CTO von Plinga, dem führenden Plattform-Anbieter von Social Games in Europa. „Wir sind eine Plattform für Spiele-Anbieter aus der ganzen Welt mit sehr dynamischen Anforderungen an die Infrastruktur. Die Elastizität einer Cloud-Lösung war aus diesem Grund für uns unabdingbar. 400 Server haben wir von AWS zu Eucalyptus umgezogen. Nicht nur die Zuverlässigkeit und die gute Skalierbarkeit der Plattform haben uns beeindruckt, sondern auch der ausgezeichnete Service des Support-Teams von Eucalyptus.“

Erst im März diesen Jahres kündigte Eucalyptus eine Kooperation mit den Amazon Web Services (AWS) an, die es Kunden ermöglicht, Workloads effizienter zwischen ihren eigenen Rechenzentren und AWS zu verteilen und dabei die gleichen Management-Tools zu nutzen. Kunden können Anwendungen in ihren bestehenden Rechenzentren ausführen, die kompatibel mit populären Webservices von Amazon sind, darunter Amazon Elastic Compute Cloud (Amazon EC2) und Amazon Simple Storage Service (Amazon S3).

„Durch die frühzeitige Nachfrage in Deutschland nach on-premise und hybriden Formen von Cloud-Computing, bietet dieser Teil Europas großes Wachstumspotenzial“, so Said Ziouani, Executive Vice President Worldwide Sales von Eucalyptus. „Unternehmen suchen aktiv nach Möglichkeiten, Kosten zu senken, ohne dabei die Qualität der Dienstleistungen ihrer IT-Abteilungen zu gefährden. Tausende erfolgreiche Cloud-Implementierungen zeugen von der Leistungsfähigkeit der Eucalyptus-Plattform. Mehrere hundert Implementierungen allein in Deutschland bestätigen die Wichtigkeit von On-Premise-Clouds für europäische Unternehmen.“



AWS veröffentlicht VM Export Service für Amazon EC2

Mit dem AWS VM Import Service ermöglichen die Amazon Web Service den Import unterschiedlicher Virtual Machine Formate nach Amazon EC2, um damit virtualisierte On-Premise Ressourcen in die Amazon Cloud zu migrieren. Wie Jeff Barr auf dem Unternehmensblog berichtet, wurde der Service nun so erweitert, um virtuelle Maschinen von Amazon EC2 in die eigene On-Premise Umgebung zu exportieren.

AWS veröffentlicht VM Export Service für Amazon EC2

Diese Funktion steht mit der neuesten Version der EC2 command line (API) Tools bereit. Ein Export könnte bspw. so aussehen:

ec2-create-instance-export-task –e vmware -b NAME-OF-S3-BUCKET INSTANCE-ID

Hier wird die Instanz ID und der Name eines S3 Buckets benötigt, in dem die exportierte VM gespeichert wird.

Mit dem Befehl ec2-describe-export-tasks kann der Export Prozess überwacht und mit ec2-cancel-export-task gestoppt werden.

Ist der Exportvorgang abgeschlossen, muss das exportierte Image lediglich in die lokale On-Premise Umgebung heruntergeladen werden.

Der Service unterstützt derzeit den Export von Windows Server 2003 (R2) und Windows Server 2008 EC2 Instanzen in das VMware ESX kompatible VMDK Format sowie nach Microsoft Hyper-V VHD oder Citrix Xen VHD Images. Zudem plant AWS in Zukunft weitere Betriebssysteme, Image Formate und Virtualisierungstechnologien zu unterstützen.



ownCloud veröffentlicht Version 4

Der Hybrid Cloud Anbieter ownCloud gibt die Freigabe von ownCloud 4 bekannt. Nach eigenen Angaben nutzen bereits mehr als 450.000 Anwender die kostenlose File-Synchronisierungs- und File- Sharing-Software, um Adressen, Termine, Bookmarks und Office-Dateien zu verwalten und mit ihren verschiedenen Endgeräten zu synchronisieren.

ownCloud veröffentlicht Version 4

Auf Grund der regen Entwickler-Community sind viele Verbesserungen und neue Funktionen in ownCloud 4 eingeflossen, u.a.:

Versionierung

Mit Version 4 unterstützt ownCloud nun die Versionierung von Dateien. Alle Änderungen werden als jeweils eigene Version einer Datei gespeichert und können bei Bedarf nachvollzogen werden. Insbesondere können damit “ältere” Versionen einer Datei einfach wiederhergestellt werden.

Viewer für Open Document Format

Die neue Version wurde um einen Viewer für das Open Document Format (ODF) erweitert, das von LibreOffice und Apache OpenOffice verwendet wird. Damit lassen sich Texte, Tabellen und Grafiken mit dem Web-, Windows- und Linux-Client von ownCloud lesen, ohne dass die Dateien dafür auf dem entsprechenden Endgerät gespeichert werden müssen.

Drag & Drop

Mit Drag & Drop Funktion können Anwender eine Datei direkt von ihrem Desktop in den ownCloud Web- oder Desktop-Client ziehen, um diese im ownCloud-System zu speichern. Dabei können Dateien auch direkt in Unterordnern abgelegt werden.

Serverseitige Verschlüsselung

Bisher war bereits die Verbindung zwischen Client und Server SSL-verschlüsselt. Ab Version 4 können nun auch sensible Dateien verschlüsslt auf dem ownCloud-Server abgelegt werden, so dass nur der Schlüsselinhaber die Datei wieder lesbar machen kann.

Application Programming Interface

Mit einem neuen Application Programming Interface (API), sollen Entwickler nun eigene Programme für ownCloud viel einfacher entwickeln können.

Freigegebene und öffentliche Kalender

Eine weitere Verbesserung bringt ownCloud 4 auch für Teams: Neben eigenen Kalendern werden nun auch freigegebene und öffentliche Kalender synchronisiert.

Kombination von eigenem Speicher mit Cloud-Storage

Neben Dateisystemen, die Daten auf eigenen Speichersystemen verwalten, können Anwender mit ownCloud 4 zusätzlich auch externe Cloud-Speicher eingebinden. Damit haben sie die Möglichkeit, unternehemenskritsche Dokumente auf eigenen Servern und weniger wichtige Daten kostengünstig in der Cloud zu speichern – und können dennoch alle Dateien mit einer einzigen Benutzeroberfläche verwalten. Diese Funktion ist in ownCloud 4 noch als “experimentell” gekennzeichnet und wird in den kommenden Wochen auch für den produktiven Einsatz freigegeben werden.

Eine weitere Neuigkeit ist ein Plugin für die Verwaltung von Aufgaben. Weitere Verbesserungen bietet ownCloud 4 bei “Kontakten und Gruppen”, bei der Fotogallerie, bei der Performance und der Installation von Plug-Ins. Eine Übersicht aller Neuerungen von ownCloud 4 liefert http://owncloud.org/features.

Die Community-Edition ownCloud 4 steht kostenlos zum Download bereit unter http://www.owncloud.org.



Microsoft arbeitet an einer neuen Hosting Plattform für Web Applikationen

Unter dem Codenamen Antares arbeitet Microsoft anscheinend an einer neuen Hosting Plattform für Web Applikationen, das berichtet ZDNet als Reaktion auf einen Tweet und Aussagen von Microsoft Verantwortlichen während des Microsoft Hosting Summit 2012.

Microsofts Azure App Plattform Team, unter der Leitung von Corporate Vice President Scott Guthrie, arbeitet demnach an einem Hosting Framework für Web Anwendungen, das sowohl für Windows Azure als auch für Private Clouds eingesetzt werden kann. Der aktuelle Arbeitstitel lautet noch "Antares", wurde in Tweets während des Microsoft Hosting Summits 2012 aber scheinbar als offizielles Microsoft Web Hosting Framework angekündigt.

ZDNet war der Codename "Antares" bereits vor einiger Zeit in einer Stellenbeschreibung von Microsoft aufgefallen, in der von einem symmetrischen Azure und On-Premise Framework gesprochen wurde:

“The Antares team is changing the game by introducing a symmetrical Azure and on-prem hosting framework for many web applications created in many languages and stacks. We are poised to offer developers a quick and painless Azure onramp experience as well as enable our partner to quickly setup a fully managed, secure, multi-tenant hosting environment on public or private clouds. If this is intriguing, talk to us in the Azure Application Platform team. We are building the Microsoft Web Hosting Framework, a world class offering allowing for massive scale website lifecycle management on the Microsoft platform.”

Während des Summits sollen zudem eine Reihe von Tweets von Teilnehmern darauf hinweisen, dass die neuen Produkte wie Windows Server 8 und System Center 2012 auf die Nutzung in Public und Private Cloud Umgebungen ausgelegt sind. Dabei soll es sich um offizielle Aussagen Seitens Microsoft handeln.

Darüber hinaus gab Microsofts Chief Marketing Officer Chris Capossela eine Liste mit aktuellen Herausforderungen für Microsoft bekannt:

  1. cloud
  2. new hardware
  3. natural interface
  4. enterprise and consumer
  5. first party
  6. Windows

Bildquelle: http://zdnet.com



Amazon und Eucalyptus kooperieren – Gemeinsame Allianz gegen OpenStack?

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus werden in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen.

Amazon und Eucalyptus kooperieren - Gemeinsame Allianz gegen OpenStack?

Amazon und Eucalyptus kooperieren.

Dabei wird die Kooperation unterschiedlich aufgebaut sein. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen.

Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.


Das sieht ganz nach einer Allianz gegen OpenStack aus! Schaut man sich die jüngsten Ankündigungen bzgl. OpenStack an - siehe unten - wäre das von Amazon als auch Eucalyptus ein kluger Schachzug, zumal sich die Eucalyptus Infrastruktur sehr nah an den Basisfunktionen der Amazon Web Services orientiert.

Zudem kann der von Amazon immer wieder geförderte Ansatz der Hybrid Cloud damit verbessert werden. Was sicherlich auch im Hinblick auf das Thema Big Data und der damit verbundenen Verarbeitung großer Datenmengen in der Amazon Cloud für die Amazon Web Services von großem Nutzen sein wird. Nach dem Motto: "Bigger is Better" bzw. "Data without Limits".


Bildquelle: http://www.search-internetmarketing.com/, http://www.techweekeurope.co.uk



Microsoft schickt sein Dynamics ERP in die Cloud

Microsoft hat erste Schritte unternommen, seine Enterprise Resource Planning Lösung Dynamics ERP Cloud-fähig zu machen und gegen Ende 2012 bereitzustellen. Dieses wurde auf der Convergence Conference in Houston bekanntgegeben.

Bereits auf der Convergence 2011 sprach Microsoft öffentlich über Gedanken, die ERP Anwendung über die eigene Azure Cloud Plattform auszurollen. Diese Ideen werden nun im vierten Quartal 2012 umgesetzt, wodurch NAV 2013 und GP 2013 als Cloud Lösungen bereitgestellt werden. Eine Beta Version von NAV 2013 wird im kommenden Mai veröffentlicht.

Neben diesen Erneuerungen plant Microsoft ebenfalls Kooperationen mit ISV Partnern, die in Zukunft ihre Anwendung via Windows Azure als Cloud Services anbieten sollen.

Mit dem Weg von Dynamics in die Cloud erhofft sich Microsoft eine gewisse Differenzierung von anderen Anbietern im Markt. Da die Redmonder damit nun in der Lage sind, per Public, Private und Hybrid Cloud Lösungen ihren Kunden unterschiedliche Nutzungsstrategien anzubieten.



Kriterien zur Auswahl eines Cloud Computing Anbieters

Cloud Computing Anbieter haben mit ihren Angeboten und Eigenschaften den größten Einfluss auf Unternehmen und deren Informationstechnologie. Dabei müssen sich Unternehmen der Herausforderung stellen, den für Ihre Bedürfnisse idealen Anbieter zu identifizieren. Das stellte Unternehmen bereits in der Vorzeit des Cloud Computing vor Probleme, jedoch hat sich die Situation durch die hohe Standardisierung auf Seiten der Anbieter verschärft.

In der Regel müssen sich Unternehmen für das entscheiden, was der Anbieter im Portfolio hat ohne Einfluss darauf zu haben und Anpassungen vornehmen zu können. Hinzu kommt, dass neben dem Angebot und dem Preis ebenfalls die SLAs, Governance, Compliance usw. bei der Auswahl berücksichtigt werden müssen. Schließlich hat sich der Einflussbereich des Unternehmens minimiert und das Vertrauen in den Cloud Computing Anbieter steht auf dem Spiel.

Die eigenen Bedürfnisse sind ausschlaggebend

Unternehmen stehen damit vor der Herausforderung den oder die Anbieter zu selektieren, der bzw. die ihre Ansprüche bzgl. der Integration der vorhandenen Systeme, der Abbildung der Geschäftsprozesse usw. bestmöglich unterstützen und des Weiteren über eine hohe Vertrauensbasis verfügen.

Eine Bewertung und Auswahl vorzunehmen ist nicht trivial. Zudem existieren dafür keine geeigneten Frameworks und es ist ebenso schwierig so ein allgemeingültiges Framework zu erstellen. Das ist der Individualität und den Anforderungen eines jeden einzelnen Unternehmens geschuldet. Jedoch kann ein Unternehmen bei der richtungsweisenden Bewertung und Auswahl unterstützt werden.

Grundsätzlicher Auswahlprozess

Auf Grund einer Vielzahl von Angeboten, die unterschiedliche Services, Kosten, Support etc. mit sich bringen, benötigen Unternehmen eine klare Strategie und starke Auswahlkriterien um Cloud Computing bestmöglich für sich zu nutzen.

Während Kosten, Skalierbarkeit, Fachwissen und die operative Stabilität offensichtliche Kriterien sind, gibt es weitere wichtige Faktoren, die bei der Auswahl eines Cloud Computing Anbieters notwendig sind.

Eigene Anforderungen definieren

Ein Unternehmen muss sich zunächst über sich selbst im Klaren sein. Das heißt, es muss seine Unternehmensstrategie, seine Unternehmensziele sowie seine Kernprozesse und Funktionen kennen. Zudem muss es klar definieren, was es sich von der Nutzung der Cloud verspricht. Geht es eher darum, die Möglichkeiten der internen IT zu erweitern oder sollen die nicht strategisch wichtigen Unternehmensanwendungen in die Cloud migriert und dort betrieben werden?

Sobald das Unternehmen eine klare Vorstellung von seinen Anforderungen hat, gilt es einen geeigneten Partner zu finden, der bei der Ausführung hilft. Dabei sollte beachtet werden, dass ein Anbieter, der den aktuellen Bedürfnissen gerecht wird, möglicherweise bei einer Änderungen der Strategie nicht mehr die gewünschten Anforderungen erfüllen kann. Die eigene Strategie sollte daher nicht als ein statischer Plan behandelt werden und eine gewisse Flexibilität beinhalten. Denn die Geschäftsanforderungen ändern sich in der heutigen Zeit deutlich schneller und auch neue unvorhergesehene Cloud-Technologien werden auf dem Markt erscheinen, die dabei helfen werden das Unternehmen strategisch neu auszurichten. Daher ist es notwendig, die Cloud Strategie als auch den Cloud Computing Anbieter regelmäßig zu überprüfen.

Auswahl des Cloud Computing Anbieters

Jedes Angebot im Cloud Computing ist einzigartig. Sei es ein Infrastructure-as-a-Service, Platform-as-a-Service, Software-as-a-Service, Security Service oder ein Service zur Abbildung eines Geschäftsprozesses. Hinzu kommt, dass sich auch die Anforderungen eines Unternehmens an einen Services mit den Angeboten in der Cloud unterscheiden. Das betrifft in erster Linie den eigentlichen Nutzen für das Unternehmen bis hin zur technologischen Anbindung. Die erste Frage, die einem Cloud Computing Anbieter also grundsätzlich gestellt werden muss, ist, ob er genau den Cloud Service anbieten kann, der von dem Unternehmen benötigt wird. Sollte diese Frage mit ja beantwortet werden, gilt es anschließend den Anbieter genauer zu untersuchen. Verfügt er über langjährige Erfahrungen, hat er ein aussagekräftiges Kundenportfolio, passt der Anbieter ethisch zu dem Unternehmen. Bspw. wäre es für ein Unternehmen, das sich in vielen Bereichen für den Umweltschutz einsetzt, unvorstellbar einen Cloud Computing Anbieter zu wählen, der nicht über eine Green IT Policy verfügt.

Im Verlauf der Prüfung werden dann die detaillierten Anforderungen des Unternehmens untersucht und mit den Angeboten des Cloud Computing Anbieters verglichen. Dazu sollten während der Anforderungsanalyse Attribute definiert werden, die der Cloud Service bzw. die Anwendungen erfüllen müssen und je nach Gewichtung für oder gegen die Wahl des Cloud Computing Anbieters sprechen.

Beurteilung der allgemeinen Sicherheit

Eine der größten Sorgen ist die Datensicherheit in der Cloud und die Funktionsfähigkeit der Infrastruktur für den geschäftskritischen Betrieb. Die Systeme und Daten müssen sich daher in sicheren Händen befinden und das gilt es sicherzustellen. Bei der Auswahl des Cloud Anbieters muss daher zunächst eine Bestandsaufnahme der eigenen Sicherheitsanforderungen gemacht und die Probleme erörtert werden, die es zu bewältigen gilt. Dazu gehören z.B. der Datentransfer, die Speicherung, die Zutrittskontrolle, und Netzwerksicherheit. Im Anschluss muss bestimmt werden, ob der Anbieter über die Sicherheit und Compliance Technologien und Mechanismen verfügt, um diese Bedürfnisse zu erfüllen.

Hier sollte der Anbieter u.a. gefragt werden, wie die Sicherheitsmechnismen funktionieren, um den Schutz der Daten während des Transports und beim Speichern zu gewährleisten oder ob die virtualisierte Infrastruktur wirklich sicher ist. Weiterhin ist es notwendig zu wissen, ob der Anbieter über die entsprechenden Technologien und Prozesse wie Verschlüsselung und Entschlüsselung, Disaster Recovery, Zugangsbeschränkungen, Intrusion Protection/ Prevention und Firewall-Dienste verfügt.

Fragen stellen alleine reicht allerdings nicht. Um den Anbieter wirklich kennenzulernen müssen die Sicherheitdokumentationen und Zertifizierungen eingehend überprüft werden. Auch ein Besuch vor Ort sollte in Betracht gezogen werden, um zu sehen und zu verstehen, was sich hinter der Cloud des Anbieters verbirgt.

Zuletzt sollte immer das Worst-Case-Szenario in die Bewertung des Sicherheitsniveaus des Anbieters einfließen. Denn auch wenn das undenkbare niemals eintreten wird, sollte der Anbieter seine Kunden davor bestmöglich schützen können.

Bewertung des Service und Supports

Da es sich beim Cloud Computing um ein serviceorientiertes Model handelt, sollte sich ein Unternehmen für einen Anbieter entscheiden, der Vertrauen ausstrahlt, über eine ausgezeichnete Infrastruktur verfügt und messbare Ergebnisse nachweisen kann. Zudem sollte der Anbieter über eine hohe Reaktionsfähigkeit (schnelle Reaktion auf betriebliche Probleme) und einen guten proaktiven Support (z.B. Kundenbetreuung, vorbeugende Instandhaltung, Erhöhung der Ressoucen in einem Shared Umfeld etc.) verfügen.
Zwar sind maßgeschneiderte Verträge im Bereich des Cloud Computing nicht üblich, dennoch sollte der Anbieter bereit sein, unternehmensgerechte Service Level Agreements (SLAs) zu definieren. Darin enthalten sein sollten bspw. Performance, Verfügbarkeit, Bereitstellungszeit und ein Problemlösungszeitraum. Dazu gehören wiederum formale Eskalationsrichtlinien und definierte Sanktionen. Weiterhin könnte es interessant und notwendig sein, zu überprüfen, wie die bisherige Erfolgsbilanz bzgl. der Einhaltung der SLAs durch den Anbieter aussieht.

Die Suche nach einem flexiblen Anbieter

Das Interesse am Cloud Computing nimmt immer stärker zu. Jedoch ist kein Unternehmen bereit, seine Systeme vollständig in die Cloud zu verlagern. Daher planen die meisten Unternehmen mit dem Aufbau eines hybriden IT-Ökosystems. Also einer Hybrid Cloud, bei der die Ressourcen im eigene Rechenzentrum (ggf. Private Cloud) mit Ressourcen aus einer externen Cloud Infrastruktur (Public Cloud) kombiniert werden.

Unternehmen sollten hierbei darauf achten, dass der Anbieter in der Lage ist, hybride Umgebungen nahtlos zu integrieren und diese ebenfalls sorgfältig zu verwalten. So kann ein Unternehmen bei Bedarf die benötigten Cloud Services von dem Anbieter beziehen und damit seine internen IT Ressourcen und Möglichkeiten erweitern.

Verstehen des Abrechnungsmodells

Die nutzungsabhängige Abrechnung ist eine der attraktivsten Eigenschaften des Cloud Computing. Unternehmen erhalten dadurch die Möglichkeit, auf hohe Investitionen zu verzichten, indem die Kosten für die Beschaffung von Hard- und Software minimiert werden und wodurch sie ein vorhersehbares Betriebskostenmodell aufbauen können.

Dennoch sollten sich Unternehmen bewusst machen, dass jeder Anbieter seine eigene Art und Weise der Preisgestaltung für seine Services hat. Während einige bspw. eine Instanz pro Stunde oder pro Monat abrechnen, berechnen andere auf Basis der genutzten Ressourcen. Einige Anbieter erwarten z.B. eine Vorauszahlung für einen bestimmten Basis Service und in einigen Fällen muss für die Kundenbetreuung möglicherweise eine zusätzliche Gebühr bezahlt werden. Unternehmen müssen daher das Abrechnungsmodell des Anbieters verstehen, um spätere Überraschungen zu vermeiden und ggf. einen kundenspezifischen Preis auszuhandeln.

Auf in die Cloud

Um sicherzustellen, dass exakt die Cloud Services erworben werden, die ein Unternehmen auch wirklich benötigt, muss der Auswahlprozess klar definiert und sorgfältig vorgenommen werden. Dazu gilt es genau zu wissen, wie die Kriterien für die Nutzung von Cloud Computing heute aussehen und wie sie in Zukunft aussehen könnten bzw. sollen.


Bildquelle: http://www.wirtschaftsforum.de



Anwendungsbereiche des Cloud Computing (Redux)

Auf Grund seiner Charakteristiken lässt sich Cloud Computing insbesondere für Szenarien einsetzen, in denen Systeme periodischen oder nicht vorhersagbaren Einflüssen ausgesetzt sind oder einem stetigen Wachstum unterliegen. Cloud Computing lässt sich jedoch vielfältig einsetzen, wie die folgenden Anwendungsfälle zeigen.

Optimierung der eigenen IT-Infrastruktur

Der Großteil aller Unternehmen verfügt über eine eigene, in der Regel komplexe IT-Infrastruktur, die es zu verwalten gilt, um den immer neuen und steigenden Anforderungen gerecht zu werden. Dadurch verlieren die meisten den Fokus auf die eigenen Kernkompetenzen, um sich mit genau diesen von ihren Mittbewerbern zu differenzieren und hieraus einen Vorteil zu erzielen.

Weiterhin werden enorme finanzielle und zeitliche Investitionen getätigt, um den Anforderungen an das laufende Geschäft durch das Verwalten, Vergrößern und Skalieren von Ressourcen und Kapazitäten zu erhöhen (Stichwort: Lastspitzen), wodurch sich die Produktivität z.B. für neue geschäftskritische Projekte verringert. An dieser Stelle dürfen ebenfalls nicht die Vorabinvestitionen vernachlässigt werden, die für den Aufbau der IT-Infrastruktur sowie den laufenden Betrieb/ Wartung vorgenommen werden müssen.

Mit dem Einsatz von Cloud Computing Lösungen z.B. durch das Outsourcing interner IT-Anwendungen oder die Nutzung von Cloud Storage können externe Ressourcen effektiv und bedarfsgerecht genutzt werden und die oben genannten Kosten lassen sich damit minimieren.

Content bereitstellen

Unternehmen stehen vor der Herausforderung, Inhalte wie Bilder, Videos oder sonstige Downloads auf Ihren Webseiten den Kunden hochperformant und zuverlässig bereitzustellen. Eine Möglichkeit dies zu realisieren, ist das Erhöhen des Durchsatzes sowie die Verringerung der Latenz innerhalb des Netzwerks.

Mittels eines Content Delivery Network (CDN) innerhalb einer Cloud Computing Infrastruktur, in welchem die Inhalte auf sogenannten Edge-Servern gespeichert werden und die sich in einem Rechenzentrum, das sich möglichst nah am Benutzer befindet, können Teile der oben genannten Anforderungen erfüllt werden. Zusätzlich können Algorithmen verwendet werden, welche die Inhalte zum Zeitpunkt der Anfrage auf die Server in der Nähe des Benutzers kopieren, wodurch die Leistung weiter erhöht wird.

Hosting von Anwendungen

Vor der Einführung des Software-as-a-Service Modells (SaaS) (abgesehen von den Application Service Providern – ASP) waren Unternehmen gezwungen eigene Infrastrukturen für die Nutzung und Bereitstellung lokaler Anwendungen aufzubauen und zu warten. Mit SaaS können diese Anwendungen nun online gehostet und verwendet werden. Die Vorteile ergeben sich auf der einen Seite durch Kosteneinsparungen auf Grund eines nutzungsabhängigen Abrechnungsmodells durch automatisierte Updates und Upgrades durch den Anbieter. Auf der anderen Seite ist eine gute Integration in die eigenen bestehenden Systeme ein Vorteil.

Anbieter von Software-as-a-Service basierten Anwendungen stehen vor der Herausforderung die kostspieligen und komplexen Infrastrukturen, die für das Hosting dieser Anwendungen benötigt werden, aufzubauen sowie skalierbar und hochperformat bereitszustellen. Zumal die Nachfrage durch die Kunden mittels eines Forecast schwierig anzuschätzen ist.

Bereitstellung von Medieninhalten

Wollen Unternehmen ihren Kunden Medieninhalte über das Internet bereitstellen, stehen sie vor der Herausforderung, Lastspitzen durch nicht kalkulierbare Anfragemengen zu unterschiedlichen Zeitpunkten zu bewältigen, die nicht überschaubar sind und teuer werden können. Anforderungen an die gesamte Infrastruktur betreffen hierbei die verfügbare Bandbreite, die Performance, den Speicherplatz und nicht zu vernachlässigen: Die Sicherheit. All das kann dazu führen, dass die ursprünglich geplanten Kosten deutlich höher ausfallen.

High Performance Computing

Die Verarbeitung großer Datenmengen für die eine hohe Rechenleistung benötigt wird, ist in den vergangenen Jahren stark angestiegen. Davon betroffen sind vor allem Unternehmen aus den Bereichen der Medizintechnik, Finanzdienstleitungen und Medien.

Für einzelne rechenintensive Projekte werden die Kapazitäten der Infrastrukturen oftmals stark erweitert, da die bestehende Infrastruktur nicht leistungsfähig genug ist. Im schlimmsten Fall stehen zusätzlich nicht ausreichend finanzielle Mittel und Zeit zur Verfügung, um die Infrastruktur gemäß den Anforderungen anzupassen. Hinzu kommt der Aufwand zur Errichtung und dem Erweitern der Serverumgebungen und der damit verbundenen Beschaffung und Bereitstellung der Hard- und Software. Das Gewährleisten einer hohen Verfügbarkeit darf ebenso wenig vernachlässigt werden wie die Sicherheit der gesamten Umgebung. Weiterhin muss die Infrastruktur verwaltet werden (u.a. Zuweisung des Speichers, Konfiguration der Batchprozesse, etc.), um den Geschäftszweck zu erfüllen, was implizit dazu führt, dass die Mitarbeiter dementsprechend fortgebildet und verwaltet werden müssen.

Eine weitere Herausforderung ist die Verwaltung und Neuzuordung der Ressourcen nach dem erfolgreichen Beenden eines Projekts. Werden die verfügbaren Ressourcen nicht umgehend neuen Projekten oder Aufgaben zugewiesen, sind diese ungenutzt und verursachen Kosten ohne einen Wertbeitrag zu leisten.

Mittels Cloud Computing können die Problematiken der oben genannten Punkte minimiert werden und Ressourcen für Projekte aus dem Bereich des High Performance Computing (HPC) bzw. Parallel Computing bedarfsgerecht und kosteneffizient bezogen werden.

Externe E-Commerce Lösungen

Im Bereich des E-Commerce verfügen die meisten Unternehmen nicht über die Kernkompetenzen, um in ihren Anwendungen die notwendigen Eigenschaften für einen ganzheitlichen Handelsprozess zu etablieren. Dazu gehören der gesamte Zahlungsverkehr, die Auftragsverwaltung, das Kommissionieren und Verpacken der Artikel sowie den Versand zum Kunden. Weiterhin muss die gesamte IT-Infrastruktur auf die E-Commerce Lösung abgestimmt sein, um die Bearbeitung der Kundenanfragen zuverlässig und sicher abzuwickeln und ebenfalls auf saisonale bzw. unerwartete Lastspitzen durch schwankende Anfragen flexibel zu reagieren.

Zahlreiche Cloud Computing Anbieter stellen E-Commerce Lösungen bereit, wodurch Unternehmen auf den Aufbau und die Verwaltung einer eigenen Plattform verzichten können und sich damit auf ihre Kernkompentenzen und ihre Kunden konzentrieren können.

Webcrawler

Informationen sind im Internet weit verteilt und unorganisiert, wodurch für das Suchen, Abfragen, Verteilen und Organisieren dieser Daten hohe Anforderungen hinsichtlich der Verarbeitung und dem Speichern gestellt werden. Weiterhin werden moderne Algorithmen benötigt, mit denen diese Daten manipuliert, indiziert und die Anfragen der Benutzer beantwortet werden können. Der ständige Wandel innerhalb des Internets verstärkt zudem die Situation, exakt die Informationen zu finden, die gesucht wurden.

Mit Cloud Computing steht im Prinzip jedem die Möglichkeit bzgl. Speicherplatz und Rechenleistung zur Verfügung, um einen eigenen Webcrawler zu entwickeln. Dazu müssen Dinge beachtet werden, die auch von der Infrastruktur eines Cloud Computing Anbieters erfüllt werden müssen, auf welcher der Webcrawler dann ggf. ausgeführt wird.

Datenspeicherung und Datenbackup

Eine der größten Herausforderungen für Unternehmen ist die stetige Zunahme der zu speichernden Daten, welche die Verwaltungsaufgaben immer komplexer und kostspieliger werden lässt. Nicht nur auf Grund dieser Situation wird die Gewährleistung des Datenschutzes und der Datenverfügbarkeit immer wichtiger. Cloud Storage für das Speichern und Backup der Daten ist hierfür ein idealer Ansatz, wenn gewisse Punkte beachtet werden.
Ein Cloud Storage hat bspw. in erster Linie den Vorteil, dass der genutzte Speicherplatz automatisch mit den Bedürfnissen mitwächst. Werden heute 10GB, morgen aber 100GB benötigt, stellt das kein Problem dar und es müssen dafür keine eigenen Investitionen in neue Speichersysteme getätigt werden.
Zudem stehen alle Daten an einer zentralen Stelle bereit, wodurch alle Mitarbeiter von jedem beliebigen Ort aus einen gemeinsamen Zugriff auf exakt denselben Datenbestand erhalten und damit die Zusammenarbeit deutlich verbessert wird.

Web-Hosting

Unternehmen haben unterschiedliche Lösungsansätze, um das Web-Hosting ihrer Webseite zu betreiben. Zunächst besteht die Möglichkeit ein eigens Rechenzentrum aufzubauen und zu betreiben. Weiterhin kann ein Drittanbieter damit beauftragt werden, die Webseite auf seine dafür dedizierten Servern zu hosten und zu verwalten. Der letzte Ansatz ist die Nutzung Cloud Computing basierter Lösungen.

Egal welcher Ansatz nun verfolgt wird, ist es für Unternehmen unabdingbar eine Infrastruktur auszuwählen, die ihnen eine größtmögliche Sicherheit, Zuverlässigkeit und Performance bietet. Unabhängig davon rücken die Kosten, also fixe Kosten und variable Kosten, immer weiter in den Fokus und betreffen jedes Unternehmen jeder Größe. Zudem ist in den letzten Jahren der Wunsch nach Flexibilität immer weiter gestiegen um die Kosten transparenter im Blick zu behalten.

Cloud Computing Lösungen geben Unternehmen hierbei die Chance ihre Vorabinvestitionen zu verringern und damit Kapital zu sparen. Ein weiterer Vorteil einer Cloud Lösung besteht in der Skalierbarkeit in beide Richtungen. Steigt die Auslastung an, können die Ressourcen nach oben skaliert werden. Nimmt die Auslastung wieder ab, werden die überschüssigen Ressourcen wieder freigegeben. In beiden Fällen entstehen nur Kosten für die Ressourcen, die auch tatsächlich genutzt werden.



Arten von Cloud Computing (Redux)

Cloud Computing unterscheidet grundsätzlich drei Arten von Deployment Models

Private Cloud

In einer Private Cloud betreiben Unternehmen ihre eigenen Rechenzentren und nutzen ihre Dienste nur für Ihre eigenen (geschäftlichen) Zwecke innerhalb ihrer eigenen privaten Netze. Die Nutzung durch die Öffentlichkeit kommt hier nicht in Frage. Die Datensicherheit, ‘Corporate Governance’ und Zuverlässigkeit liegen damit in ihrem eigenen Einflussbereich. Aus diesem Grund werden Private Clouds nur indirekt zum Cloud Computing gezählt. Hier werden lediglich die Ideen und Konzepte adaptiert.

Public Cloud

In einer Public Cloud werden Rechenkapazität, Speicherplatz etc. gegen eine Nutzungsgebühr oder kostenlos der Öffentlichkeit zur Verfügung gestellt. Die Aufgaben, die ein Unternehmen in der Private Cloud übernimmt, werden in der Public Cloud dann von einem Drittanbieter übernommen. Dazu gehören z.B. der Kauf und die Wartung der Server. Die Aufgaben und Services von unterschiedlichen Kunden werden dabei auf derselben Infrastruktur gemeinsam gehostet und verarbeitet. Ein einzelner Kunde hat keine Kenntnis darüber, wessen Dienste ebenfalls auf derselben Infrastruktur gespeichert und verarbeitet werden.

Hybrid Cloud

Eine Hybrid Cloud stellt eine Kombination aus einer Private und einer Public Cloud dar. Dabei verfügen Unternehmen zwar über ihre eigene Private Cloud, verwenden aber zusätzlich Dienste aus der Public Cloud von externen Anbietern. Die Attraktivität besteht vor allem darin, dass der externe Anbieter bei Bedarf schneller und kostengünstiger die benötigte Infrastruktur erhöhen bzw. verkleinern kann. Die Dienste werden so in die Private Cloud integriert, dass der Endanwender nicht merkt, dass er eigentlich woanders arbeitet.

Virtual Private Cloud

In der jüngsten Vergangenheit hat sich eine neue Art des Cloud Computing herauskristallisiert, die Virtual Private Cloud. Dabei handelt es sich wie schon bei der Hybrid Cloud um eine Kombination aus einer Public Cloud und einer Private Cloud. Der Unterschied besteht jedoch darin, dass ein Public Cloud Anbieter für den Kunden einen dedizierten (virtuellen) Bereich im Rechenzentrum des Anbieters bereitstellt. Hier kann der Kunde anschließend sein eigenes virtuelles Rechenzentrum nach Private Cloud Gesichtspunkten (Datenschutz, Datensicherheit und Compliance) aber unter den Bedingungen einer Public Cloud (Skalierbarkeit, Verfügbarkeit, Flexibilität und Pay per use) aufbauen. Eine Verbindung der Virtual Private Cloud mit dem eigenen Rechenzentrum ist ebenfalls möglich.



Das Konzept der Amazon Virtual Private Cloud

Bei der Amazon Virtual Private Cloud (VPC) handelt es sich um eine sichere und lückelose Integrationsmöglichkeit zwischen der bereits vorhandenen IT Infrastruktur eines Unternehmens und der Amazon Cloud und dient zum Aufbau einer Hybrid Cloud. Mit Amazon VPC können Unternehmen ihre existierende Infrastruktur mit speziell isolierten AWS Ressourcen mittel eines Virtual Private Network (VPN) verbinden, um damit die Verwaltungsmögklichkeiten wie die Bereiche Sicherheit, Firewall und Intrusion Dection für die AWS Ressourcen zu erweitern.

Um die Amazon Virtual Private Cloud zu nutzen, muss zunächst der IP-Adressraum für die VPC festgelegt werden. Die IP-Adressen innerhalb dieses Adressraums sind privat und bilden ein Netzwerk das mittels paketbasierten Routing von anderen Netzwerken inkl. dem Internet vollständig isoliert ist.

Als nächstes müssen Subnetze erstellt werden, welche Segmente eines VPC IP-Adressraums sind. Damit können die Amazon EC2 Instanzen innerhalb des VPC separiert und sicher betrieben werden. Existiert mehr als ein Subnetz in einem VPC, werden diese mittels eines logischen Routers sternförmig (Stern-Topologie) miteinander verbunden.

Um sich mit der VPC zu verbinden, wird eine VPN Verbindung benötigt, die als VPN Tunnel zwischen der VPC und dem Rechenzentrum, dem Heimnetzwerk oder jeder anderen Co-Location dient. Dazu muss das eigene bestehende Netzwerk so konfiguriert werden, dass jeglicher VPC Datenverkehr zu dem Gateway geroutet wird, welches das Ende der VPN Verbindung darstellt.

Mit einer aktiven VPN Verbindung können anschließend Amazon EC2 Instanzen in einem VPC subnetz starten. Mit den entsprechenden Sicherheitsrichtlinen ist diese Instanz dann ebenfalls im eigenen Netzwerk sichtbar und kann von dort aus wie eine "lokale" Instanz genutzt werden.

VPC basierter Datenverkehr der für das Internet bestimmt ist, wird zunächst automatisch über das VPN in das eigene Netzwerk gerouted. Dort kann dieser von bereits vorhandenen Sicherheitssystemen, wie Firewalls, Intrusion Detection Systemen untersucht werden, bevor die Daten in das Internet weitergeleitet werden. Das ist dann besonders sinnvoll, wenn spezielle Hardware- und Softwaresysteme eingesetzt werden, um bestimmte Sicherheitsrichtlinien zu erfüllen.

Quelle




Thin Clients

IT-Abteilungen leben neben einem erhöhten Kostendruck zusätzlich mit den Problemen der Sicherheit und der Aufrechterhaltung des IT-Betriebs.

Der in den letzten Jahren immer mal wieder aktuell gewordene und dann wieder verblasste Ansatz der Thin Client Nutzung kann der IT helfen diese Probleme zu bewältigen, verfügen Thin Clients doch gegenüber den klassischen Desktop PCs über einige Vorteile.

Zunächst sind Thin Clients - wie der Name schon andeutet - sehr einfach und weniger komplex als Desktop PCs. Das liegt zum einen an den geringeren und funktional beschränkten Hardwareressourcen, zum anderen an der eingesetzten Software. Die benötigte Software wird serverseitig betrieben, wodurch ein lokales "vollwertiges" Betriebssystem nicht benötigt wird. Diese beiden Kernpunkte sorgen dafür, das Thin Clients weniger sensibel bzgl. Fehler und Angriffe sind.

Von Desktop PCs wird heutzutage erwartet, dass sie 24/7 funktionsfähig sind. Dabei wird jedoch nicht bedacht, das nicht vorhersehbare Situationen, wie Hackerangriffe, der Ausfall der Hardware oder ganz einfach Benutzer dafür verantwortlich sind, das dem nicht so ist und niemand diese Erwartungen gewährleisten kann.

Speziell die Einflussnahme der Benutzer auf die Systemkonfiguration erhöht auf Thin Clients, durch das Beschränken oder vollständige entziehen der Rechte, die Systemstabilität und schützt den Benutzer und das gesamte Unternehmensnetzwerk vor Angriffen durch Viren, Würmer und jeglicher Form von Malware. Weiterhin wird die Stabilität und der Schutz erhöht, da Thin Clients ihre Anwendungen von einem oder mehreren zentralen Servern beziehen und nicht mehr - wie Desktop PCs - auf lokale Anwendungen und ein vollwertiges lokales Betriebssystem angewiesen sind.

Trotz hinreichender Anordnung speichern Benutzer ihre Daten generell auf der lokalen Festplatte und nicht wie gefordert auf die dafür vorgesehenen Netzlaufwerke, also auf den zentralen Servern. Nicht selten hört man von Fehlern der Festplatte die dazu führen, dass die Arbeit eines Tages in kurzer Zeit hinfällig war und erneut erledigt werden muss. Der Diebstahl der Daten sollte auch hier nicht außer acht gelassen werden. Auf der anderen Seite sind Benutzer in diesem Fall für Backups selber zuständig, was verständlicherweise gerne mal vergessen wird. Da Thin Clients über keine lokalen Daten verfügen, sind damit alle oben genannten Probleme hinfällig. Das Speichern der Daten erfolgt auf zentralen Servern, wo von ihnen jeden Tag automatisiert ein Backup vorgenommen wird. Dazu kommt, dass wenn keine lokalen Daten vorhanden sind, diese auch nicht gestohlen werden können. Zudem reicht es aus, Desktop-Firewall Konzepte serverseitig einzurichten, wodurch der Administrationsaufwand verringert wird.

Der letzte Themenbereiche behandelt die physikalische Sicherheit der Systeme. Werden Desktop PCs gestohlen, ist der Angreifer im schlimmsten Fall im Besitz unternehmenskritischer Daten (Festplattenverschlüsselung hin oder her). Thin Clients hingegen werden erst dann sinnvoll, wenn sie mit einem Server des Unternehmensnetzwerks verbunden sind und haben außerhalb des Unternehmens für den Angreifer keinen Nutzen. Auch der Diebstahl der Daten durch den Anschluss externer Geräte wie USB-Sticks oder USB-Festplatten oder das Übertragen von Viren etc. durch CDs stellt ein nicht zu verkennendes Problem dar. Der Zugriff kann bei Desktop PCs natürlich unterbunden werden. Das physikalische entfernen stellt sich jedoch als ziemlich schwierig und aufwendig dar. Fällt die Entscheidung daher auf Thin Clients, sollte mit den Gedanken gespielt werden sich gegen physikalische vorhandene USB-Ports und CD/DVD Laufwerke zu entscheiden.

All die oben beschriebenen Probleme der Desktop PCs können natürlich durch diverse Softwareangebote behoben werden. Jedoch verursachen diese wiederum Anschaffungs-, Installations- und Wartungskosten. Zudem ist die Verträglichkeit mit vorhandener (spezial)-Software nicht garantiert.

Erweitern wir den Thin Client Gedanken nun um das Thema Cloud Computing ist es durchaus vorstellbar, dass die Infrastruktur für die Terminalserver nun nicht mehr im eigenen Rechenzentrum steht, sondern als Appliance/Image oder einem Terminalserver in einer Cloud z.B. von Amazon, GoGrid oder einem anderen Anbieter gehostet wird. Ein Unternehmen müsste dann lediglich über die Hardwareressourcen (Thin Clients) und eine schnelle Internetverbindung verfügen. Das ist wohlgemerkt natürlich eine sehr abstrakte und ideale Sicht auf das Thema, die noch tiefer durchdrungen werden muss.

Quelle der Graphik

  • NetPoint


Eigenschaften einer Cloud Platform

Ich habe bisher einige Cloud Computing Plattformen, darunter openQRM, OpenNebula oder OpenECP vorgestellt und ein paar weitere werden noch folgen. Daher erläutere ich in diesem Artikel die grundsätzlichen Eigenschaften die eine Cloud Plattform (meiner Meinung nach) hat bzw. haben sollte.

1. Zunächst sollten ausreichend virtualisierte Serverressourcen zur Verfügung stehen. Weiterhin müssen, (vor allem dann) wenn sich mehrere Kunden auf einem System befinden, jedem Kunden diese virtualisierten Serverressourcen garantiert werden und die einzelnen virtuellen Instanzen isoliert und damit vollständig von einander getrennt betrieben werden.

2. Zum Bereitstellen von umfangreichen Enterprise-Class-Services wie z.B. hohe Verfügbarkeit, Systemwiederherstellungen nach Datenverlusten, automatische Skalierung während Lastspitzen und Ressourcenoptimierungen muss eine große (unbegrenzte) Menge an virtualisierten Serverressourcen vorhanden sein.

3. Für ein zustandsbehaftetes Lifecycle Management, wozu Snapshots, schnelles Cloning (duplizieren) und eine dynamische Versorgung mit Ressourcen über große Server Infrastrukturen gehören, wird ein virtualisierter Cloud Speicher benötigt.

4. Für die Anpassung der virtuellen Topologie - durch das Hinzufügen weiterer Netzwerkfunktionen für Sicherheit, Routing, Load Balancing, Application Firewalls, Protokol Optimierung, etc. in den OSI Schichten 3 bis 7 - und die Möglichkeit die jeweiligen (Teil)-Netzwerke auf Multi-Kunden Systemen zu isolieren und Ressourcen zu garantieren, werden virtuelle Netzwerk Ressourcen benötigt.

5. Es müssen umfangreiche und offene APIs zur Kontrolle sämtlicher Ressourcen vorhanden sein, damit Cloud Computing Anbieter ihren Kunden die vollständige Kontrolle über deren privaten virtuellen Rechenzentren anbieten können.

6. Die Cloud Plattform muss für allen gängigen Virtualisierungs-Plattformen vollständige Kompatibilität bieten und jede virtuelle Maschine unterstützen, um u.a. einen Vendor Lock-in zu vermeiden. Des Weiteren müssen Funktionen für die Migration von virtuellen Maschinen zwischen unterschiedlichen Virtualisierungs-Technologien (P2V, V2P und V2V) vorhanden sein.

7. Zu guter letzt sollte die Cloud Plattform auf Open Source basieren, um eine größtmögliche Kompatibilität zu allen möglichen Clouds aufzuweisen und um einfach adaptiert und angenommen zu werden.



Enomaly's Elastic Computing Platform

Enomaly’s Elastic Computing Platform (ECP) dient Internet Carriern, Hosting-Providern und deren Kunden dazu, die Stärken von Cloud Computing, wie Flexibilität und Kosteneinsparungen zu nutzen. Mit ECP können vollständige Cloud Computing Plattformen verwaltet und Infrastrukturen on-Demand bereitgestellt werden. Weitere Möglichkeiten bestehen in der dynamischen Versorgung mit Ressourcen und der Skalierung nach Bedarf.

Enomaly's Elastic Computing Platform bietet folgende Funktionen:

Unbegrenzte Skalierbarkeit
Mit der ECP Architektur können große Cloud Plattformen über mehrere Rechenzentren in unterschiedlichen geographischen Regionen hinweg aufgebaut werden.

Eigene Konfigurationsmöglichkeiten für die optimale Anpassung an das Unternehmen
Unternehmen können, unterstützt durch eine Echtzeit-Überwachung, sowie umfangreichen Befehls- und Kontrollmöglichkeiten, ihre Cloud Infrastrukturen bzgl. Lastspitzen entsprechend anpassen.

Sicherheit trotz mehrerer unterschiedlicher Nutzer auf einer Plattform
Auf Basis von sehr fein granular einstellbaren Zugriffskontrollen kann ein Benutzer den Zugriff auf die Cloud Plattform (für Multi-User) so einstellen, dass nur die jeweils eigenen Ressourcen eingesehen und verwaltet werden können. Darüber hinaus kann ein Anbieter eine unbegrenzte Anzahl von VLANs für jeden Kunden erstellen und damit das Netzwerk zwischen mehreren Kunden so aufteilen und die Teilnetzwerke so isolieren, dass jedem Kunden innerhalb der Cloud die Privatsphäre seiner Daten garantiert wird. Ein Quota System schützt die Cloud gegen den Missbrauch.

Automatisierte Versorgung mit Ressourcen
ECP verfügt über eine Regelbasis zur automatischen Versorgung mit Ressourcen und kann damit den optimalen Standort einer virtuellen Anwendung bestimmen. Dazu stellt ECP sicher, dass ein Node einem optimalen physikalischen als auch virtuellen Standort zugeordnet ist. Weiterhin ist ECP in der Lage, ein offline Image einer virtuellen Maschine zu ändern, um den Speicherplatz, die Vernetzung, den Zustand des Clusters, etc. für schnelle Deployments und Off-Site Migrationen vorzunehmen.

Integration in vorhandene Infrastrukturen
ECP verfügt über eine API, mit der Benutzer die Verwaltung ihrer Cloud Infrastruktur automatisieren können, um z.B. externe SLAs oder andere Systeme für die Verwaltung zu integrieren. Darüber hinaus stellt ECP eine Back-Office API bereit, mit der weitere Systeme zur Ressourcenversorgung und Abbrechnung von (anderen) Anbietern integriert und administrative Aufgaben automatisiert werden können.

Integration von ECP im Rechenzentrum

Quelle



Skalierung eines Cluster mit Amazon EC2

Dieses Beispiel zeigt welche Komponenten erstellt und konfiguriert werden müssen, um einen Mini Cluster innerhalb eines privaten Netzwerks unter der Verwendung von NIS und NFS aufzubauen. Zusätzlich werden externe Amazon EC2 Nodes per VPN mit dem Server verbunden und am Ende der Cluster mittels der Sun Grid Engine (SGE) aufgebaut.

Architektur

Folgende technische Voraussetzungen werden benötigt:

  • Das private Netzwerk darf nur über ein VPN erreichbar sein, damit die Nodes die sich darin befinden vollständig isoliert sind.
  • Der Server muss NFS, NIS und VPN unterstützen.
  • Die internen Nodes müssen den NFS und NIS Dienst automatisch vom Server starten.
  • Die externen Nodes sind von Amazon EC2.
  • Die externen Nodes müssen automatisch eine Verbindung in das VPN aufbauen und den NFS und NIS Dienst vom Server starten.

Auf Basis dieser Anforderungen werden 3 Images benötigt.

  • 2 Xen Images - einen Server und einen internen Node
  • 1 Amazon Machine Image (AMI) von Amazon EC2 mit derselben Konfiguration wie der interne Node.

Die Konfigurationen sehen in diesem Beispiel wie folgt aus:

Server

  • Private IP-Adresse: eth0 10.1.1.99
  • Öffentliche IP-Adresse: eth1 147.96.1.100
  • Hostname: oneserver

Xen Node (lokal)

  • Private IP-Adresse: eth0 10.1.1.55
  • Hostname: local01

Amazon EC2 Node (IP-Adress Bereich: 10.1.1.100 bis 10.1.1.254)

  • VPN IP-Adresse: tap0 10.1.1.100 (wird durch den VPN Server vergeben)
  • Öffentliche IP-Adresse: eth0 - wird automatisch von Amazon vergeben
  • Hostname: workernode0

Konfiguration

Konfiguration der Images

Nun wird eine Kopie des Image erstellt und die /etc/hostname und /etc/network/interfaces für den Server (oneserver) editiert. Eine weitere Kopie des Image dient als Node, die oben genannten Dateien müssen für diesen ebenfalls angepasst werden. Nach dem unmount der Images werden diese mit Xen gestartet. Für die Konfiguration von NFS und NIS helfen die beiden nachfolgend verlinkten Howtos.

Bei der Konfiguration des VPN Server ist darauf zu achten, dass alle Clients die Zertifikate doppelt verwenden können. Das liegt daran, da keine separaten Amazon EC2 Instanzen erstellt werden sollen und es sich bei den EC2 Instanzen daher um dieselben handelt. Dazu muss in der Konfigurationsdatei von OpenVPN /etc/openvpn/server.conf in Zeilt "duplicate-cn" eingefügt werden. Die Konfiguration von OpenVPN findet nur auf dem Server statt. Eine Howto für die Konfiguration von OpenVPN ist unter dem folgenden Link zu finden.

Für das Erstellen eines Amazon Machine Images wird der Befehl bundle benötigt, dazu kann der lokale Node genutzt werden. Weiterhin muss der VPN Client und die Sun Grid Engine installiert und konfiguriert werden. Auf dem schnellsten Wege sollte das funktionieren, indem eine Kopie des lokalen Node erstellt und konfiguriert wird, anschließend wird es mit dem Befehl ec2-bundle-image gebündelt.

Während des Boot-Vorgangs wird nun noch ein Skript benötigt, in welchem der IP-Adressbereich von OpenVPN für die Amazon EC2 Instanzen von 10.1.1.100 bis 10.1.1.254 reserviert wird. die Konfiguration erfolgt in der /etc/hosts auf dem Server (oneserver).

EC2 Konfiguration mit OpenNebula

Nach der Konfiguration werden nun die Templates benötigt, um die Maschinen zu starten. Für alle lokalen Maschinen wie den oneserver und die Nodes wird jeweils ein Template benötigt, für die EC2 Maschinen reicht ein Template aus.

clouduser@machine:bin$ ec2-describe-images
IMAGE ami-e4a94d8d one-w2/image.manifest.xml 587384515363 available private i386 machine
IMAGE ami-cdb054a4 sge-dolphin/image.manifest.xml 587384515363 available private i386 machine
IMAGE ami-d8b753b1 sge-parrot/image.manifest.xml 587384515363 available private i386 machine
IMAGE ami-dcb054b5 sge-squirrel/image.manifest.xml 587384515363 available private i386 machine

Auf Basis des Images "ami-dcb054b5" wird das EC2 Template erstellt.

CPU=1

MEMORY=1700

EC2=[ AMI="ami-dcb054b5", KEYPAIR="gsg-keypair", ELASTICIP="75.101.155.97", INSTANCETYPE="m1.small", AUTHORIZED_PORTS="22-25"]

REQUIREMENTS = 'HOSTNAME = "ec2"'

Deployment und Tests

Um den Test zu starten muss zunächst OpenNebula gestartet und der EC2 Host hinzugefügt werden.

clouduser@machine:one$ one start
oned and scheduler started
lgonzalez@machine:one$ onehost create ec2 im_ec2 vmm_ec2
lgonzalez@machine:one$ onehost list
HID NAME RVM TCPU FCPU ACPU TMEM FMEM STAT
0 ec2 0 0 100 on

Als nächstes wird die EC2 Instanz gestartet.

clouduser@machine:one$ onevm create ec2.template
ID: 0

Die virtuelle Maschine wird später automatisch auf Amazon EC2 bereitgestellt.

clouduser@machine:one$ onevm list
ID NAME STAT CPU MEM HOSTNAME TIME
0 one-0 pend 0 0 00 00:00:05
lgonzalez@machine:one$ onevm list
ID NAME STAT CPU MEM HOSTNAME TIME
0 one-0 boot 0 0 ec2 00 00:00:15

Mittels onevm show id können alle Informationen eingesehen werden.

clouduser@machine:one$ onevm show 0
VID : 0
AID : -1
TID : -1
UID : 0
STATE : ACTIVE
LCM STATE : RUNNING
DEPLOY ID : i-1d04d674
MEMORY : 0
CPU : 0
PRIORITY : -2147483648
RESCHEDULE : 0
LAST RESCHEDULE: 0
LAST POLL : 1216647834
START TIME : 07/21 15:42:47
STOP TIME : 01/01 01:00:00
NET TX : 0
NET RX : 0

....: Template :....
CPU : 1
EC2 : AMI=ami-dcb054b5,AUTHORIZED_PORTS=22-25,ELASTICIP=75.101.155.97,INSTANCETYPE=m1.small,KEYPAIR=gsg-keypair
IP : ec2-75-101-155-97.compute-1.amazonaws.com
MEMORY : 1700
NAME : one-0
REQUIREMENTS : HOSTNAME = "ec2"

In diesem Beispiel ist die EC2 Instanz über die Adresse ec2-75-101-155-97.compute-1.amazonaws.com zu erreichen.

Nun muss geprüft werden, ob alle virtuellen Maschinen im Cluster gestartet sind. Es existiert eine lokale virtuelle Maschine auf Basis von Xen (local01) und eine von Amazon EC2 (workernode0).

oneserver:~# qstat -f
queuename qtype used/tot. load_avg arch states
----------------------------------------------------------------------------
all.q@local01 BIP 0/1 0.05 lx24-x86
----------------------------------------------------------------------------
all.q@workernode0 BIP 0/1 0.04 lx24-x86
----------------------------------------------------------------------------

Um den Cluster zu testen können ein paar Jobs mittels qsub an die Sun Grid Engine geschickt werden.

oneserver:~# qsub test_1.sh; qsub test_2.sh;

Nun ist zu sehen, welche Jobs im Hybrid Cluster geplant und gestartet sind.


clouduser@oneserver:~$ qstat -f
queuename qtype used/tot. load_avg arch states
----------------------------------------------------------------------------
all.q@local01 BIP 0/1 0.02 lx24-x86
----------------------------------------------------------------------------
all.q@workernode0 BIP 0/1 0.01 lx24-x86
----------------------------------------------------------------------------
############################################################################
- PENDING JOBS - PENDING JOBS - PENDING JOBS - PENDING JOBS - PENDING JOBS
############################################################################
1180 0.00000 test_1.sh clouduser qw 07/21/2008 15:26:09 1
1181 0.00000 test_2.sh clouduser qw 07/21/2008 15:26:09 1

clouduser@oneserver:~$ qstat -f
queuename qtype used/tot. load_avg arch states
----------------------------------------------------------------------------
all.q@local01 BIP 1/1 0.02 lx24-x86
1181 0.55500 test_2.sh clouduser r 07/21/2008 15:26:20 1
----------------------------------------------------------------------------
all.q@workernode0 BIP 1/1 0.07 lx24-x86
1180 0.55500 test_1.sh clouduser r 07/21/2008 15:26:20 1
----------------------------------------------------------------------------

Es können beliebig viele externe Amazon EC2 Instanzen automatisch zum Cluster als Nodes hinzugefügt werden und damit die Skalierbarkeit dynamisch erhöht werden.

Quelle