Tag: Open Source


Rackspace bietet OpenStack Private Cloud zum kostenlosen Download

Rackspace bietet ab sofort seine Rackspace Private Cloud Software, auf Basis von OpenStack "Essex", zum kostenlosen Download (1,8GB) an. Dabei handelt es sich um dieselbe Version, die Rackspace einsetzt, um die selbst gehostete Private Cloud zu betreiben.

Ubuntu 12.04 LTS, KVM, Horizon und mehr

Die Rackspace Private Cloud Software, mit dem Codenamen "Alamo", umfasst Rackspace Chef-konfigurierte Version von OpenStack "Essex" und ist zu 100% Open-Source. Die neue OpenStack Version "Folsom" wird voraussichtlich im September erscheinen.

Alamo beinhaltet Ubuntu 12.04 LTS als Host Betriebssystem und einen KVM Hypervisor. Zum weiteren Umfang gehören das Horizon Dashboard, Nova Compute, Nova Multi Scheduler, Keystone Integrated Authentication, die Glance Image Library und verschiedene APIs. Rackspace arbeitet darüber hinaus mit weiteren Partner wie Red Hat zusammen, um in der Zukunft weitere Host Betriebssysteme und OpenStack Distributionen anzubieten.

Die gesamte "Alamo" Version umfasst einen Installer, mit dem Unternehmen innerhalb von ein paar Minuten eine eigene Private Cloud ausrollen sollen können.

OpenStack für die Masse

Rackspace gibt zu, dass OpenStack zu Recht kritisiert wurde, nur von OpenStack Experten installiert und betrieben werden zu können. Mit "Alamo" möchte Rackspace nun auch nicht Entwicklern die Chance geben, eine eigene OpenStack Cloud unter 30 Minuten installieren zu können.

Rackspace ist sich selbst darüber im Klaren, dass sie nicht direkt von dem Angebot der Private Cloud Software profitieren werden, da die Lösung als Open-Source lizensiert wurde. Allerdings erhofft sich das Unternehmen Einnahmen durch Support und weitere Services rund um die Software. Daher bietet Rackspace zusammen mit der Veröffentlichung der Private Cloud Software einen "Escalation Support Service" an, der einen 24/7 Telefonsupport umfasst. Im Laufe des Jahres sollen weitere Services wie eine Cloud Monitoring Lösung folgen.

Ein sinnvoller Schritt

Rackspace macht mit der kostenlosen Veröffentlichung seiner OpenStack Private Cloud Version einen Schritt in die richtige Richtung. Viele etablierte und neue Cloud Anbieter sind mittlerweile auf den OpenStack Zug aufgesprungen und nutzen die Open-Source Cloud für eigene Infrastructure Services (z.B. HP), aber auch als unterliegende Architektur für Software-as-a-Service Angebote (z.B. Deutsche Telekom).

Insbesondere für reine Infrastruktur-Anbieter ist es daher sehr schwierig geworden, ihren Kunden einen wahren Mehrwert gegenüber den anderen Anbietern zu geben, die ebenfalls auf OpenStack setzen. Der einzige Weg sich zu differenzieren besteht daher darin, u.a. weitere Services und einen sehr guten Support rund um die eigene OpenStack Distribution anzubieten.



Vorteile und Nachteile von Open-Source Cloud Computing Lösungen

Open-Source Cloud Frameworks haben in den vergangenen Monaten einen riesen Hype erlebt. Die vermeintlich großen Player wie Rackspace, HP, VMware und Citrix sorgen für die finanzielle Unterstützung von Lösungen wie OpenStack oder CloudStack und lassen unaufhörlich ihre Marketingkampagnen laufen. Dabei verfolgen alle genannten nur ein Ziel: Den Cloud Computing Krösus Amazon Web Services vom Thron zu stoßen. Allerdings müssen sich die Open-Source Anbieter die Frage gefallen lassen, ob ihre Technologien bereits für den Einsatz im Unternehmen taugen.

Vor- und Nachteile von Open-Source Clouds

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den "richtigen" Weg zu entscheiden.

Fazit

Entscheider die sich für eine Cloud Infrastruktur entscheiden wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über den Aufbau einer Open-Source oder proprietären Cloud Infrastuktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine eigene Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und andere Möglichkeiten evaluiert werden müssen.

Sollte die Entscheidung zu Gunsten einer Open-Source Cloud Lösung fallen, macht es durchaus Sinn eine kommerzielle Open-Source Software in Betracht zu ziehen, hinter der ein Unternehmen steht, das für die Kontinuität des Projekts und eine klare Richtung sorgt und darüber hinaus professionellen Support bietet. Damit kann das Risiko einer Open-Source Cloud Lösung deutlich minimiert werden.


Bildquelle: https://new.edu



Rackspace präsentiert sein OpenStack Portfolio

Rackspace hat heute offiziell seine Cloud Services - Cloud Databases und Cloud Servers - auf seine neue Cloud Plattform auf Basis von OpenStack ausgerollt. Neue Nutzer dürfen sofort die OpenStack Cloud nutzen. Bestehende Kunden werden in bestimmten Zeitfenstern auf die neue Plattform migriert. Mit diesem Wandel gehört Rackspace, neben HP, nun eine der größten OpenStack Umgebungen weltweit.

Rackspace präsentiert sein OpenStack Portfolio

Das Rackspace OpenStack Portfolio

Das Rackspace Portfolio auf Basis von OpenStack umfasst die Angebote Cloud Servers, Databases, Cloud Files und Cloud Sites, ein Platform-as-a.Service für .Net, PHP und Monitoring-Funktionen.

Nach eigenen Angaben werden Kunden die größten Unterschiede in den OpenStack APIs erkennen, die Serveranfragen 25 Mal schneller erstellen können.

Um seine bestehenden Kunden auf die neue Plattform zu migrieren, wird es in den nächsten Monaten Zeitfenster geben, wann das stattfinden soll. Zudem will Rackspace ein Tool entwickeln, um den Prozess zu beschleunigen.



Eucalyptus 3.1 wird Open Source(iger) wie keine andere Version zuvor

Eucalyptus Systems hat gestern eine neue Version seiner Open Source Cloud Infrastruktur Software angekündigt. Eucalyptus 3.1 richtet sich auf Basis derselben Plattform an die Open Source Community als auch an Unternehmen, um damit Cloud Infrastrukturen und Cloud Entwicklungsumgebungen aufzubauen, zu betreiben sowie zu verwalten. Die neue Version präsentiert neben einer besseren Performance ebenfalls viele weitere Funktionen wie FastStart, mit der Nutzer AWS-komaptible (Amazon Web Service) on-Premise Cloud Infrastrukturen unter 20 Minuten aufbauen können.

Mehr als nur AWS Unterstützung

Wer nun glauben mag, dass Eucalyptus sich komplett auf der Kooperation mit den Amazon Web Services stützt und ausruht, der irrt. Eucalyptus 3.1 wird sich verstärkt auf die Entwicklung der Community konzentrieren und diese unterstützen. Dazu wird u.a. der vollständige Eucalyptus 3.x Quellcode auf Github zur Verfügung gestellt. Darüber hinaus wird die Bereitstellung von Unternehmensplattformen auf Basis von Red Hat Enterprise Linux und Red Hat Enterprise Virtualization sowie VMware vCenter 5 unterstützt. Hinzu kommen Möglichkeiten für das Management von Community Projekten, mit denen Fehler, Korrekturen und Wünsche verwaltet werden können.

Eucalyptus 3.1 im Überlick

Mit der neuen Version möchte Eucalyptus es Unternehmen ermöglichen, on-Premise Cloud Infrastrukturen auf eine einfache Art und Weise aufzubauen und gleichzeitig die Innovationsfähigkeit der Cloud zu erhöhen, indem die Open Source Cloud Community alle Mittel erhält, um dazu beizutragen, die Eucalyptus Cloud ihren Bedürfnissen nach anzupassen. Zu den neuen Funktionen in Eucalyptus 3.1 gehören:

On-Premise Cloud Plattformen

Unternehmen erhalten mit Eucalyptus 3.1 nun die Möglichkeit, eigene on-Premise Cloud Umgebungen auf der neuesten Version von Red Hat Enterprise Linux inkl. EC2, EBS, S3 und IAM zusammen mit den Red Hat Enterprise und VMware Virtualisierungsplattformen aufzubauen.

FastStart: Ruck Zuck zur eigenen Private Cloud

FastStart bietet Nutzern einen Self-Service, mit dem sie eine Eucalyptus IaaS Cloud Umgebung automatisiert unter 20 Minuten aufbauen können. FastStart kann zusammen mit CentOS 5 und Xen oder CentOS 6 und KVM genutzt werden. Mit durch FastStart bereitgestellte Clouds können sich Nutzer die auf Eucalyptus gespeicherten Images aussuchen und mit einem Klick auf der Infrastruktur ausrollen. Für fortgeschrittene Nutzer bietet Eucalyptus Silvereye, eine Reihe von Tools, mit der sich komplexere Eucalyptus Umgebungen installieren und konfigurieren lassen.

Open Source Cloud Community

Der vollständige Eucalyptus 3.1 Quellcode steht nun öffentlich auf Github bereit. Zudem werden alle Erneuerungen ebenfalls auf Github bereitgestellt, dazu gehören ebenfalls das Tracking von Fehlern und neuen Funktionen. Damit sollen Mitglieder der Eucalyptus Community die Gelegenheit erhalten ihren Teil beitragen zu können.

Los geht's am 27. Juni

Am 27. Juni 2012 werden Kunden in den Genuss der neuen Funktionen kommen, die auf Eucalyptus 3 aufbauen werden. Dazu gehören weiterhin neue Funktionen für die Hochverfügbarkeit, Amazon Web Services API Erweiterungen, Rapid Instancing, Verbesserungen am Elastic Block Store (EBS), erweiterte Unterstützung für Windows-Images, eine neu gestaltet Verwaltungskonsole sowie verbesserte Kommandozeilentools.

So langsam zeichnet sich die Handschrift von Eucalyptus CEO Marten Mickos ab, der bereits als CEO von MySQL die relationale Datenbank zu einem der führenden Open Source Anbieter am Markt machte.


Bildquelle: http://www.srs.fs.usda.gov



Partnerschaft: Canonical und Microsoft planen Ubuntu Linux Images für Windows Azure

Da bahnt sich eine weitere Elefantenhochzeit an. Canonical, das Unternehmen hinter der Linux Distribution Ubuntu und Microsoft planen eine gemeinsame Partnerschaft, um Ubuntu auf der Cloud Plattform Windows Azure gemeinsam anzubieten.

Partnerschaft: Canonical und Microsoft planen Ubuntu Linux Images für Windows Azure

Nachdem Microsoft gestern die Erweiterung seiner Windows Azure Plattform vorgestellt und in diesem Zusammenhang ebenfalls die Unterstützung von Linux basierten virtuellen Maschinen Images angekündigt hat, schreibt Ubuntu Gründer Mark Shuttleworth auf seinem Blog nun über eine enge Kooperation beider Unternehmen. Hintergrund ist die Unterstützung von Ubuntu Linux Images auf Windows Azure.

Canonical liefert offizielle Ubuntu Images und Support für Azure

Canonical wird dazu offizielle Ubuntu Images für Azure liefern und zusätzlich mit kostenpflichtigem Support unterstützen, wenn Azure Kunden Ubuntu in der Microsoft Cloud ausrollen wollen. Im Herbst diesen Jahres wird Azure zudem ein Update erhalten, durch das die Kunden die Möglichkeit bekommen, über die Azure Gallery einen direkten Support Vertrag mit Canonical abzuschließen.

Shuttleworth nennt Azure in seinem Blogpost als einen "beeindruckenden Neuzugang" im Cloud Computing Markt. Zudem lobt er das Azure Team, da sie "über ein breites Wissen im Bereich Ubuntu und Linux im Allgemeinen verfügen." Er merkt jedoch an, dass er weiß, "... dass es Mitglieder in der freien Software Gemeinde geben wird, die auf Microsoft schimpfen ...", "... aber es sei nicht Ubuntu, die es tun...". "Wir verfolgen unsere Ziele und sind für diejenigen offen die es auch uns gegenüber sind und großartige Dinge entwickeln."

Canonical will in der Cloud ein Wörtchen mitreden

Cloud Computing ist für Canonical ein wichtiger Markt, mit dem Sie bereits mehrfach versucht haben im Server Markt auf sich aufmerksam zu machen. Mit Lösungen wie dem Provisioning-Tool "Metal as a Service" oder dem Service Orchestration Framework "Juju", hat das Unternehmen vor kurzem versucht Ubuntu als Adaptionsplattform für Cloud Umgebungen zu positionieren. Zudem haben sie durch Kooperationen mit OpenStack und Eucalyptus versucht ihre Präsenz im Private Cloud Umfeld zu stärken.

Es ist daher nicht überraschend, dass Canonical nun versucht, auch mit Windows Azure zu kooperieren und Ubuntu auf der Microsoft Cloud als die Linux Distribution Nr. 1 zu positionieren. Microsoft wird ebenfalls davon profitieren, indem sie einen starken Partner aus dem Linux Ökosystem an Bord haben, um damit ein wettbewerbsfähiges Angebot gegenüber den Amazon Web Services zu präsentieren.

Canonical und Microsoft kennen sich schon länger

Canonical und Microsoft sind in der Vergangenheit schon aneinander geraten. Hier jedoch eher als direkte Konkurrenten. Unter dem Titel Bug #1 erklärte Shuttleworth persönlich, dass es Ubuntus ehrgeiziges Ziel sei, Microsofts dominante Marktposition im PC Markt zu beenden. In seinem oben genannten Blogpost betont er jedoch, dass die Beziehung zu Microsoft nicht mit Ubuntus Werten in Konflikt stehen werde.

Fazit

Betrachten wir alleine die unternehmerische Seite, wird die Partnerschaft sowohl Microsoft als auch Ubuntu helfen ihre Marktpositionen im Cloud Umfeld zu stärken. Auch wenn sicherlich nicht wenige Linux Gläubige glücklich über Canonicals Entscheidung sein werden, Microsofts Cloud Angebot offiziell zu unterstützen, wird Ubuntu davon deutlich profitieren, auf einer der größten Cloud Computing Plattformen weltweit präsent zu sein. Wenn Azure zudem dabei hilft, die Ubuntu Enterprise Cloud zu stärken, könnten sich damit weitere Ressourcen und Nutzer dem Ubuntu Ökosystem anschließen. Weiterhin besteht über das ebenfalls gestern angekündigte "Windows Azure Virtual Network" die Möglichkeit, auf Basis der Ubuntu Enterprise Cloud, hybride Cloud Umgebungen mit Windows Azure aufzubauen.



Red Hat veröffentlicht finale Version seiner IaaS Plattform CloudForms

Red Hat hat heute die finale Version von CloudForms veröffentlicht. Dabei handelt es sich um eine offene und hybride Infrastructure-as-a-Service (IaaS) Lösung, mit der Unternehmen Private und Hybrid Clouds erstellen und verwalten können.

Red Hat veröffentlicht finale Version von CloudForms

Unternehmen können mit CloudForms eine offene Hybrid Cloud aufbauen, die aus den verschiedensten Infrastrukturbausteinen unterschiedlicher Hersteller besteht. Sie vermeiden damit die Herstellerabhängigkeit und sind in der Lage, alle Applikationen effizient zu verwalten. Einmal eingerichtet, können Unternehmen Anwendungen bereitstellen, verwalten und kontrolliert zwischen verschiedenen Clouds, Virtualisierungsumgebungen und physischen Servern anordnen.

Die wichtigsten Vorteile von CloudForms beschreibt Red Hat wie folgt.

  • Endanwender sind selbstständig in der Lage Cloud-Ressourcen zu nutzen und IT-Administratoren erhalten alle Werkzeuge, um diese Ressourcen wirksam zu überwachen und zu steuern.
  • Unternehmen können eine offene, hybride Cloud aufbauen, indem sie die Funktionen ihrer internen IT-Infrastruktur mit zuverlässigen und vertrauenswürdigen Public Clouds kombinieren.
  • Administratoren können mit einem Application Blueprint komplexe Anwendungen einfacher konfigurieren und verwalten – unter Einbeziehung unterschiedlicher Virtualisierungstechnologien. Dadurch reduziert sich der Verwaltungsaufwand und die Infrastruktur wird flexibler.
  • Tools und Software von unterschiedlichen Anwendern sowie ein breites Spektrum von Cloud-Technologien können problemlos in eine vorhandene Infrastruktur einbezogen werden. Unternehmen erhalten so eine breite Auswahl an Lösungsvarianten und vermeiden die Abhängigkeit von einzelnen Herstellern.

Red Hat CloudForms erweitert das recht umfangreiche Portfolio von Infrastrukturlösungen, bestehend aus Red Hat Enterprise Linux, Red Hat Enterprise Virtualization, JBoss Enterprise Middleware, Red Hat Storage und ein Vielzahl von zertifizierten ISV-Applikationen. Dennoch bleibt abzuwarten, ob sich die Lösung im mittlerweile doch hart umkämpften Markt von Open Source Cloud Infrastrukturen durchsetzen wird. Zumal mit Eucalyptus aber auch OpenStack oder Cloudstack ein starker Mitbewerb wartet.



Red Hat startet OpenShift Origin Projekt

Mit OpenShift Origin startet Red Hat ein Open Source Projekt, in dem alle Komponenten des OpenShift PaaS Angebots enthalten sind, die unter die Apache v2 License gestellt werden.

Das Origin Projekt dient der Verbesserung der OpenShift Plattform, indem ständig Code Optimierungen in den PaaS einfließen werden. Dieser läuft aktuell auf der Infrastruktur der Amazon Web Services und steht im direkten Wettbewerb zu VMwares Cloud Foundry.

Red Hat PaaS Evangelist Mark Atwood beschreibt einen PaaS grundsätzlich als eine Anwendungsplattform inkl. einem Betriebssystem sowie einer Middleware, mit der Anwendungen in der Cloud betrieben werden. Dadurch können Entwickler schneller ihre Anwendungen ausrollen und innerhalb der Cloud skalierbarer entwickeln.

Der Origin Quellcode steht auf GitHub bereits zum Download bereit und ermöglicht Entwicklern eine OpenShift Installation auf dem eigenen Laptop oder einem Server im Intranet oder Rechenzentrum zu nutzen.



CloudOpen: Die Linux Foundation will zwischen OpenStack und CloudStack schlichten

Die Linux Foundation wird im kommenden Summer, parallel zur LinuxCon North America 2012 in San Diego, erstmalig die CloudOpen veranstalten und lädt dazu alle Anbieter ein, die OpenStack, CloudStack und andere Open Source bezogene Cloud Projekte unterstützen.

Es sollen bereits Unterstützer aus dem Lager von OpenStack und CloudStack ihre Teilnahme zugesagt haben. Die CloudOpen, bei der es sich grundsätzlich um eine anbieterneutrale Veranstaltung handelt, wird im Rahmen der LinuxCon North America vom 29. bis 31. August in San Diego stattfinden.

Zum Programmkomitee gehören CloudStack Befürworter wie Citrix und Eucalyptus sowie ISVs wie IBM, Red Hat und das OpenStack Projekt selbst, die hinter OpenStack stehen.

Zu den Sponsoren der CloudOpen gehören führende OpenSource Unterstützer, darunter Canonical, Citrix, Dell, Eucalyptus Systems, HP, Hitachi, IBM, Intel, NEC, Puppet Labs und SUSE.

Der "Krieg um die Open Source Cloud" war Anfang April ausgebrochen, als Citrix seinen Rückzug aus dem OpenStack Projekts bekannt gab und CloudStack unter die Apache License 2.0 gestellt hatte.

Citrix und die anderen CloudStack Unterstützer sind der Ansicht, dass eine Amazon EC/S3 API kompatible Open Source Cloud sich besser in den Unternehmen etablieren wird. Das OpenStack Projekt hingegen vertritt die Meinung, dass Citrix diesen Schritt nur unternommen hat, um seinen CloudStack alleine voranzutreiben.


Bildquelle: http://www.snopes.com



Puppet unterstützt OpenStack

Die Open Source Cloud Konfigurations- und Management-Suite Puppet hat seine Software um zahlreiche Module erweitert, um auf OpenStack basierte Cloud Computing Umgebung damit steuern zu können. Damit erhält OpenStack nun endlich auch eine Benutzeroberfläche.

Puppet unterstützt OpenStack

Die neuen Modulen helfen Administratoren dabei, OpenStack Cloud Umgebungen automatisiert aufzubauen sowie diese zu überwachen und zu warten. Der primäre Zugriff auf OpenStack erfolgt über eine API, mit der die Steuerung vorgenommen wird. Graphische Benutzeroberflächen hingegen sind bisher zu kurz gekommen. Rackspace bietet eine graphische Oberfläche, allerdings nur für die Verwaltung von OpenStack Umgebungen die auf Rackspace selbst gehostet werden. Dell hat mit Crowbar kürzlich eine Konsole für den Zugriff auf die Grundfunktionen veröffentlicht.

Mit Puppet steht nun eine dritte Variante bereit. Die ersten verfügbaren Module decken dabei die grundlegenden Bereiche von OpenStack ab, also Compute, Object Store und Image Store. Puppets Funktionsumfang ist jedoch viel größer und kann neben dem Aufbau von OpenStack Umgebungen diese ebenfalls Überwachen und z.B. das Patch-Management übernehmen. Die Module selbst werden aktualisiert wenn Puppet ein Update erhält.

Die jeweiligen Module wurden von Puppet zusammen mit Cisco, Red Hat und den Cloud Service Anbietern Morphlabs und eNovance entwickelt. Unter PuppetForge, dem Puppet Repository, können bereits die ersten Module heruntergeladen werden. Diese bieten die Steuerung der Grundfunktionen von OpenStack. Weitere Module werden in den kommenden Monaten bereitgestellt.

Bei dem OpenStack Engagement handelt es sich allerdings nicht um die erste Kooperation. Es stehen bereits weitere Puppet Module zur Verfügung, mit denen Cloud Services auf Basis von VMware oder Amazon Web Services Umgebungen verwaltet werden können.



Microsoft erweitert SkyDrive um ODF Unterstützung, URL-Shortener und 300 MB Upload

Während sich die Gerüchte um Googles neuen Cloud Storage Google Drive häufen, ist Microsoft bestrebt, sein SkyDrive mit weiteren Funktionen zu erweitern.

Microsoft erweitert SkyDrive um ODF Unterstützung, URL-Shortener und 300 MB Upload

Nach Informationen eines Tweets des Microsoft SkyDrive Team wird SkyDrive eine Reihe neuer Funktionen erhalten. Dazu gehört die Unterstützung des Open Document Formats wie .odt, .odp und .ods sowie die Möglichkeit seine Dokumente auf Twitter zu teilen. Hinzu kommen der Browser-Upload von Dateien bis zu einer Größe von 300 MB und einen URL-Shortener (sdrv.ms), mit dem Windows Phone Bilder auf Twitter geteilt werden können.

Zudem wird Microsoft mit dem kommenden Release SkyDrive und die Live Mesh Services miteinander kombinieren. Bei Live Mesh handelt es sich um einen Sychronisations-Service, quasi die Microsoft Variante von Dropbox, welcher bereits im Jahr 2008 vorgestellt wurde. Darüber hatte das SkyDrive Team im Februar auf dem Windows 8 Blog angekündigt, SkyDrive und Windows 8 stärker zu integrieren, um den Cloud Zugriff weiter zu forcieren.



Analyse: Die Platform-as-a-Service Umgebung von VMware Cloud Foundry

Ursprünglich startete Cloud Foundry als Plattform für das Deployment von Java Spring Anwendungen auf die Amazon Web Services. Im April 2011 folgte dann die Übernahme durch VMware, wodurch Cloud Foundry zu einem Open Source und Multi-Framework Platform-as-a-Service Angebot wurde, das eine Vielzahl von unterschiedlichen Sprachen und Laufzeitumgebungen unterstützt. Dazu gehören u.a. Java, Spring, Ruby, Scala und Node.js. VMware bezeichnet Cloud Foundry auch als ein Open PaaS, da die Plattform vom gewöhnlichen Notebook, über einen PC bis hin zu einer Public Cloud auf unterschiedlichen Systemen und Umgebungen genutzt werden kann.

Cloud Foundry ermöglicht das Multi-Cloud Deployment

Die Cloud Foundry Plattform setzt sich aus drei Bereichen zusammen. Der Erste bezieht sich auf die Wahl des Frameworks, der Zweite auf die Serviceunterstützung der Anwendung und die Dritte auf das Deployment.

Die Wahl des Frameworks

Cloud Foundry unterstützt neben Spring for Java, Rails und Sinatra for Ruby und Node.js ebenfalls JVM Sprachen wie Groovy, Grails und Scala. Hinzu kommt die Unterstützung für das Microsoft .NET Framework wodurch Cloud Foundry zur ersten nicht Microsoft Plattform gehörte, auf der .NET Anwendungen ausgerollt werden konnten. Alles zusammen macht Cloud Foundry zu einem der ersten mehrsprachigen PaaS.

Services für die Anwendung

In der Cloud sind Entwickler auf zuverlässige Messaging-Systeme, NoSQL Datenbanken zusammen mit relationalen Datenbanken angewiesen. Cloud Foundry unterstützt dafür neben RabbitMQ als Messaging-System sowie MongoDB und Redis als NoSQL Datenbanken, MySQL als relationale Datenbank. Die Liste der unterstützten Dienste wächst, so hat die Plattform zuletzt eine PostgreSQL-Unterstützung erhalten.

Das Deployment

Anhand von "Micro Cloud Foundry" kann Cloud Foundry auf gewöhnlichen Notebooks oder Computer genutzt werden. Dazu beinhaltet die Micro Cloud Foundry den vollständigen Cloud Foundry Stack, mit dem virtuelle Maschinen auf einem PC oder Mac gestartet werden können. Cloud Foundry kann zudem in Private Cloud oder Public Cloud Umgebungen wie den Amazon Web Services betrieben werden. Das macht Cloud Foundry zu einem äußerst flexiblen PaaS.

Ausrollen von Anwendungen auf Cloud Foundry

Entwickler können Anwendungen entweder mit der SpringSource Tool Suite (STS) oder VMC, einer Ruby Gem Kommandozeile deployen.

Das Messaging System ist das Rückgrat von Cloud Foundry. Es handelt sich dabei um das zentrale Kommunikationssystem, über das alle Komponenten miteinander sprechen. Der HTTP Verkehr zu den einzelnen Anwendungen wird von Routern gesteuert. Diese routen die URLs zu den jeweiligen Anwendungen und übernehmen ebenfalls das Load Balancing des Verkehrs über die Instanzen.

Cloud Controller sind die Schlüsselkomponenten, die für die Verwaltung der Anwendungen zuständig sind. Sie verknüpfen die verschiedenen Services mit einer Anwendung und ermöglichen den Zugriff durch die externe REST API.

Ein Health Manager überwacht den Zustand aller ausgeführten Anwendungen. Fällt eine Anwendung aus, informiert er den Cloud Controller. Dieser ergreift die weiteren Maßnahmen.

Der ausführbare Code wird in Cloud Foundry zu Einheiten zusammengefasst und wiederum zu einem Droplet verpackt. Ein Droplet abstrahiert den zugrunde liegenden Code und stellt eine generische ausführbaren Code Einheit dar. Ein Droplet Execution Agent ist für die Ausführung des Codes innerhalb jedes Droplets verantwortlich und stellt das Betriebssystem und die Laufzeitumgebung bereit.

Fazit

Cloud Foundry ist ein schnell gewachsener und offener PaaS. Viele Hersteller haben ihre Unterstützung angekündigt und werden mit weiteren Plattformen und Services den Stack erweitern, was Cloud Foundry zu einer echten Alternative zu kommerziellen PaaS Angeboten wie Microsoft Windows Azure oder der Google App Engine werden lässt.



OpenStack – Ein Überblick

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Die Kernbereiche von OpenStack

Die Kernbereiche von OpenStack

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht aus insgesamt fünf Kernkompenten. Bei OpenStack Compute, OpenStack Object Storage und OpenStack Image Service handelt es sich um die grundlegenden Kernbereiche, die von Beginn an zu dem Projekt gehören. Mit OpenStack Identity und OpenStack Dashboard wurden in dem Diablo Release zwei weitere Komponenten hinzugefügt, die ab der kommenden Essex Version fest in die Kernbereiche mit aufgenommen werden.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.



Dell veröffentlicht OpenStack Cloud in Europa und Asien

Dell hat heute seine auf OpenStack basierende Cloud vorgestellt. Dabei handelt es sich um eine Open Source On-Premise Lösung, die für den Aufbau einer Private Cloud gedacht ist und exklusiv den europäischen und asiatischen Markt adressiert.

Dell veröffentlicht OpenStack Cloud in Europa und Asien

Dell hat dazu die OpenStack Referenz Architektur angepasst, um Kunden eine schnelle Migration in die Private Cloud zu ermöglichen. Dazu basiert die Referenz Architektur auf den Dell PowerEdge C Series Servern. Zudem arbeitet im Hintergrund ein Ubuntu Linux.

Die Cloud Lösung beinhaltet zusätzlich das Dell Crowbar Software Framework, dass das gesamte OpenStack Deployment, vom initialen Bootvorgang des Servers bis zur Konfiguration der OpenStack Komponenten unterstützt. Ist das erste Deployment fertiggestellt, kann Crowbar dazu genutzt werden, um die Private Cloud zu erweitern und zu warten. Dazu gehören ebenfalls die Konfiguration des BIOS, Status Monitoring, die Überwachung des Netzwerks und weitere Funktionen und Benachrichtigungen.

Bei Crowbar handelt es sich um ein Open Source Projekt unter der Apache 2.0 License.


Bildquelle: http://www.techweekeurope.es





CloudLinux

Mit CloudLinux hat der gleichnamige Hersteller eine Linux-Distribution vorgestellt, die speziell für Webhosting Anbieter und Rechenzentren gedacht ist. Das Betriebssystem basiert auf der proprietären Lightweight Virtual Environments (LVE) Technologie, und beinhaltet eine Apache LVE-Version. Mit dieser Technologie werden die Hardware Ressourcen des gesamten Systems so aufgeteilt, dass sie speziell zu einzelnen gehosteten Webseiten zugewiesen werden können. Damit soll verhindert werden, dass eine einzelne Webseite den kompletten Server beeinträchtigen kann.

In diesem Artikel werden die Hintergründe und Funktionen von CloudLinux beschrieben.

Hintergrund

CloudLinux ist ein auf Linux basierendes Betriebssystem, welches kommerziell unterstützt wird und mit den bekanntesten RPM basierten Linux Distributionen kompatibel ist. Es richtig sich an Shared Hosting Anbieter und Rechenzentren und soll durch eine höhere Effizienz und Stabilität eine rentableren Betrieb bieten.

Vorteile für Shared Hosting Anbieter

  • Erhöhen der Anzahl der Konten pro Server.
  • Reduzierung der Hardware-, Strom-, Raum-und Verwaltungskosten.
  • Schutz des gesamten Server vor der Überlast durch eine einzelne Webseite.
  • Durch eine höhere Sicherheit werden die Ausfallzeiten minimiert und wodurch weniger Verwaltungs- und Supportzeiten benötigt werden.
  • 24/7 Unterstützung

Vorteile für Rechenzentren

  • Kommerzieller Support und ein gewartetes Betriebssystem
  • Spezielle für das Web optimierte Distribution
  • Vollständige Unterstützung mittels Ticketing System
  • Integration in bestehende Monitoringsysteme

Lightweight Virtual Environments (LVE)

Mit der Lightweight Virtual Environments (LVE) Isolationstechnologie erhöht CloudLinux die Server-Dichte und verbessert die Stabilität und Zuverlässigkeit. LVE verspricht ein verbessertes Ressourcenmanagement, indem die Ressourcen die einer Webseite zur Verfügung stehen limitiert werden. Damit kann eine einzelne Webseite nicht den gesamten Server ausbremsen. Weiterhin stehen Methoden zur Verfügung, mit denen die Benutzer identifiziert werden könne, die aktuell die meisten Server Ressourcen nutzen. Die einzelnen Webseiten sind voneinander isoliert, wodurch z.B. ein Hackerangriff die anderen auf dem Server gehosteten Webseiten nicht beeinträchtigt.

Vergleich: Standard OS vs. CloudLinux

Standard OS

  • Mehrere Webseiten pro Server.
  • Jede Webseite benötigt Ressourcen.
  • Eine einzelne Webseite kann den gesamten Server überlasten.
  • Hacker kann durch den Angriff einer Webseite alle auf dem Server vorhandenen Webseiten attackieren bzw. lahmlegen.

CloudLinux

  • Isolation der Ressourcen mittels der LVE Technologie.
  • LVE limitiert den Ressourcenzugriff einer einzelnen Webseite, dadurch werden die anderen Webseiten vor Ressourcenengpässen geschützt.
  • Eine einzelne Webseite kann den Server nicht überlasten.
  • Ein Server kann mehr Webseiten beherbergen.
  • Verbesserung der Server Performance.

Vergleich: Open Source Anbieter vs. CloudLinux

Quelle



Die Open Cloud Initiative

Die Open Cloud Initiative (OCI) wurde im März 2009 gegründet. Es handelt sich dabei um eine Community, die das Ziel hat, eine "Open Cloud" zu fördern, also Cloud Computing und den Open Source Gedanken miteinander zu verschmelzen.

Cloud Computing Benutzer können davon ausgehen, dass Angebote die mit dem "Open Cloud" Logo gekennzeichnet sind, auch tatsächlich "offen" sind. Das bedeutet, dass sie die Freiheit besitzen auf ihre eigenen Daten in einem offenen Format mittels einer offenen Schnittstelle zuzugreifen.

Offen heißt in diesem Zusammenhang, dass z.B. die Schnittstellen nicht in einem anbieterspezifischen proprietären Format vorliegen.

Wer steht hinter der Open Cloud Initiative (OCI)?

Neben dem Gründer Sam Johnston gehören bekannte Größen der IT Branche zu der Initiative, darunter Joi Ito, Bruce Perens, Sam Ruby, Simon Wardley und Mike Linksvayer.

Die Open Cloud Principles (OCP)

Interoperabilität (die Möglichkeit Informationen zu nutzen und auszutauschen) ist eine absolute Notwendigkeit für den uneingeschränkten Wettbewerb zwischen den Anbietern und für die freie Wahl eines Anbieters durch den Benutzer.

Benutzer müssen in der Lage sein, das System eines Anbieters ohne Barrieren zu nutzen und dieses System ebenfalls wieder ohne Barrieren zu verlassen, unabhängig davon, wer sie sind (Diskriminierung) und welche Art von System sie selber einsetzen (Technologieneutralität).

Vergleiche dazu auch RFC 2119.

Principles

  1. 1. Offene APIs: Die Kernfunktionen müssen eine offene Standard API verwenden.
  2. 2. Offene Formate: Die Daten der Benutzer müssen in einem offenen Standardformat vorliegen.
  3. 3. Open Source: Die System-Software sollte so lizensiert sein, dass sie der Open Source Definition entspricht oder keinem Urheberrecht unterliegt.
  4. 4. Offene Daten: die Benutzerdaten sollten so lizensiert sein, dass sie der Open Knowledge Definition entsprechen.

Quelle



Installation einer Private Cloud mit OpenNebula

Dieser Artikel beschreibt das Einrichten einer Private Cloud mit OpenNebula auf Ubuntu. Die Infrastruktur besteht dabei aus drei physikalischen Maschinen. Einem Front-End und zwei Nodes, auf denen die virtuellen Maschinen ausgeführt werden. Auf den Nodes muss zusätzlich eine Bridge konfiguriert werden, damit die virtuellen Maschinen das lokale Netzwerk erreichen können. Für das Einrichten der Brigde siehe den Bereich Bridging.

Installation

Auf dem System für das Front-End installieren wir OpenNebula mit folgendem Befehl:

sudo apt-get install opennebula

Für jeden Node installieren wir den OpenNebula-Node:

sudo apt-get install opennebula-node

Um später die SSH Schlüssel zu kopieren, benötigt der oneadmin (wird von OpenNebula erstellt) ein Passwort. Dazu führen wir auf jeder Maschine folgenden Befehl aus:

sudo passwd oneadmin

Nachfolgend müssen die Namen für node01 und node02 entsprechend der eigenen Installation angepasst werden.

Nun kopieren wir den SSH Schlüssel des oneadmin auf jeden Node und in die Datei authorized_keys des Front-Ends.

sudo scp /var/lib/one/.ssh/id_rsa.pub oneadmin@node01:/var/lib/one/.ssh/authorized_keys
sudo scp /var/lib/one/.ssh/id_rsa.pub oneadmin@node02:/var/lib/one/.ssh/authorized_keys
sudo sh -c "cat /var/lib/one/.ssh/id_rsa.pub >> /var/lib/one/.ssh/authorized_keys"

Der SSH Schlüssel jedes Nodes muss in die Liste der bekannten Hosts unter /etc/ssh/ssh_known_hosts auf dem Front-End hinzugefügt werden. Nun muss die SSH Session beendet werden und der SSH Schlüssel von ~/.ssh/known_hosts nach /etc/ssh/ssh_known_hosts kopiert werden.

sudo sh -c "ssh-keygen -f .ssh/known_hosts -F node01 1>> /etc/ssh/ssh_known_hosts"
sudo sh -c "ssh-keygen -f .ssh/known_hosts -F node02 1>> /etc/ssh/ssh_known_hosts"

Diese Schritte erlauben dem oneadmin SCP ohne ein Passwort oder manuellen Eingriff zu nutzen, um eine Image auf den Nodes bereitzustellen.

Auf dem Front-End muss ein Verzeichnis zum Speichern der Images für die virtuellen Maschinen erstellt und dem oneadmin Zugriff auf das Verzeichnis gegeben werden.

sudo mkdir /var/lib/one/images
sudo chown oneadmin /var/lib/one/images/

Nun kann eine virtuelle Maschine in das Verzeichnis /var/lib/one/images kopiert werden.

Eine virtuelle Maschine auf Basis von Ubuntu kann mit dem vmbuilder erstellt werden, siehe dazu JeOS and vmbuilder.

Konfiguration

Der OpenNebula Cluster kann nun konfiguriert werden. Weiterhin können virtuelle Maschinen dem Cluster hinzugefügt werden.

Auf dem Front-End geben wir dazu folgenden Befehl ein:

onehost create node01 im_kvm vmm_kvm tm_ssh
onehost create node02 im_kvm vmm_kvm tm_ssh

Als nächstes erstellen wir eine Template-Datei mit dem Namen vnet01.template für das virtuelle Netzwerk:

NAME = "LAN"
TYPE = RANGED
BRIDGE = br0
NETWORK_SIZE = C
NETWORK_ADDRESS = 192.168.0.0

Die NETWORK_ADDRESS sollte dem eigenen lokalen Netzwerk entsprechen.

Mit dem onevnet Befehl fügen wir das virtuelle Netzwerk OpenNebula hinzu:

onevnet create vnet01.template

Jetzt erstellen wir eine Template-Datei für eine virtuelle Maschine mit dem Namen vm01.template:

NAME = vm01

CPU = 0.5
MEMORY = 512

OS = [ BOOT = hd ]

DISK = [
source = "/var/lib/one/images/vm01.qcow2",
target = "hda",
readonly = "no" ]

NIC = [ NETWORK="LAN" ]

GRAPHICS = [type="vnc",listen="127.0.0.1",port="-1"]

Mit dem Befehl onevm starten wir die virtuelle Maschine:

onevm submit vm01.template

Mit dem Befehl onevm list können wir weitere Informationen über die gestarteten virtuellen Maschinen abfragen. Mit dem Befehl onevm show vm01 erhalten wir detaillierte Informationen zu einer bestimmten virtuellen Maschine.

Quelle



ChromeOS in der VirtualBox

In diesem Artikel zeige ich heute, wie man Googles ChromeOS mit der Virtual Box ausführen kann.

Voraussetzungen

In Kürze

Zunächst laden wir uns das ChromeOS VMWare Image herunter, das auch für die VirtualBox genutzt werden kann. Anschließend erstellen wir eine virtuelle Machine für den Typ Linux/Ubuntu und weisen ihr das VMWare Image zu. Ist die virtuelle Machine gestartet, können wir uns mit einem vorhandenen Google Account an ChromeOS anmelden. Achtung!!! Das Tastaturlayout ist auf Englisch voreingestellt.

In Bildern

Nach der Installation starten wir die VirtualBox.

Anschließen öffnen wir den Manager für virtuelle Maschinen über Datei >> Manager für virtuelle Maschinen. Hier fügen wir das ChromeOS VMWare Image als Festplatte hinzu.

Jetzt erstellen wir eine neue virtuelle Maschine, indem wir den blauen Punkt auswählen, geben der virtuellen Maschine einen Namen, hier ChromeOS und wählen als Betriebssystem Linux und Version Ubuntu.

Im nächsten Schritt weisen wir der virtuellen Maschine den für sie verfügbaren Arbeitsspeicher zu, hier 384 MB.

Nun weisen wir der virtuellen Maschine die Festplatte zu, die wir oben über den Manager für virtuelle Maschinen angelegt haben.

VirtualBox zeigt uns am Ende eine Zusammenfassung.

Mit einem Klick auf den grünen Pfeil wird die virtuelle Maschine mit dem ChromeOS gestartet.

Nun können wir uns mit unserem Google Benutzernamen und Passwort bei ChromeOS anmelden.



openQRM – Die Cloud Computing Plattform für Rechenzentren

openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen und ist aktuell in der Version 4.6 verfügbar.

Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können.

Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von "P-to-V", "V-to-P" und "V-to-V".

openQRM verfügt des Weiteren über ein integriertes Storage-Management, mit dem anhand des Snapshot-Verfahrens Serversysteme dupliziert werden können. Die Snapshots ermöglichen eine dynamische Anpassung des Speicherplatzes, bieten einen persistenten Cloud-Speicher und erlauben ein Backup/Restore der Server sowie deren Versionierung.

Mit der "N-zu-1" Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Dabei spielt es keine Rolle, ob physikalische oder virtuelle Maschinen eingesetzt werden!

Benefits auf einem Blick

  • Virtualisierung
    openQRM unterstützt alle gängigen Virtualisierungstechnologien darunter VMWare, Citrix XenServer und KVM und bietet die Möglichkeit der Migration von P-to-V-, V-to-P- und V-to-V für physikalische Server als auch virtuelle Maschinen.
  • Storage
    openQRM verfügt über ein zentralisiertes Speichersystem mit integriertem Storage Management, welches alle bekannten Storage-Technologien unterstützt. Dazu gehören u.a. Netapp, Equallogic, NFS, iSCSI ZFS und proprietäre auf LVM basierende Storage-Typen, für eine flexible und schnelle Duplizierung von Serversystemen.
  • Zentrales Management
    openQRM verschmilzt die Welt von Open Source mit der von kommerziellen Produkten. Mit einer zentralen Managementkonsole sind alle Funktionen zur Administration von Rechenzentren, System- und Service-Überwachung, Hochverfügbarkeit und automatisierter Bereitstellung vorhanden.

Funktionen

  • Hardware/Software Isolation
    openQRM isoliert die Hardware (physikalische Server, virtuelle Maschinen) vollständig von der Software (Server Images). Dabei ist die eigentliche Hardware eine "Computing Resource" und kann dadurch jederzeit durch eine andere Hardware ersetzt werden, ohne dass die Software (Server Image) neu konfiguriert werden muss.
  • Unterstützung für verschiedene Virtualisierungs-Technologien
    Mit VMWare, Xen, KVM und dem Citrix XenServer unterstützt openQRM eine viehlzahl an virtuellen Maschinen und kann dieses transparent verwalten und migrieren. Neben der System-Migration von physikalischen Servern zu virtuellen Maschinen (P-to-V) können Systeme ebenfalls von virtuellen Maschinen zu physikalischen Servern (V-to-P) migriert werden. Darüber hinaus besteht die Möglichkeit ein System von einer Virtualisierungstechnologie zu einer anderen Virtualisierungstechnologie (V-to-V) zu verschieben.
  • Vollautomatische Nagios-Konfiguration

    openQRM unterstützt die vollautomatische Konfiguration von Nagios mittels "nmap2nagios-ng". Damit wird das gesamte openQRM Netzwerk analysiert und auf Basis der Informationen eine Nagios-Konfiguration erstellt. Anschließend werden alle Services auf allen Systemen überwacht.

  • Integriertes Storage-Management
    openQRM organisiert die Serversysteme wie Dateien und nutzt zur Verwaltung moderne Storagesysteme anstatt lokaler Festplatten. Mittels Logical Volume Managern (LVM) und deren Snapshot-Verfahren können Server-Templates auf schnellen Wege dupliziert werden.

    "Sollen z.B. 10 neue Server ausgerollt werden, kann so einfach ein bestehendes Server-Image 10 mal dupliziert und die "Clone" direkt zum Deployment bereitgestellt werden."

    Mit diesem Konzept steht ein zentrales Backup/Restore sowie die Möglichkeit von Hot-Backups ohne Downtime zur Verfügung.

    openQRM unterstützt folgende Storage-Typen:

    • NFS (NAS)
    • iSCSI (iSCSI SAN)
    • Aoe/Coraid (AOE SAN)
    • NetApp (iSCSI SAN)
    • Local-disk (Übertragung von Server-Images auf lokale Festplatten)
    • LVM-Nfs (NFS auf LVM2, erlaubt schnelles Cloning)
    • LVM-iSCSI (iSCSI auf LVM2, erlaubt schnelles Cloning)
    • LVM-Aoe (Aoe auf LVM2, erlaubt schnelles Cloning)
    • Equallogic (iSCSI SAN)
    • ZFS (iSCSI SAN)
  • Hochverfügbarkeit und "N-to-1"-Fail-Over!
    Mit der "N-zu-1" Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Unabhängig davon, ob physikalische oder virtuelle Maschinen eingesetzt werden.

    "Um zum Beispiel 10 hochverfügbare Spezialsysteme zu betreiben benötigt man normalerweise weitere 10 "Stand-By"-Systeme. Mit openQRM jedoch benötigt man nur einen einzigen "Stand-By"-Server, der im Fehlerfall eines der 10 Spezialsysteme benutzt wird. Das heißt, man kann 9 "stromfressende", nicht ausgelastete Server einsparen. Perfekt für "Green IT".

    Des Weiteren können physikalische Server virtuelle Maschinen als "Hot Stand-By" nutzen und lassen sich im Notfall in eine virtuelle Maschine migrieren.

  • Fertige Server-Templates
    Mittels dem "Image-Shelf"-Plugin stellt openQRM bereits fertige Server Templates zur Verfügung. Dazu gehören Linux Distributionen wie Debian, Ubuntu, CentOS und openSuse. Des Weiteren können mit dem Plugin eigene Server Templates auf unterschiedliche Weise (lokal, http, https, ftp) bereitgestellt werden.
  • Unterstützung verschiedenster Deployment-Methoden
    Mit openQRM können Server von jeder Art von Storage gestartet werden. Zusätzlich können die Server Templates von einem Storage-Typ zu einem anderen übertragen werden, dabei kann noch entschieden werden, ob die Server Templates auf einem physikalischen Server oder in einer virtuellen Maschine gestartet werden sollen.
  • Unterstützung verschiedener OS-Distributionen
    Es stehen bereits vor-konfigurierte openQRM-Server Pakete für Debian, Ubuntu und CentOS zur Verfügung. Ein openQRM-Server kann aber alle gängigen Linux Distributionen verwalten.
  • Cloud-Selector
    Mit dem Cloud-Selector kann der Cloud Administrator seine Cloud Produkte wie z.B. Prozessoren, Speicher, Festplattengröße oder den Typ der virtuellen Maschine auswählen und deren Preise festlegen.
  • Kostenrechner im Cloud-Portal
    Die Cloud-Computing-Unit (CCU) kann einer regulären Währung (z.b. USD oder Euro) zugewiesen werden. Mit dem Kostenrechner werden die stündlichen, täglichen und monatlichen verbrauchten Kosten für eine Cloud Appliance berechnet.
  • Private Cloud Images
    Mit der "Private Cloud Image"-Funktion können Cloud Benutzer eigene Server Templates anlegen und verwalten.
  • Volle SSL-Unterstützung
    Der openQRM-Server arbeitet in einem vollständig SSL-verschlüsselten Bereich und unterstützt verschiedene Serverarchitekturen wie i386 und x86_64.

Auszeichnungen

Preise

  • openQRM ist Open Source und unterliegt der GPL (GNU General Public License).

Support

  • Die openQRM Enterprise ist der Hauptsponsor von openQRM. Das Team um CEO Matthias Rechenburg, CTO Christoph Moeller und Vertriebs- und Marketing-Direktor Andre Westbunk weist langjährige Erfahrungen für das flexible, konsistente und transparente Betreiben von Rechenzentren und bietet professionelle Services zu openQRM um damit die Gesamtbetriebskosten (TCO) von IT-Abteilungen zu senken.
  • Ich möchte hier noch anmerken, dass es sich bei der openQRM Enterprise um einen deutschen Anbieter aus dem Bereich des Cloud Computing handelt!

Quelle

openQRM
openQRM Enterprise