Tag: Virtualisierung


Das Beste aus beiden Welten? Hypervisor-basierte Container als Lösung für offene Probleme

  • Container haben immer noch offene Schwachstellen und ungelöste Probleme
  • Getrieben von der Multi- und Hybrid-Cloud Adaption im Markt, wächst das Ökosystem rund um Container rapide an
  • Softwarekonzerne und Start-ups versuchen die Lücken mit Lösungen zu füllen
  • Die Entscheidung für die Wahl der Container-Technologie ist weitestgehend gefallen. Docker setzt sich in vielen Anwendungsszenarien durch, jedoch sind Orchestrierung, Betrieb und Management noch offene Handlungsfelder

Continue reading “Das Beste aus beiden Welten? Hypervisor-basierte Container als Lösung für offene Probleme” »



CA Technologies präsentiert Converged Infrastructure Management-Lösungen

CA Technologies hat eine neue Version seiner CA Infrastructure Management (CA IM) Lösung für das Converged Infrastructure Management für Unternehmen vorgestellt. Durch die Integration von Bausteinen aus dem CA Technologies Service Assurance-Portfolio kann CA IM große Mengen unzusammenhängender Performancedaten in relevante Einblicke verwandeln, die in einheitlichen, benutzerdefinierten Ansichten präsentiert werden. Dadurch sollen Unternehmen und Kunden von Service Providern kosteneffektiv die Servicequalität, Prognostizierbarkeit und Effizienz verbessern.

Alte Welt und die Komplexität der modernen IT

Die Zunahme von Volume und Arten des Datenverkehrs, der Daten und der Geräte im Internet, gepaart mit veralteten Methoden, Prozessen und Tools für das Management, schaffen eine Komplexität der IT, die IT-Organisationen vor Herausforderungen stellt, wenn sie die steigenden Erwartungen der Kunden erfüllen wollen.

Neue Infrastructure Management Lösungen sind gefragt

CA Infrastructure Management konzentriert sich auf diese Herausforderungen, indem es Funktionen, Analysemöglichkeiten, hohe Skalierbarkeit und Anpassungsfähigkeit für bestehende Umgebungen bietet. Die Lösung ermöglicht IT-Teams den Zugriff auf grafische Darstellungen spezifischer Informationen, mit denen sie die Servicequalität verbessern können. CA IM unterstützt:

  • Personal der Unternehmens-IT beim Management des schnellen Wachstums im Bereich „Bring Your Own Device“ (BYOD), Video und Anwendungskomplexität in hochgradig virtualisierten Infrastrukturen.
  • Communication Service Provider bei der Vereinfachung und Beschleunigung der Bereitstellung von 4G-Netzwerken.
  • Managed Service Provider bei der Erschließung neuer Umsatzquellen und schnelleren Aufnahme neuer Kunden.

In Kombination mit anderen Service Assurance-Lösungen bietet CA IM seinen Kunden eine Servicetransparenz, um Verfügbarkeit und Performance von Business Services und der zugrundeliegenden Infrastruktur sicherzustellen.

  • Konvergente Anwendungen und Infrastruktur: End-to-End Überwachung der Antwortzeit von Anwendungen, Messung und Analyse der Anwendungsperformance in der gesamten Netzwerkinfrastruktur, Abgleich der Antwortzeiten mit Grundverhalten und Schwellwerten, Warnungen bei Performanceverschlechterungen – mit dem Ergebnis eines anwendungsorientierten Infrastructure Management.
  • Konvergente Funktionsbereiche: Eine fortschrittliche Architektur, die agentenlose Erfassung für hochmodernes Aggregieren und Analyse der Performance-, Fehler- und Datenflussdaten ermöglicht, die mehrere Funktionsbereiche über Netzwerke, Systeme und Anwendungsbereiche hinweg vereint.
  • Konvergente Netzwerke: Integriertes Performance Management für netzwerkbasierte Sprach- und Videoanwendungen, z.B. Cisco Unified Communications Manager, Microsoft Lync und AVAYA. Kunden können die Lösung für Nachverfolgung, Prüfung und Reporting für wichtige Performancemessdaten nutzen, um die Qualität der Experience und die Servicequalität im Netzwerk für vereinheitlichte Kommunikationslösungen zu nutzen.
  • Konvergente Analysen: Dynamische, vereinte Performanceanalysen, die die gesamte Infrastruktur umfassen, um Grundverhalten zu ermitteln, Trends zu berechnen, Schwellwerte festzulegen, Abweichungen zu erkennen und automatische Untersuchungen auszulösen. Die Ergebnisse werden in konvergenten, kontextbezogenen Ansichten bereitgestellt, die relevante Daten abhängig von der Benutzerrolle darstellen.

CA Services und CA Education unterstützen das CA Infrastructure Management zudem mit Implementierungsangeboten, darunter Grundlagenservices für eine schnelle Bereitstellung der Lösung, um geschäftliche Anforderungen zu erfüllen, und Optimierungsservices, um den Nutzen einer grundlegenden Implementierung durch zusätzliche Leistungsmerkmale wie Mandantenfähigkeit zu steigern. Strategische Beratung, Managed Services und von Dozenten durchgeführte webgestützte Schulungen für Kunden und Partner sind ebenfalls verfügbar.



Fedora 17 mit Neuigkeiten im Bereich Virtualisierung und Cloud Computing

Die neue Fedora Version 17 steht ab sofort zum Download bereit und zeichnet sich vor allem durch Neuerungen in den Bereichen Virtualisierung, Cloud Computing und GNOME aus. Zu den wichtigsten Aktualisierungen zählen die Unterstützung der Cloud Plattform OpenStack sowie oVirt, eine Managementlösung für Virtualisierungsumgebungen. Als Desktop-Benutzeroberfläche steht GNOME 3.4 bereit.

Fedora 17 mit Neuigkeiten im Bereich Virtualisierung und Cloud Computing

Fedora 17 kommt mit einer Vielzahl von Verbesserungen und neuen Funktionen, darunter:

Cloud Computing, Virtualisierung, Cluster: Das OpenSource Projekt OpenStack wurde auf das neueste Release 2012.1 (Essex) aktualisiert. Mit oVirt wurde eine neue und offene Virtualisierungstechnologie hinzugefügt, die ein umfangreiches Management zur Virtualisierung bietet und viele Funktionen sowohl für den Host als auch für den Gast mitbringt. Der Cluster Stack wurde um wesentliche Updates für die Hochverfügbarkeit und des Load Balancing aktualisiert.

Für Entwickler: Steht nun der JBoss Application Server 7 bereit. Zudem wurde eine pre Version von Juno, dem kommenden Eclipse SDK Release, hinzugefügt. Mit Java 7 und OpenJDK7 enthält Fedora 17 nun auch die neueste Java Version.

Desktop Funktionen: GNOME 3.4 wurde um neue Suchfunktionen, verbesserte Themes und weitere Verbesserungen bei der Usability erweitert, z.B. Erweiterungen für die Textverarbeitung und dem Kontaktmanager. Die neueste GIMP 2.8 Version beinhaltet nun einen Single-Window Mode sowie Layer Groups und eine On-Canvas Text Bearbeitung.

Eine vollständige Liste der Fedora 17 Funktionen ist unter http://fedoraproject.org/wiki/Releases/17/FeatureList zu finden.



AWS veröffentlicht VM Export Service für Amazon EC2

Mit dem AWS VM Import Service ermöglichen die Amazon Web Service den Import unterschiedlicher Virtual Machine Formate nach Amazon EC2, um damit virtualisierte On-Premise Ressourcen in die Amazon Cloud zu migrieren. Wie Jeff Barr auf dem Unternehmensblog berichtet, wurde der Service nun so erweitert, um virtuelle Maschinen von Amazon EC2 in die eigene On-Premise Umgebung zu exportieren.

AWS veröffentlicht VM Export Service für Amazon EC2

Diese Funktion steht mit der neuesten Version der EC2 command line (API) Tools bereit. Ein Export könnte bspw. so aussehen:

ec2-create-instance-export-task –e vmware -b NAME-OF-S3-BUCKET INSTANCE-ID

Hier wird die Instanz ID und der Name eines S3 Buckets benötigt, in dem die exportierte VM gespeichert wird.

Mit dem Befehl ec2-describe-export-tasks kann der Export Prozess überwacht und mit ec2-cancel-export-task gestoppt werden.

Ist der Exportvorgang abgeschlossen, muss das exportierte Image lediglich in die lokale On-Premise Umgebung heruntergeladen werden.

Der Service unterstützt derzeit den Export von Windows Server 2003 (R2) und Windows Server 2008 EC2 Instanzen in das VMware ESX kompatible VMDK Format sowie nach Microsoft Hyper-V VHD oder Citrix Xen VHD Images. Zudem plant AWS in Zukunft weitere Betriebssysteme, Image Formate und Virtualisierungstechnologien zu unterstützen.



Schöne virtualisierte Welt der IT

In der heutigen IT-Welt findet man fast in allen Bereichen Virtualisierung, ganz gleich ob es sich um Hardware-, Software- oder Netz-Umgebung handelt. Das Hauptziel der Virtualisierung ist Rationalisierung und Leistungssteigerung der Rechenzentren. Ohne Virtualisierung muss in einem Rechenzentrum für jeden Anwender und jedes Anwendungsgebiet ein eigenes Serversystem aufgebaut werden, das in der Lage ist, eigenständig Anfragespitzen abzudecken. Daraus folgt logischerweise eine Überproportionalisierung der Serverkomponenten eines IT-Systems. Laut einer Studie der International Data Corporation (IDC), geht die durchschnittliche Serverauslastung in dieser Konstellation nicht über 25% hinaus. Das bedeutet eine enorme Vergeudung von Serverkapazitäten, Räumlichkeiten und Personalkapazitäten in Rechenzentren.

IBM konnte bereits vor über 30 Jahren den Mainframe-Computer in logisch getrennten virtuellen Maschinen partitionieren, um gleichzeitige Ausführung verschiedener Applikationen und Prozesse auf einem Rechner, d.h. Multi-Tasking, zu realisieren. Es ist ein wesentliches Merkmal der Virtualisierung, eine logische Abstraktionsschicht zu schaffen, zwischen dem Anwender und den Ressourcen – Hardware und Software – die er benutzt, um seine Aufgaben zu erledigen. Ihm wird der Eindruck vermittelt, er sei der alleinige Nutzer aller Ressourcen, obwohl er in der Tat sie mit vielen anderen teilt.

Für die Virtualisierung stehen heute diverse Virtualisierungssoftware zur Verfügung, die virtuelle Maschinen realisieren können. Die eigentliche Virtualisierung kann auf unterschiedlichen Ebenen stattfinden.

Ein Beispiel für die Virtualisierung auf der Betriebssystem-Ebene ist Linux-VServer. Diese Open Source-Software kann Teile eines IT-Systems so aufteilen und voneinander abgrenzen, dass einzelne Prozesse nicht außerhalb des ihnen zugeteilten Arbeitsbereiches zugreifen können. Damit können z.B. Dateisysteme, Hauptspeicher, Netzwerkadressen oder Prozessorzeiten für unterschiedliche Anwendungen partitioniert werden.

Ein Beispiel für die Virtualisierung auf einer abstrakten Verwaltungsebene, auch Paravirtualisierung genannt, ist das von IBM entwickelte Betriebssystem OS/400 (IBM i). Das konstruktionsprinzip von OS/400 ist die Objektbasiertheit. Alle Bestandteile des Betriebssystems sind als Objekte mit Eigenschaften und Funktionen zu betrachten. OS/400 stellt eine Reihe von schlüsselfertigen Lösungen zur Verfügung.

Ein Beispiel für die Virtualisierung auf der Hardware-Ebene ist Intel Virtualization Technology (Intel VT). Mit dieser Technologie hat der Chip-Hersteller Intel die Grundlage geschaffen für die Nutzung seiner Prozessoren für Server-Virtualisierung.

Ein schönes Beispiel für die praktische Nutzung der Virtualisierungssoftware, auch für die PC-Benutzer, ist die Freeware von Oracle / Sun VirtualBox. Mit diesem Tool kann man beliebige Betriebssysteme auf einem PC ausführen ohne zusatzinstallation. Man kann z.B. Linux unter Windows laufen lassen oder umgekehrt. Auf diese Art und Weise kann man seinen PC benutzen, um die Portabilität einer Anwendung zu testen.



Erste Schritte mit der domainFACTORY “JiffyBox”

Nach der Vorstellung und weiteren Hintergrundinformationen zur domainFACTORY “JiffyBox”, gibt dieses Tutorial einen Einblick in das Innere. Dazu habe ich von der domainFACTORY GmbH einen kostenlosen Testzugang erhalten, für den ich mich auf diesem Wege bedanken möchte!

Erstellen einer JiffyBox

Zunächst melden wir uns dazu unter https://admin.jiffybox.de mit einem gültigen Benutzernamen und Passwort an, die wir unter https://www.jiffybox.de beantragen können.

Nach einer erfolgreichen Anmeldung werden wir im Control Panel begrüßt, wo wir im ersten Schritt mittels "Jetzt Trial-Server bestellen" einen kostenlosen Test der JiffyBox vornehmen können oder uns über "Neue JiffyBox erstellen" eine neue JiffyBox erzeugen. Wir wählen hier den zweiten Schritt.

Wir geben der neuen JiffyBox einen Namen, wählen einen Tarif, hier "CloudLevel 1 - mit 1 GB Arbeitsspeicher und 50 GB Festplatte für 0,02 € / Stunde" und eine Linux Distribution, hier "Ubuntu 10.04 LTS". Würden wir bereits über eine JiffyBox verfügen, hätten wir als Distribution ebenfalls ein Backup als Quelle angeben können.

Unter dem Punkt "Erweitert" können wir der JiffyBox ein selbst gewähltes Root Passwort zuweisen. Anschließend wählen wir "Erstellen".

Die JiffyBox wird nun automatisch im Hintergrund erzeugt. Statusinformationen zeigen dabei den aktuellen Vorgang!

Zurück im "Control Panel" sehen wir die erzeugte JiffyBox und können nun mittels "Konfigurieren" weitere Einstellungen vornehmen, die JiffyBox "Starten", "Einfrieren" oder wieder vollständig "Löschen".

Hinter dem Menüpunkt "Voreinstellungen" verbirgt sich das Schlüsselmanagement, wo wir mehrere SSH-Public-Keys eintragen können.

Über den Punkt "Alle Meldungen" gelangen wir in den Statusbereich. Hier erhalten wir detailliert alle Informationen zu allen Vorgängen innerhalb unseres Accounts.

Weitere Informationen

Über den Menüpunkt "Account" gelangen wir direkt zu den Stammdaten.

Weiterhin können wir über "Kundenservice" direkt elektronischen Kontakt zu dem domainFACTORY Support aufnehmen und erhalten einen historischen Überblick über alle bisherigen Anfragen.

Wir können zusätzlich über den Menüpunkt "Passwörter", unsere Passwörter für das JiffyBox Control Panel und dem Telefon Support eigenständig ändern. Zudem erhalten wir einen Überblick über alle bisher gestellten Rechnungen durch domainFACTORY über den Punkt "Rechnungen".

Der Menüpunkt "Verbräuche" gibt einen genauen Überblick zu den bisher entstandenen Kosten zu allen JiffyBoxen und dem verbrauchten Traffic.

Weiterhin erhalten wir einen detaillierten Überblick über die Nutzung jeder einzelnen, in unserem Account vorhandenen, JiffyBox.

Sowie vom derzeit verbrauchten Traffic.

Ein weiteres interessantes Feature ist die Möglichkeit zur Begrenzung der Kosten. Hier kann ein Betrag (in EUR) als Obergrenze eingetragen werden und die Folgeaktion, die stattfinden soll, wenn der Betrag erreicht wird.

Um die JiffyBox über Skripte zu steuern, haben wir über den Menüpunkt "API-Zugriff" die Möglichkeit, einen API-Token zu erzeugen. Weitere Informationen für die Nutzung der API sind in der PDF-Datei "JiffyBox-API" zu finden.

Arbeiten mit der JiffyBox

Zurück im Control Panel wollen wir nun ein Blick hinter die Konfigurationsmöglichkeiten einer JiffyBox werfen. Wie wir sehen werden, stehen uns dazu viele Möglichkeiten zur Verfügung. Wir wählen dazu unter "Ihre JiffyBoxen" die Aktion "Konfigurieren".

Wir erhalten zunächst einen Überblick zu allen notwendigen Informationen, wie der aktuellen IP-Adresse und dem aktuellen Hostnamen, dem genutzten Tarif, dem verfügbaren Arbeitsspeicher und der Festplattengröße, sowie der für diese JiffyBox verwendeten Linux Distribution.

Über "Profile und Festplatten" können wir weitere Konfigurationen am System, der Festplattengröße und deren Zuordnung vornehmen.

Hinter "Netzwerk" verbergen sich weitere Informationen zu den IP und DNS Informationen. Hier haben wir die Möglichkeit den "Reverse-DNS" Namen zu ändern und eine weitere IP-Adresse zu bestellen.

Von jeder JiffyBox werden automatisch tägliche Backups erstellt. Dennoch haben wir die Option über den Menüpunkt "Backups" ein manuelles Backup zu starten, bzw. eigene Backup Pläne zu erstellen.

Über "Konsole und Recovery" steht uns der Zugriff mittels einer Web-Konsole und per SSH-Konsole zur Verfügung. Weiterhin kann ein Recovery-System aktiviert werden, um die JiffyBox im Notfallmodus zu starten.

Um die JiffyBox nun zu nutzen, wählen wir im Control Panel unter "Ihre JiffyBoxen" lediglich "Starten".

Mittels eines SSH-Clients, hier Putty, verbinden wir uns mit der JiffyBox. Die dazu benötigte IP-Adresse bzw. den DNS-Namen erhalten wir unter dem Menüpunkt "Netzwerk" in dem Konfigurationsbereich der JiffyBox.

Anschließend melden wir uns mit dem Benutzer "root" und dem von uns bei dem Erstellen der JiffyBox unter "Erweitert" gewählten Passwort an.

Damit sind wir mit unserer ersten eigenen JiffyBox verbunden.

Um die JiffyBox wieder zu beenden, wählen wir im Control Panel für die entsprechende JiffyBox "Stoppen".

Und dann "Herunterfahren".

Die JiffyBox wird anschließend automatisch heruntergefahren. Eine Statusmeldung informiert uns über den erfolgreichen Vorgang.

Die JiffyBox kann anschließend wieder angepasst, gestartet, eingefriert oder gelöscht werden.

Die Verbrauchsanzeige informiert uns darüber, dass für eine Gesamtdauer von 1:33:36 Stunden bisher 0,03 EUR entstanden sind.



Eucalyptus: Erstellen eines Image aus einem ISO (Xen)

Dieser Artikel beschreibt, wie mittels Xen und dem ISO Image eines Gast Betriebssystems das installiert werden soll, ein Root Dateiystem für Eucalyptus erstellt wird.

Voraussetzung

  • Hardware Virtualisierung Unterstützung auf dem System (Hardware-assisted virtualization)
  • Funktionsfähige Xen Umgebung (domU muss gestartet werden können)

Continue reading “Eucalyptus: Erstellen eines Image aus einem ISO (Xen)” »



Vorteile durch Desktop-Virtualisierung!

Was ist Desktop-Virtualisierung?

Im Vergleich zu klassischen Desktop-PCs werden virtuelle Desktops als virtuelle Maschinen wie eine zentral verwaltete Ressource betrachtet und im Rechenzentrum bereitgestellt. Das führt dazu, dass die Konfiguration und Verwaltung nicht mehr auf dem physikalischen Endgerät eines Benutzers stattfindet, sondern innerhalb der virtuellen Maschine.

Auf einem zentralen Rechner werden dabei mehrere individuelle Betriebssysteminstanzen für mehrere Benutzer zur Verfügung gestellt, wodurch jeder Benutzer in (s)einer eigenen virtuellen Umgebung arbeitet. Der Benutzer merkt nicht, dass seine Systemumgebung virtualisiert ist, da sich sein Gesamtsystem wie ein gewöhnlicher Desktop-PC verhält.

Es lassen sich drei Typen von virtuellen Desktops klassifizieren:

  • Standard Desktop
    Dabei handelt es sich um einen gewöhnlichen Desktop, der für alle Benutzer gleich aufgebaut und so ausgestattet ist, das Büroaufgaben damit ohne weiteres erledigt werden können.
  • Personalisierter Desktop
    Auf Basis von virtuellen Maschinen werden auf den Servern für jeden Benutzer individuell eingerichtete virtuelle Desktops bereitstellen, die dort zentral gepflegt und verwaltet werden. Die Anwender haben zudem die Möglichkeit selbständig Änderungen vorzunehmen.
  • High-End Desktop
    Wird eine enorme Leistung benötigt, erhält jeder Benutzer auf Basis von Blade PCs seine eigene Instanz im Rechenzentrum. Der Desktop wird dabei auf dem Blade PC ausgeführt, wodurch der Benutzer die vollständigen Ressourcen wie z.B. die Prozessorleistung alleine für sich nutzen kann.

Vorteile und Nutzen der Desktop-Virtualisierung

Durch die Trennung des Desktops von dem physikalischen Endgerät kann die Administration zentral auf einem Server vorgenommen werden, womit der Wartungsaufwand reduziert wird, da die Installation, Konfiguration und Aktualisierung nicht mehr vor Ort vorgenommen werden muss. Speziell im Falle von Migrationen stehen hier enorme Zeitvorteile im Vordergrund. So kann z.B. in kurzer Zeit die Umstellung auf eine neue Betriebssystemversion vorgenommen werden.

Weiterhin können die Kosten für die Client-Hardware gesenkt werden. Aktuelle Windows Betriebssysteme benötigen performante und damit kostspielige Endgeräte. Durch die Virtualisierung des Desktops können entweder ältere Endgeräte oder Thin Clients eingesetzt werden, die zudem stromsparend und wartungsarm sind. Laut einer IDC Kundenbefragung können die Kosten, im Vergleich zu herkömmlichen Desktop PCs (Fat Clients), um ca. 600 Dollar pro Benutzer pro Jahr gesenkt werden.

Ein weiterer zu beachtender Punkt ist die Erhöhung der Sicherheit. Die Daten befinden durch die Desktop-Virtualisierung nicht mehr lokal auf den Endgeräten, sondern werden zentral auf den Unternehmensservern gespeichert. Somit werden die Daten zusätzlich in die zentralen Datensicherungsmechanismen eingegliedert und der Zugriff auf die Daten wird zentral gesteuert. Die Compliance kann ebenfalls unternehmensweit verbessert werden, da die Installation von unerwünschter Software zentral unterbunden werden kann und es kann sichergestellt werden, dass die Daten im Rechenzentrum verbleiben.

In Unternehmen die mit wechselnden Arbeitsplätzen arbeiten, erhalten die Benutzer den Vorteil, immer über ihre eigene tatsächliche Umgebung zu verfügen. Der Nachteil der "Roaming Profiles" besteht darin, dass die Installation & Konfiguration des Betriebssystems und der darauf installierten Software für jeden Benutzer, der an dem Rechner arbeitet, gleich ist. Im Falle der Desktop-Virtualisierung ist ein Benutzer damit (wirklich) nicht mehr an einen bestimmten Arbeitsplatz (Ort) gebunden.

Anforderungen & Herausforderungen der Desktop-Virtualisierung

Desktop-Virtualisierung ist kein Thema, dass kurzfristig umgesetzt werden kann, sondern bedarf einem gut durchdachten und ganzheitlichen Ansatz. Dazu gehören neben der Administration der virtuellen Desktops, ebenso die benutzerspezifische Anpassung und die Gewährleistung der Geschwindigkeit und Performanz. Letzteres ist vor allem kritisch zu betrachten, wenn ein Unternehmen über mehrere Standorte verteilt ist und der Zugriff über eine WAN-Verbindung stattfindet. Die Berücksichtigung der gesamten IT-Infrastruktur ist bei der Einführung und Implementierung von Desktop-Virtualisierung von enormer Wichtigkeit. Wozu eine ganzheitliche Betrachtung und ebenfalls Technologien zur Optimierung und Überwachung der WAN-Verbindungen und Performanz sowie des sicheren Zugriffs gehören.



Was ist Virtualisierung?

Auf einer abstrakten Ebene ist Virtualisierung für die Emulation und Simulation von Hardware-Ressourcen zuständig und entkoppelt in diesem Zusammenhang die Computer-, Speicher- und Netzwerk-Hardware von dem darauf ausgeführten Betriebssystem (Software), wodurch eine virtuelle Infrastruktur geschaffen wird. Unternehmen erhalten dadurch die Möglichkeit ihre Infrastrukturkosten zu senken und können schneller auf wechselnde Anforderungen reagieren. Wird zum Beispiel ein zentrales SAN (Storage Area Network) für das gemeinsame Speichern von Daten genutzt, führt das zur Verbesserung des ROI (Return on Investment).

Schauen wir uns das Thema Virtualisierung im Kern genauer an, handelt es sich dabei um das Bereitstellen von Hardware-Ressourcen auf einer physikalisch vorhandenen Maschine für ein oder mehrere voneinander vollständig getrennte Gastsysteme, die auf dieser physikalischen Maschine (Wirtsystem) parallel ausgeführt werden. Die Gastsysteme (virtuelle Maschinen) teilen sich die Ressourcen des Wirtsystems, wissen aber gegenseitig nichts von ihrer Existenz.

Einsatz und Nutzen von Virtualisierung

Für Virtualisierung kommen verschiedene Einsatzgebiete in Frage. Ein Bereich ist das Einsparen von Energie und Ressourcen oder die Erhöhung der Serverauslastung, um Rechenzentren effizienter zu betreiben. Dazu werden mehrere physikalische Server in virtuelle Maschinen migriert, um diese anschließend auf einem einzigen physikalischen Server zu konsolidieren.

Virtualisierung führt u.a. zu folgenden Nutzen/ Vorteilen:

  • Hardwareunabhängigkeit auf Grund der Virtualsierungsebene.
  • Verringerung der Administrations- und Serverwartungskosten.
  • Optimierung des Platzbedarfs.
  • Verbesserung der Ausfallsicherheit und des Disaster Recovery auf Grund von Clustering Möglichkeiten innerhalb der virtuellen Systeme.
  • Verbesserung des Energieverbrauchs und der Wärmeentwicklung (z.B. USV, Klimaanlage).
  • Verbesserung der Wirtschaftlichkeit auf Grund der besseren Serverauslastung (Hardware).
  • Erhöhung und Verbesserung der Flexibilität und Skalierbarkeit.
  • Zeit- und Kostenminimierung für den Aufbau von Serverlandschaften und komplexen Testumgebungen.
  • Ab Infrastrukturen mit drei Server erhöht der Einsatz von Virtualisierungstechnologien die Effizienz.

Virtualisierungsarten

Aktuell existieren einige unterschiedliche Virtualisierungstechnologien auf dem Markt, die ich im Folgenden vorgestellt werden.

Systemvirtualisierung

Eine Systemvirtualisierung bietet die Möglichkeit mehrere Betriebssysteme auf derselben Hardware parallel auszuführen. Dabei werden zwei Systeme unterschieden. Zum einen das virtualisierte System, dass auch Gastsystem genannt wird und zum anderen das Hostsystem, auf dem das Gastsystem ausgeführt wird und welches direkt mit der Hardware kommuniziert.

Hardware-Virtualisierung (Full-Virtualisierung)

Die Hardware-Virtualisierung ist eine Untermenge der Systemvirtualisierung. Dabei kann ein Gastsystem, ohne Änderungen an seinem Betriebssystemkernel, direkt innerhalb einer virtualisierten Umgebung ausgeführt werden.

Paravirtualisierung

Die Paravirtualisierung ist ein Spezialfall der Systemvirtualisierung. In diesem Fall sind Anpassungen am zu virtualisierenden Betriebssystem notwendig, da eine direkte Schnittstelle zur darunter liegenden Hardware benötigt wird. Der Vorteil besteht in der höheren Performance, da die virtuelle Maschine direkt mit der Hardware kommuniziert.

Anwendungsvirtualisierung

Mit der Anwendungsvirtualisierung lassen sich einzelne Anwendungen mit einer Virtualisierungsschicht vom sich darunter befindenden System entkoppeln. Damit wird eine spezielle Umgebung für die virtualisierte Anwendung geschaffen. Diese Umgebung muss nicht abhängig von der Umgebung des Hosts sein, wodurch auch Anwendungen genutzt werden können, die nicht mehr von dem Hostsystem unterstützt werden.

Netzwerk-Virtualisierung

Netzwerk-Virtualisierung wird genutzt, um logische Teilnetze (Virtual Local Area Networks, VLANs) innerhalb eines physikalischen Netzwerks oder eines Switches aufzubauen. Das VLAN unterteilt ein physikalisches Netz in einzelne (logische) Teilnetze, indem die Datagramme eines VLANs nicht in ein anderes übertragen werden, auch wenn die Teilnetze mit gemeinsam genutzte Switches verbunden sind.



Eigenschaften einer Cloud Platform

Ich habe bisher einige Cloud Computing Plattformen, darunter openQRM, OpenNebula oder OpenECP vorgestellt und ein paar weitere werden noch folgen. Daher erläutere ich in diesem Artikel die grundsätzlichen Eigenschaften die eine Cloud Plattform (meiner Meinung nach) hat bzw. haben sollte.

1. Zunächst sollten ausreichend virtualisierte Serverressourcen zur Verfügung stehen. Weiterhin müssen, (vor allem dann) wenn sich mehrere Kunden auf einem System befinden, jedem Kunden diese virtualisierten Serverressourcen garantiert werden und die einzelnen virtuellen Instanzen isoliert und damit vollständig von einander getrennt betrieben werden.

2. Zum Bereitstellen von umfangreichen Enterprise-Class-Services wie z.B. hohe Verfügbarkeit, Systemwiederherstellungen nach Datenverlusten, automatische Skalierung während Lastspitzen und Ressourcenoptimierungen muss eine große (unbegrenzte) Menge an virtualisierten Serverressourcen vorhanden sein.

3. Für ein zustandsbehaftetes Lifecycle Management, wozu Snapshots, schnelles Cloning (duplizieren) und eine dynamische Versorgung mit Ressourcen über große Server Infrastrukturen gehören, wird ein virtualisierter Cloud Speicher benötigt.

4. Für die Anpassung der virtuellen Topologie - durch das Hinzufügen weiterer Netzwerkfunktionen für Sicherheit, Routing, Load Balancing, Application Firewalls, Protokol Optimierung, etc. in den OSI Schichten 3 bis 7 - und die Möglichkeit die jeweiligen (Teil)-Netzwerke auf Multi-Kunden Systemen zu isolieren und Ressourcen zu garantieren, werden virtuelle Netzwerk Ressourcen benötigt.

5. Es müssen umfangreiche und offene APIs zur Kontrolle sämtlicher Ressourcen vorhanden sein, damit Cloud Computing Anbieter ihren Kunden die vollständige Kontrolle über deren privaten virtuellen Rechenzentren anbieten können.

6. Die Cloud Plattform muss für allen gängigen Virtualisierungs-Plattformen vollständige Kompatibilität bieten und jede virtuelle Maschine unterstützen, um u.a. einen Vendor Lock-in zu vermeiden. Des Weiteren müssen Funktionen für die Migration von virtuellen Maschinen zwischen unterschiedlichen Virtualisierungs-Technologien (P2V, V2P und V2V) vorhanden sein.

7. Zu guter letzt sollte die Cloud Plattform auf Open Source basieren, um eine größtmögliche Kompatibilität zu allen möglichen Clouds aufzuweisen und um einfach adaptiert und angenommen zu werden.



ChromeOS in der VirtualBox

In diesem Artikel zeige ich heute, wie man Googles ChromeOS mit der Virtual Box ausführen kann.

Voraussetzungen

In Kürze

Zunächst laden wir uns das ChromeOS VMWare Image herunter, das auch für die VirtualBox genutzt werden kann. Anschließend erstellen wir eine virtuelle Machine für den Typ Linux/Ubuntu und weisen ihr das VMWare Image zu. Ist die virtuelle Machine gestartet, können wir uns mit einem vorhandenen Google Account an ChromeOS anmelden. Achtung!!! Das Tastaturlayout ist auf Englisch voreingestellt.

In Bildern

Nach der Installation starten wir die VirtualBox.

Anschließen öffnen wir den Manager für virtuelle Maschinen über Datei >> Manager für virtuelle Maschinen. Hier fügen wir das ChromeOS VMWare Image als Festplatte hinzu.

Jetzt erstellen wir eine neue virtuelle Maschine, indem wir den blauen Punkt auswählen, geben der virtuellen Maschine einen Namen, hier ChromeOS und wählen als Betriebssystem Linux und Version Ubuntu.

Im nächsten Schritt weisen wir der virtuellen Maschine den für sie verfügbaren Arbeitsspeicher zu, hier 384 MB.

Nun weisen wir der virtuellen Maschine die Festplatte zu, die wir oben über den Manager für virtuelle Maschinen angelegt haben.

VirtualBox zeigt uns am Ende eine Zusammenfassung.

Mit einem Klick auf den grünen Pfeil wird die virtuelle Maschine mit dem ChromeOS gestartet.

Nun können wir uns mit unserem Google Benutzernamen und Passwort bei ChromeOS anmelden.



Ein Cloud Desktop mit openQRM

Nachdem ich eyeOS in zwei Artikeln ausführlich vorgestellt habe, möchte ich in diesem Artikel eine weitere interessante Möglichkeit aufzeigen, einen persönlichen Cloud Desktop zu nutzen. Dazu dient das von mir ebenfalls schon vorgestellte Cloud Management Tool openQRM, auf dessen Portal Webseite (http://www.openqrm-portal.de) ich die Idee (von Matt Rechenburg beschrieben) entdeckt habe.

Cloud Desktops wie auch Desktop-Virtualisierung sind für mich die Megatrends der Zukunft, die bei jedem auf der Roadmap stehen sollten!

Um uns einen Cloud Desktop mit openQRM zu erstellen gehen wir wir folgt vor:

1. Bestellen einer Cloud Appliance von openQRM

Zunächst legt man sich einen Account unter https://demo.openqrm.com und erstellt einen neuen Cloud-Request.

2. Installation von vncserver und Gnome auf der Cloud Appliance

Die Pakete vnc4server, xorg und gnome müssen per apt-get auf der Cloud Appliance wie folgt installiert werden.

root@cloud-91-1-x:~# apt-get install tightvncserver vnc4server xorg gnome

3. Erstellen eines VNC Users

Mit dem Befehl adduser wird ein neuer Benutzer erstellt.

root@cloud-91-1-x:~# adduser matt
Adding user `matt' ...
Adding new group `matt' (1001) ...
Adding new user `matt' (1001) with group `matt' ...
Creating home directory `/home/matt' ...
Copying files from `/etc/skel' ...
Enter new UNIX password:
Retype new UNIX password:
passwd: password updated successfully
Changing the user information for matt
Enter the new value, or press ENTER for the default
Full Name []:
Room Number []:
Work Phone []:
Home Phone []:
Other []:
Is the information correct? [y/N] y
root@cloud-91-1-x:~#

Danach mit dem su Befehl zum eben erstellten Benutzer wechseln.

root@cloud-91-1-x:~# su - matt
matt@cloud-91-1-x:~$

4. Erstellen einer VNC Passwortdatei

Mit dem vnc4passwd Tool wird eine neue VNC Passwortdatei erzeugt.

matt@cloud-91-1-x:~$ vnc4passwd
Password:
Verify:
matt@cloud-91-1-x:~$

5. Erstellen eines xstartup Skript

Für den automatischen Start einer Gnome Session nach dem VNC-Login muss eine xstartup Datei im .vnc/ Verzeichnis angelegt werden.

matt@cloud-91-1-x:~$ vi .vnc/xstartup
matt@cloud-91-1-x:~$ cat .vnc/xstartup
#!/bin/sh

xrdb $HOME/.Xresources
xsetroot -solid grey
gnome-session &

matt@cloud-91-1-x:~$

Die Datei muss nun noch ausführbar gemacht werden.

matt@cloud-91-1-x:~$ chmod -x
matt@cloud-91-1-x:~$ .vnc/xstartup

6. Start des vncserver

Nun muss der vncserver gestartet werden.

matt@cloud-91-1-x:~$ tightvncserver
xauth: creating new authority file /home/matt/.Xauthority

Creating default startup script /home/matt/.vnc/xstartup
Starting applications specified in /home/matt/.vnc/xstartup
Log file is /home/matt/.vnc/cloud-91-1-x:1.log

7. Verbindung mit dem Cloud Desktop herstellen

Mit einem vncviewer Tool (Linux/Windows) kann man sich nun mit dem Befehl vncviewer[IP-Adresse der Cloud-Appliance]:1 mit dem Gnome Desktop in der Cloud verbinden.

matt@matt-laptop:~$ vncviewer x.x.x.x:1

Nach der Anmeldung steht ein vollständiger Gnome Desktop in der Cloud zur Verfügung.

Quelle

Your Desktop in the Cloud (DE)