Tag: Rechenzentrum


Hadoop oder Data Stacks? Bausteine für eine erfolgreiche Datenanalyse

  • Datenanalyse ist die wichtigste Disziplin im digitalen Zeitalter
  • Unterschiedliche Betriebs- und Deployment-Szenarien ermöglichen die Umsetzung von erfolgreichen Use Cases
  • Stackology und Hadoop sind beide für den Einsatz und die Erfüllung geeignet
  • Die Wahl der Strategie muss zur jeweiligen Unternehmenskultur und den Geschäftsmodellen entsprechend ausgewählt werden

Continue reading “Hadoop oder Data Stacks? Bausteine für eine erfolgreiche Datenanalyse” »



Equinix bereitet sich auf SDN und Multi-Cloud mit neuem Rechenzentrum in Frankfurt vor

  • Erfahren Sie Details über das neue Rechenzentrum von Equinix in Frankfurt
  • Was ist weltweit und besonders in Deutschland bemerkenswert daran?
  • Was bedeutet Equinix für Unternehmens-Kunden, Cloud-Provider und Telcos?
  • Crisp Research im Gespräch mit Equinix CEO Steve Smith

Continue reading “Equinix bereitet sich auf SDN und Multi-Cloud mit neuem Rechenzentrum in Frankfurt vor” »



Das Rechenzentrum: Die logistische Drehscheibe der Digitalisierung

Digitalisierung. Es ist schon erstaunlich, wie es ein einzelner Terminus geschafft hat, in so kurzer Zeit zu einem Albtraum für Unternehmenslenker und IT-Entscheider weltweit aufzusteigen und zu einer Chance für Startups und neue Märkte zu werden. Was bereits seit vielen Jahren ununterbrochen fortschreitet und mit Kodak oder Blockbuster schon vor Jahren erste Opfer hervorgebracht hat, zeigt seit geraumer Zeit auch deutliche Auswirkungen in anderen Industrien und auf Unternehmen jeglicher Größe. Continue reading “Das Rechenzentrum: Die logistische Drehscheibe der Digitalisierung” »



Hyperkonvergente Systeme – Flexibler Standard in den Rechenzentren von morgen

Die Anforderungen an die IT wachsen minütlich. Der Mehrbedarf an Leistung erfordert häufig den Aus- und Umbau der bestehenden Infrastrukturen. Denn die derzeitigen IT-Landschaften der Unternehmen werden beim Betrieb neuer dynamischer Workloads schnell in die Knie gezwungen. Der ständige Ausbau der Architektur-Landschaft um neue „alte“ Komponenten erscheint vor diesem Hintergrund nicht sinnvoll. Denn dies würde lediglich neue Insellösungen und Silos schaffen. Mit einer weiter zunehmenden Verteilung einzelner Infrastruktur-Komponenten wie Server, Storage etc. wird Administration der Komponenten zur Herkulesaufgabe. Die IT-Abteilung droht die Übersicht zu verlieren. Webscale IT beziehungsweise Hyperkonvergente Infrastrukturen sind eine Antwort auf die Frage nach skalierbaren, flexiblen und leistungsfähigen Systemen. Inwieweit der Mittelstand von dieser neuen Technologie profitieren kann wird anhand der Ergebnisse einer (nicht-repräsentativen) Befragung des Systemhauses CEMA von etwa 100 IT-Entscheidern mittelständischer Unternehmen untersucht. Continue reading “Hyperkonvergente Systeme – Flexibler Standard in den Rechenzentren von morgen” »



Public Cloud Anbieter in Deutschland: Frankfurt ist die Hochburg der Cloud-Rechenzentren

Nachdem Deutschland von den amerikanischen Public Cloud Größen anfangs stiefmütterlich behandelt wurde, tummeln sich mittlerweile immer mehr Anbieter auf dem deutschen Markt. Vor allem Frankfurt hat sich hierbei eindeutig als das Mekka der Cloud-Rechenzentren herauskristallisiert. Continue reading “Public Cloud Anbieter in Deutschland: Frankfurt ist die Hochburg der Cloud-Rechenzentren” »



Webscale IT – Chance für CIOs und RZ-Leiter? (Teil 2)

Wie sehen die Rechenzentrumsinfrastrukturen der Zukunft aus? Diese Frage stellen sich derzeit viele CIOs. Denn der Charakter und die Anforderungen der Workloads an die RZ-Infrastruktur befinden sich im Wandel. E-Commerce, Analytics, mobile und Cloud Applications verlangen nach deutlich mehr Skalierbarkeit. Sind Webscale Systems die Patentlösung? Continue reading “Webscale IT – Chance für CIOs und RZ-Leiter? (Teil 2)” »



Webscale IT – Rechenzentrumsdesign im digitalen Zeitalter (Teil 1)

Wie sehen die Rechenzentrumsinfrastrukturen der Zukunft aus? Diese Frage stellen sich derzeit viele CIOs. Denn der Charakter und die Anforderungen der Workloads an die RZ-Infrastruktur befinden sich im Wandel. eCommerce, Analytics, mobile und Cloud Applications verlangen nach deutlich mehr Skalierbarkeit. Sind Webscale Systems die Patentlösung? Continue reading “Webscale IT – Rechenzentrumsdesign im digitalen Zeitalter (Teil 1)” »



Post-Merger-Europa: Lukrative Basis für Investitionen im Rechenzentrumsmarkt

Nach der Presse-Ankündigung des europäischen Mega-Mergers zwischen TeleCity Group und Interxion, veröffentlichen weitere internationale Unternehmen wie NTT und Interoute ihre Neuigkeiten und Ambitionen.

Aufgrund des aktuell schwachen Eurokurses bieten sich insbesondere für außereuropäische Investoren interessante Investitionsmöglichkeiten. Continue reading “Post-Merger-Europa: Lukrative Basis für Investitionen im Rechenzentrumsmarkt” »



Hallo Amazon Web Services. Willkommen in Deutschland!

Die Analysten haben es bereits von den Dächern gezwitschert.  Nun werden die bisher unbestätigten Vorabmeldungen endgültig zur Realität. Die Amazon Web Services (AWS) eröffnen mit einem Rechenzentrum in Deutschland eine neue Region (eu-central-1) speziell für den deutschen Markt und damit ihre 11. Region weltweit. Continue reading “Hallo Amazon Web Services. Willkommen in Deutschland!” »



Rechenzentrum in Deutschland: Salesforce setzt Amazon, Microsoft und Google mächtig unter Druck

Salesforce wird im Jahr 2015 einen Rechenzentrumsstandort in Deutschland eröffnen. Crisp Research hält den Schritt als den einzig logisch Richtigen, um deutsche Unternehmenskunden anzuziehen. Es bleibt allerdings die Frage offen, warum die anderen großen Cloud Player wie Amazon AWS, Microsoft und Google nicht schon lange in Deutschland gelandet sind! Continue reading “Rechenzentrum in Deutschland: Salesforce setzt Amazon, Microsoft und Google mächtig unter Druck” »



Microsoft baut wahrscheinlich ein Cloud Computing Rechenzentrum in Deutschland

Zunächst, ich habe diese Information von keinem Microsoft Mitarbeiter, wodurch es sich nicht um eine bestätigte Meldung handelt. Allerdings haben mir drei Personen unabhängig voneinander davon berichtet, dass Microsoft plant, mindestens ein Rechenzentrum für seine Cloud Services u.a. Windows Azure und Microsoft Office 365 in Deutschland zu bauen. Daher sollte man davon ausgehen, dass ein wenig Wahrheit hinter dieser Information steckt. Wenn Microsoft dies bestätigen würde, dürfte man nur sagen Chapeau Microsoft! Das ist genau der richtige Weg.

Es passt in die Strategie

Microsofts aktuelle Strategie lautet "CLOUD First", das ist kein Geheimnis und wurde mir von Microsofts Seite mehrfach bestätigt. Unter anderem aus dem Bereich Dynamics CRM, das durch die Cloud stetig wächst. Bei Microsoft gilt seit der Einführung von Dynamics CRM Online im Jahr 2011 "Cloud first!" und das scheint sich zu bewähren. Die Cloud Lösung hat bei den Kunden mittlerweile eine hohe Akzeptanz erreicht, wodurch Microsoft 30% mehr Kunden für Dynamics CRM gewinnen konnte. Dabei setzen 60% aller Neukunden auf die Cloud Lösung.

Ähnlich sieht es in vielen anderen Unternehmensbereichen aus. Genannt seien nur Windows Azure, das stetig ausgebaut wird, oder Office 365. Aus diesem Grund ist und wäre der Bau mindestens eines Rechenzentrums in Deutschland der nächste logische Schritt, um auch uns Deutschen hinsichtlich Vertrauen weiter entgegen zu kommen.

Rechenzentrum in Deutschland: Ein enormer Wettbewerbsvorteil

Microsoft versorgt den europäischen Markt derzeit über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das stößt bei vielen Deutschen, vornehmlich Datenschützern und mittelständischen Unternehmen, auf Unbehagen. Das Speichern von Daten außerhalb von Deutschland und ein Vertrag nach maximal europäischen Recht wird nicht gerne gesehen. Jedoch sollte und darf der Wirtschaftsstandort Deutschland nicht vernachlässigt werden. Für die US-amerikanischen Unternehmen mag Deutschland zwar ein kleines Land sein, aber die Wirtschaftskraft zu unterschätzen wäre fatal.

Trifft die Information also tatsächlich zu, dass Microsoft ein Cloud Rechenzentrum in Deutschland baut, wäre das ein enormer Wettbewerbsvorteil gegenüber anderen Anbietern wie den Amazon Web Services oder Google. Insbesondere im stark umkämpften Markt für Unternehmenskunden, in denen Amazon AWS und Google sich schwer tun und wo Microsoft bereits die beste Ausgangslage, auf Grund einer bestehenden breiten Kundenbasis, hat, würde Microsoft damit einen großen Schritt nach Vorne machen.

Darüber hinaus - sollte das Rechenzentrum gebaut werden, wovon ich strategisch gesehen sehr stark ausgehe, werden Amazon und Google nicht mehr drum herum kommen, jeweils ein eigenes Rechenzentrum in Deutschland zu bauen. Wenn auch beide und insbesondere Amazon technologisch weiterhin die Vorreiter im Cloud Computing Markt sind, ist der Standortvorteil mit einem Rechenzentrum in Deutschland nicht zu vernachlässigen, um aktiv damit zu beginnen, die Bedenken den deutschen Unternehmen zu nehmen.

Denn, Cloud Computing ist die Zukunft! Es müssen nur die rechtlichen und datenschutztechnischen Themen dem jeweiligen Länderniveau angepasst und die Bedürfnisse der Kunden berücksichtigt werden. Technologien und Services dürfen und müssen sogar standardisiert werden! Aber Verträge und organisatorische Themen gehören auf Augenhöhe geführt.



Facebook erweitert sein eigenes Edge Network

Facebook erweitert sein eigenes Edge Network, um damit das Ausliefern der Photos zu beschleunigen. Das erzählte Facebook Vice President Frank Frankovsky auf der GigaOM Structure 2012 während einer Diskussion zu den Absichten von Facebook die Skalierbarkeit seiner Infrastruktur zu erhöhen. Dabei will Facebook nicht seinen CDN Partner (Content Delivery Network) kündigen, sondern lediglich eigene Server in die POPs (Point of Presence) von ISPs stellen, um damit die Inhalte an seine weltweit verteilten Nutzer schneller auszuliefern.

Facebook macht derzeit weniger als 2 Prozent des gesamten Internetverkehrs aus. Dennoch würde es sich laut Frankovsky bereits nur wegen der Masse an Photos, die sich auf Facebook befinden, lohnen über ein eigenes CDN nachzudenken. Hinzu kommen zukünftige Services.

Open Compute Project treibt Innovation

Frankovsky erzählte darüber hinaus, wie das Open Compute Project Facebook dabei hilft den Betrieb zu optimieren. So benötigt Facebook gerade mal einen Systemadministrator im Rechenzentrum um 10.000 Server(!) zu verwalten. Er äußerte sich ebenfalls zu Plänen die Server neu zu entwerfen, um bei einer höheren Dichte mehr Komponenten unterzubringen und die Racks modularerer zu konfigurieren.

Er setzt sich zudem für Innovation in mehreren Bereichen ein, einschließlich wie man ein Rechenzentrum mit maximaler Kapazität durch die intelligente Verteilung von Workloads betreibt.

Facebook VP Frank Frankovsky auf der GigaOM Structure 2012


Bildquelle: http://mashable.com



openQRM gibt erste Informationen zur neuen Version 5.0 bekannt

Lange haben wir von den Kölner Jungs um Projekt Manager Matt Rechenburg und ihrer Cloud- und Automatisierungssoftware openQRM nichts mehr gehört. (Immer diese NDAs mit denen ich geknebelt werde...) Heute gab es dann aber ein erstes Lebenszeichen. Wie Matt auf dem openQRM Blog schreibt, wird openQRM 5.0 voraussichtlich am 01. August 2012 erscheinen und ein echtes Mayor Release werden. Neben der vollständigen Überarbeitung der Benutzeroberfläche, soll sich die User-Experience erheblich verbessern.

openQRM Projekt Manager Matt Rechenburg

Neben dem Tausch der Framestruktur gegen einen vollständig objektorientieren Model-View-Controller (MVC) Ansatz, bietet das MVC-Konzept nun ebenfalls den Zugriff über eine Restful API sowie die Möglichkeit der Nutzung unterschiedlicher Landessprachen. Zunächst wurden nur Englisch und Deutsch übersetzt. Weitere Sprachen sind aber bereits in Arbeit. Weiterhin wurde das openQRM Cloud Portal vollständig überarbeitet und wird in sechs unterschiedlichen Sprachen (EN/DE/ES/NL/FR/IT) verfügbar sein. Im Backend wird in Zukunft ebenfalls die Postgres Datenbank unterstützt. Aktueller Standard ist MySQL.

"Auf Grund dieser großen Überarbeitung von openQRM mussten wir jedes openQRM Plugin einzeln anpassen. Man kann sich vorstellen, dass dies viel Entwicklungszeit gekostet hat und weiterhin kosten wird, um sicherzustellen, für die Nutzer die beste openQRM Erfahrung aller Zeiten zu entwickeln.", so Matt.

Aktuell arbeitet das Team an der Überarbeitung der letzten Plugins. Nachdem alles fertiggestellt, ist wird der Stand des Programmcodes eingefroren, damit die Q&A Phase mit der Community starten kann.

Das openQRM 5.0 Release wird für den 01. August 2012 erwartet und wird, wie bereits die Version 4.9, von der openQRM Enterprise GmbH gesponsert.



IPsoft und wusys kooperieren – Datenhaltung in deutschem Cloud Rechenzentrum möglich

Mit einer weitreichenden Kooperation wollen der Managed Services Provider IPsoft und der Anbieter von Cloud Lösungen wusys gemeinsam verstärkt den Mittelstand penetrieren und kostengünstige und flexible Cloud Services sowie eine garantierte Datenhaltung in Deutschland bieten.

Das Dienstleistungsangebot von IPsoft basiert auf Expertensystem-gesteuerten Automatisierungstechnologien, die zu signifikanten Effizienzsteigerungen und Kostensenkungen in der IT beitragen können. Zentraler Lösungsansatz des Unternehmens ist, durch wissensbasierte Systeme den Anteil der sich täglich wiederholenden IT-Routinetätigkeiten zu reduzieren und damit Freiräume für strategische Aufgaben und Innovationen zu schaffen.

Das Frankfurter Unternehmen wusys ist ein Anbieter branchenunabhängiger IT-Dienstleistungen. Das Portfolio reicht von Hosting-Paketen über Messaging-Lösungen bis hin zu Cloud Services. Für den ausfallsicheren Betrieb der Lösungen betreibt wusys mehrere Hochsicherheitsrechenzentren am Standort Frankfurt.

Im Rahmen der neuen Kooperation werden die beiden Unternehmen nun verstärkt den Mittelstand mit Cloud-Angeboten penetrieren. Mit Leistungen, die bedarfsbasierend bereitgestellt und verbrauchsbasierend abgerechnet werden.

Cloud Services werden gerade von Mittelständlern im Hinblick auf die Themen Datensicherheit und -schutz oft kritisch hinterfragt. Auch hier soll das neue IPsoft- und wusys-Angebot vollständige Transparenz schaffen. Zum einen wird eine Datenhaltung in Deutschland garantiert und zum anderen wird durch den IPsoft-Lösungsansatz einer weitgehenden Automatisierung von IT-Aufgaben sichergestellt, dass nur sehr wenige Provider-Mitarbeiter überhaupt Zugriff auf Kundenapplikationen oder -daten erhalten und der Kunde jederzeit volle Transparenz über den Status seines IT-Betriebs in Echtzeit erhält.


Bildquelle: http://www.konstantintrade.com



Microsoft Global Foundation Services: Ein wenig Transparenz gefällig?

Cloud Computing Anbieter machen ein großes Geheimnis um ihre Rechenzentren. Google und Amazon bspw. geben nur wenige Informationen bzgl. der Standorte und weiterer Informationen bekannt. Auch ein Besuch der Einrichtungen ist nicht möglich. Der Grund sind hohe Sicherheitsvorkehrungen, um den Datenschutz und weiteren Anforderungen gerecht zu werden.

Das Kerngeschäft muss geschützt werden

Hin und wieder werden Videos von den Rechenzentren und auch aus dem Inneren veröffentlicht.

http://www.youtube.com/watch?v=zRwPSFpLX8I

http://www.youtube.com/watch?v=1SCZzgfdTBo

Zudem stellt Google auf einer Webseite Informationen zu den Rechenzentren und deren Locations zur Verfügung. Die Geheimniskrämerei ist irgendwo auch berechtigt, die Rechenzentren sind nun einmal ein Teil des Kerngeschäfts und Coca Cola verrät schließlich auch nicht seine Rezeptur. Jedoch schürt dieses Verhalten Misstrauen, insbesondere bei deutschen Unternehmen und den hiesigen Datenschutzbehörden. Die möchten nämlich mehr sehen und am besten Mal einen Blick hineinwerfen.

Microsoft möchte mehr Transparenz schaffen

Microsoft stellt sich in diesem Bereich etwas anders auf. So sagte mir Florian Müller, Produkt Manager Microsoft Office 365, in einem Gespräch, dass Microsoft seine Kunden und Partner gerne die Rechenzentren besuchen lässt, damit sich diese einen Überblick verschaffen können. Transparenz sei im Cloud Computing von besonderer Bedeutung und Microsoft ist bestrebt, trotz hoher Sicherheitsvorkehrungen, den Nutzern seiner Cloud Services so offen wie möglich gegenüber zu stehen.

Neben diesen Aktivitäten hat Microsoft mit seinen Global Foundation Services eine Webseite mit weiteren Informationen veröffentlicht.

Global Foundation Services

Die Global Foundation Services (GFS) sind zunächst nicht nur einfach eine Webseite. Es handelt sich um einen Geschäftsbereich von Microsoft, der für den Betrieb hinter den Cloud Services zuständig ist.

GFS stellt die Kern Infrastruktur und die grundlegenden Technologien für Microsofts über 200 Cloud und Web Services wie Bing.com, Microsoft.com, Microsoft Developer Network, Microsoft Dynamics CRM, Microsoft Environment, Microsoft Server & Cloud Platform, Microsoft Strategy Software & Services, Microsoft TechNet Blog, Microsoft Trustworthy Computing, Office 365, Office 365 Trust Center, Windows Azure, Windows Azure Trust Center und Windows Intune bereit.

Die Webseite GlobalFoundationServices.com bietet dazu viele Informationen zum Thema Rechenzentrum und was Microsoft unternimmt, um den Betrieb und die Sicherheit zu gewährleisten. Was allerdings fehlt sind Informationen über die Standorte der jeweiligen Rechenzentren.


Bildquellen: isource.com, globalfoundationservices.com



Equinix baut neues Rechenzentrum in der Schweiz

Equinix plant den Bau seines fünften International Business Exchange Rechenzentrums in Zürich (ZH5). Zudem wird das Unternehmen sein Genfer Rechenzentrum GV2 erweitern. Diese Aktivitäten resultieren aus dem anhaltenden Kundenwachstum sowie der stetig steigenden Nachfrage nach sicheren Rechenzentren mit hoher Netzwerkdichte in der Schweiz. Das Kapital für die Expansion ist bereits im Unternehmensplan von Equinix für 2012 erfasst.

ZH5 wird in einer Entfernung von 6,5 Kilometern zum Stadtzentrum Zürich entstehen. Die Fertigstellung der Phase 1 dieses Rechenzentrums, das den Gold-LEED-Standards entsprechen wird, ist für das vierte Quartal 2012 geplant. Vorgesehen in ZH5 ist ein für Kunden nutzbarer Raum von 6’670 Quadratmetern, was rund 3’000 Cabinets entspricht (420 Cabinets in Phase 1). Die Verbindung zu den anderen Rechenzentren von Equinix am Standort Zürich wird über eine Glasfaser-Ringleitung (Campus) realisiert. Damit steht für Kunden die Option zur direkten Anbindung über mehr als 75 Carrier zur Verfügung.

In Genf wird Equinix sein bestehendes Rechenzentrum GV2 um eine für Kunden nutzbare Fläche von 720 Quadratmetern erweitern, nachdem die 835 Quadratmeter Nutzfläche der ersten Ausbaustufe bereits nach weniger als zwei Jahren ausgebucht sein werden. Dieses Rechenzentrum ist mit mehr als 40 Netzwerkanbietern einer der Standorte mit der höchsten Netzwerkdichte in der französischsprachigen Schweiz. GV2 ist zertifiziert nach den international etablierten Standards ISO 9001 für gesicherte Zugangsverfahren sowie ISO 27001 für Informationssicherheits-Managementsysteme.

In allen Rechenzentren von Equinix steht den Kunden umfangreiche Ecosystems aus Netzwerkbetreibern und Service-Anbietern zur Verfügung, die über Platform Equinix die Verbindung zu mehr als 4’000 potenziellen Partnern, Interessenten und Service-Providern bietet. Equinix verzeichnet ein stetiges Wachstum, resultierend aus der kontinuierlich steigenden Nachfrage in den Bereichen Finanzdienstleistungen, Cloud-Services und Enterprises. Viele namhafte Unternehmen, darunter SIX Swiss Exchange, haben bereits in den Standort Zürich investiert, da die Schweiz nach wie vor als eines der weltweit größten Finanzzentren gilt und eine zentrale Rolle für den gesamteuropäischen Markt spielt.



Weltweite Cloud Computing Nutzung: Es variiert je nach Region

In Nordamerika haben das Hosting (42 Prozent) und Cloud IaaS den größten Zuwachs an Kunden zu verzeichnen. Während der Rest der Welt von Rechenzentrums-Outsourcing (80 Prozent) dominiert wird, das berichtet Gartner.

Je nachdem wo sie auf der Welt ansässig sind, kaufen und nutzen Unternehmen Rechenzentrums-bezogene und Cloud-basierte Services sehr unterschiedlich. Das zeigt ein Bericht, den Gartner kürzlich veröffentlicht hat.

Je nach Region werden Infrastructure Services weltweit unterschiedlich genutzt.

Es steht außer Frage, dass neue Dienste auf Basis von Infrastructure-as-a-Service (IaaS) oder Platform-as-a-Service (PaaS) überall stetig wachsen, jedoch haben die weltweiten Regionen unterschiedliche Präferenzen, was sie lieber nutzen. So liegt es laut Gartner in erster Linie bei den Einkäufer in Unternehmen und Organisationen, zwischen dem Hosting und Rechenzentrums-Outsourcing abzuwägen.

Nordamerika hat das größte Wachstum an Cloud Nutzern

Der Markt für Rechenzentrums-Outsourcing in Nordamerika belief sich im Jahr 2011 auf 33 Milliarden Dollar, während Web-Hosting und Co-Location zusammen 23 Milliarden Dollar ausmachten. Der US-Markt hat mit 60% das größte Wachstum bei der Adaption von Public Cloud Services. Der Markt ist dabei sowohl organisch als auch durch neue Angebote, wie z.B. Storage-as-a-Service, gewachsen.

Europa liegt bei der Cloud im Mittelfeld

Der Markt für Rechenzentrums-Outsourcing in Europa belief sich 2011 auf 38 Milliarden Dollar, während das Web-Hosting und Co-Location mit 8,6 Milliarden Dollar hinter Nordamerika zurückblieb. Die Adoption von Public Cloud Services belief sich auf 23 Prozent.

Der asiatische Markt ist noch sehr klein

Auf dem asiatischen/ pazifischen Markt gibt es nicht annähernd so viel Aktivität wie in Nordamerika und Europa. Das Rechenzentrums-Outsourcing belief sich 2011 in der Region auf 10 Milliarden Dollar, während das Web-Hosting und Co-Location nur 2,5 Milliarden Dollar ausmachten. Die Nutzung von Public Cloud Services in Japan lag bei 9,8 Prozent und in den restlichen Teilen der Region bei 3 Prozent.

Weitere Informationen sind im Gartner Bericht "Regional Differences in the Move Toward the Cloud, 2012." verfügbar.


Bildquelle: http://www.colocationamerica.com



Equinix entwickelt Marktplatz für Rechenzentrumsdienstleistungen

Der Rechenzentrumsbetreiber Equinix hat einen Online-Marktplatz ausgerollt, auf dem seine Kunden untereinander eigene Services wie Netzwerkkapazitäten, Managed Hosting oder andere Services kaufen bzw. verkaufen können.

Das Model soll Equinix Kunden dabei helfen zu erkennen, wer welche Services in genau dem Rechenzentrum anbietet, in dem man selbst tätig ist. Equinix betreibt weltweit 99 Rechenzentren, etwa die Hälfte davon in Nordamerika und hat nach eigener Aussage über 4.000 Kunden. Die Kunden würden bereits gegenseitig Services - in erster Linie Netzwerk-Services - voneinander einkaufen, jedoch konnten sie bisher nicht alle Angebote sehen.

Der Online-Marktplatz ist wie ein digitales Schaufenster - eine Art Amazon.de für Rechenzentrumsdienstleistungen - auf dem Equinix Kunden ihre Services präsentieren können und exakt gezeigt wird, in welchem Rechenzentrum dieser Service von einem andere Equinix Kunden eingekauft werden kann.

Der Equinix Marketplace soll heute online gehen und zeigt die Services nach Art und geographischer Lage an. Kunden haben darüber hinaus die Möglichkeit, ihren bevorzugten Anbieter wie Verizon oder British Telecom zu wählen, um zu sehen wo dieser agiert.

Neben Netzwerk-und Managed Hosting Services enthält der Marktplatz ebenfalls Cloud-Dienste wie Video-Streaming und On-Demand-Computing.



T-Systems geht in die Cloud

Mit einer kostenlosen Testphase für bereits vorhandene Unternehmenskunden startet nun auch T-Systems als ein großes deutsches Unternehmen mit einem Infrastructure as a Service Angebot in die Cloud. Die Pilotphase beginnt noch im November 2010 und wird im Februar 2011 enden.

Mit diesem Angebot wird T-Systems in direkter Konkurrenz zu den Amazon Web Services stehen. Das könnte Erfolg versprechend sein, wird alleine die finanzielle Kraft von T-Systems betrachtet.

T-Systems stützt sich vor allem auf die oft diskutierten Bereiche Zugriffskontrolle, Datenschutz und Datensicherheit, sowie die Service Level Agreements (SLAs). Alles im Hinblick auf eine höchstmögliche Skalierbarkeit.

Alle Rechenzentren und damit sämtliche Daten des Kunden werden sich in Deutschland befinden und nach der ISO Sicherheitsnorm 27001 zertifiziert und können darüber hinaus ebenfalls von den Kunden selbst auditiert werden.



UEC: Zusammenstellen von Images für Ubuntu 9.10

Dieser Artikel beschreibt das Vorgehen (Bundling) für das Erstellen und die Registrierung von VM Images mit dem UEC Cloud Controller für Ubuntu 9.10. Dazu benötigen wir ein Image, dass von den Daily Builds heruntergeladen werden kann, verknüpfen alles miteinander und laden es in unsere Ubuntu Cloud.

1. Um den Vorgang von der Kommandozeile aus zu starten nutzen wird die folgenden Befehle. Hierbei wird automatisch ein UEC Image heruntergeladen.

TIMESTAMP=$(date +%Y%m%d%H%M%S)
RELEASE=karmic
ARCH=amd64 # Or this might be i386
[ $ARCH = "amd64" ] && IARCH=x86_64 || IARCH=i386
UEC_IMG=$RELEASE-server-uec-$ARCH
URL=http://uec-images.ubuntu.com/$RELEASE/current/
[ ! -e $UEC_IMG.tar.gz ] && wget $URL/$UEC_IMG.tar.gz # This may take a bit, depending on your connectivity

2. Als nächstes muss alles verpackt, hochgeladen und registriert werden. In dem Package cloud-utils befindet sich das Tool uec-publish-tarball. Mit diesem können die oben genannten Aktionen in einem Schritt durchgeführt werden. Weiterhin ist in den cloud-utils das Tool uec-publish-image vorhanden. Mit diesem kann direkt mit einem ungepackten Image gearbeitet werden.

uec-publish-tarball ${UEC_IMG}.tar.gz "${RELEASE}-${TIMESTAMP}" "${ARCH}"

Diese Schritte sind nur dann notwendig, wenn nicht das Tool uec-publish-tarball verwendet wird!

1. Entpacken des UEC Image Tarball

[ ! -e $UEC_IMG.img ] && tar -S -xzf $UEC_IMG.tar.gz

2. Zusammenstellen des Kernels

BUCKET_KERNEL="k-$TIMESTAMP"
UEC_KERNEL=$UEC_IMG-vmlinuz-virtual
euca-bundle-image -i $UEC_KERNEL -r $IARCH --kernel true
euca-upload-bundle -b $BUCKET_KERNEL -m /tmp/$UEC_KERNEL.manifest.xml
EKI=$(euca-register $BUCKET_KERNEL/$UEC_KERNEL.manifest.xml | grep "^IMAGE" | awk '{print $2}') && echo $EKI

3. Zusammenstellen der initrd (Wird nur benötigt, wenn keine Ramdisk vorhanden ist)

BUCKET_INITRD="r-$TIMESTAMP"
UEC_INITRD=$UEC_IMG-initrd-virtual
euca-bundle-image -i $UEC_INITRD -r $IARCH --ramdisk true
euca-upload-bundle -b $BUCKET_INITRD -m /tmp/$UEC_INITRD.manifest.xml
ERI=$(euca-register $BUCKET_INITRD/$UEC_INITRD.manifest.xml | grep "^IMAGE" | awk '{print $2}') && echo $ERI

4. Zusammenstellen des Images

BUCKET_IMAGE="i-$TIMESTAMP"
UEC_IMG=$RELEASE-server-uec-$ARCH
euca-bundle-image -i $UEC_IMG.img -r $IARCH --kernel $EKI ${ERI:+--ramdisk ${ERI}} # This will take a long time (~10m)
euca-upload-bundle -b $BUCKET_IMAGE -m /tmp/$UEC_IMG.img.manifest.xml
EMI=$(euca-register $BUCKET_IMAGE/$UEC_IMG.img.manifest.xml | grep "^IMAGE" | awk '{print $2}') && echo $EMI

3. Damit ist der Kernel und das Image in unsere Ubuntu Cloud (Eucalyptus) hochgeladen worden und kann nun genutzt werden.

euca-describe-images

Wir sollten einen registrierten Kernel sowie ein Image sehen, die als "available" markiert sind.

Mit dem anschließenden Befehl können wir das überprüfen.

Quelle