Tag: Big Data


BigQuery: Big Data Analyse mit Google

Google BigQuery, ein Cloud basierter Service für die Analyse sehr großer Datenmengen, kann nach einer geschlossenen Testphase mittlerweile von allen genutzt werden.

BigQuery ist ein Online Analytical Processing (OLAP) System, um Datensätze mit Milliarden von Zeilen und Terabytes an Daten zu verarbeiten und zielt auf Unternehmen und Entwickler in Unternehmen ab, die mit riesigen Datenmengen (Big Data) balancieren müssen.

BigQuery kann auf unterschiedliche Arten genutzt werden. Entweder mit einer Web-Oberfläche, einer REST API oder via Kommandozeile. Die Daten können zur Verarbeitung per CSV Format auf die Google Server hochgeladen werden.

Die Preise orientieren sich an der Menge der gespeicherten Daten und der Anzahl der Anfragen. Für den Speicherplatz berechnet Google 0,12 Dollar pro GB pro Monat bis zu einer maximalen Speichermenge von 2TB. Für die Anfragen werden 0,035 Dollar pro verarbeitetes GB berechnet. Die Limits liegen hier bei 1000 Anfragen pro Tag sowie 20TB zu verarbeitende Daten pro Tag. Für die ersten 100GB an verarbeitenden Daten pro Monat entstehen keine Kosten. Weitere Informationen stehen hier.

BigQuery ist nicht für die OLTP (Online Transaction Processing) Verarbeitung geeignet. Genauso wenig können Änderungen an den auf BigQuery gespeicherten Daten vorgenommen werden. Unternehmen, die eher eine klassische relationale Datenbank für OLTP benötigen, empfiehlt Google seine Cloud basierte Datenbank Google Cloud SQL, welche die volle SQL-Syntax unterstützt.

Mit seiner Portfolio Erweiterung um BigQuery präsentiert Google einen weiteren Service in dem mittlerweile stark umkämpften Markt von Cloud basierten Produkten für Unternehmen, in dem sich bereits namhafte Unternehmen wie Amazon, Oracle, IBM, Microsoft und viele weitere tummeln.



SAP – Der Cloud-Antrieb aus Deutschland?!

Ich war gestern zur SAPPHIRENOW @ Walldorf, einem deutschen Parallel Event von SAP zur großen SAPPHIRENOW in Orlando, eingeladen. SAP kündigte hier seine zukünftige Cloud Strategie an und stellte in diesem Zusammenhang mehrere neue Services vor. Was ich jedoch viel spannender finde ist, ob SAP deutsche Unternehmen dazu bewegen kann, endlich die Skepsis gegenüber der Cloud abzulegen. Neben der Telekom bzw. T-Systems, die allerdings überwiegend im Infrastructure-as-a-Services Bereich tätig sind, sehe ich kein Unternehmen, dass die Marktmacht und den Einfluss besitzt, um die deutschen Unternehmen mitzureißen und damit für den Durchbruch der Cloud in Deutschland zu sorgen.

Den Cloud Gedanken hat sich SAP extern durch die Akquisiton von SuccessFactors bzw. dessen Gründer und CEO Lars Dalgaard einverleibt. Der Däne wurde nach der Übernahme als Verantwortlicher für den SAP Cloud Bereich zur treibenden Kraft hinter den SAP Cloud Services. Und diesen Job macht er augenscheinlich gut. In seiner Key Note, während der er die neue Cloud Strategie von SAP vorstellte, präsentierte Dalgaard sich als explosiver Unternehmer, der seine Startup Gene bei weitem nicht abgelegt hat. Im Gegenteil, mit seiner Motivation bringt er frischen Wind in den etablierten Konzern aus Walldorf. Es bleibt für Dalgaard und vor allem für SAP zu hoffen, dass er seine Cloud Vision verwirklichen darf und das er mit seinem Startup Charakter auf offene Türen hoffen darf. Denn SAP ist weit weg von dem, was man logischerweise als ein Startup bezeichnen kann.

Die SAP Cloud Strategie

Das SAP Cloud Portfolio konzentriert sich auf vier Bereiche, die sogenannten Line-of-Business-Lösungen, welche die Verwaltung von Mitarbeiter-, Finanz-, Kunden- und Lieferantenprozesse fokussieren und sich nahtlos in Enterprise-Resource-Planning Software einbinden lassen.

Insbesondere der bereits oben genannte Lars Dalgaard hat einen starken Einfluss auf die Cloud Neuausrichtung von SAP und hat sich und seinen Mitarbeitern das Ziel gesetzt, kreative und innovative Lösungen auf den Markt zu bringen, die mit ihrer Benutzeroberfläche begeistern sollen. Dabei will SAP die On-Premise Lösungen nicht sterben lassen, sondern die verfügbaren Inhalte in den Cloud Lösungen mit der On-Premise Unternehmenssoftware verzahnen, was SAP Co-CEO Jim Hagemann Snabe während der Pressekonferenz noch einmal herausstellte. In Zukunft wird zwar alles in der Cloud landen, jedoch wird hier zwischen der Private Cloud und den Cloud Lösungen die von SAP gehostet werden unterschieden.

Weiterhin wird SAP seine mandantenfähigen Cloud Services zerlegen und als einzeln verfügbare Lösungen anbieten, um den Kunden es zu ermöglichen, je nach den eigenen Anforderungen und nach einem eigenen Zeitplan die Anwendungen einzuführen. Trotz dieser Zerlegung wird SAP mit SAP Business ByDesign und SAP Business One OnDemand weiterhin vollständig integrierte Suites für die Cloud anbieten.

SAP NetWeaver Cloud: Platform-as-a-Service von SAP

Eine weitere Neuigkeit in der SAP Cloud Strategie ist ein eigenes Platform-as-a-Service-Angebot, das als SAP NetWeaver Cloud angekündigt wurde. Basierend auf SAP HANA stellt der Services Entwicklern eine Umgebung mit Anwendungsentwicklungs- und Laufzeitfunktionalitäten zur Verfügung. Zudem wurde eine Partnerschaft mit weiteren Drittanbietern von PaaS-Angeboten vorgestellt, darunter VMware Cloud Foundry. Das Ziel soll es sein, Kunden die Möglichkeit zu bieten, externe PaaS Lösungen zusammen mit den Plattform-Services von SAP NetWeaver Cloud zu nutzen, um damit ihre SAP-Lösungen zu erweitern.

SAP öffnet sich nach Außen

Um seinen Kunden die größtmögliche Freiheiten beim Umgang mit den Cloud Produkten zu bieten, öffnet sich SAP nach Außen. Mit einem Integration-as-a-Service Ansatz soll damit die Verknüpfung hybrider-IT-Landschaften, also die Kombination von Cloud und On-Premise Implementierungen, unterstützt werden. Neben Prozessintegration beinhaltet das Integrationsangebot weiterhin Daten-Services, um lose Cloud-Lösungen mit anderen SAP-Anwendungen zu verbinden, unabhängig davon, ob diese sich in der Cloud oder On-Premise befinden. Dazu plant SAP, eigene Cloud-basierte Integrationstechnologien anzubieten und hat strategische Kooperationen mit CloudFoundry, Dell Boomi, IBM Cast Iron und Mulesoft bekanntgegeben.

SAP konzentriert sich auf Cloud, Mobile, Social und Big Data

Neben der Cloud stellt sich SAP ebenfalls in den Bereichen Mobile, Social und Big Data auf. Allerdings nimmt die Cloud hier eine zentrale Rolle ein, da die Kommunikation, Kollaboration und der Zugriff auf Daten über sie effektiver abgewickelt werden kann. Mit integrierte Social-Collaboration Tools will SAP seinen Kunden zudem helfen, ihre Geschäftsziele schneller im Team zu erreichen, unabhängig davon ob es um die Zusammenarbeit mit global verteilten Kollegen oder mit dem Büro nebenan geht. Eine zentrale Komponente nimmt SAP HANA ein. Über die Plattform, die gleichzeitig als SAPs Technologie für die Verwaltung, Analyse und Bereitstellung großer Datenmengen (Big Data) gilt, erhalten Nutzer die Informationen, die sie benötigen, um schnelle und angemessene Entscheidungen zu treffen.

SAP: Treiber der Cloud in Deutschland?

Der größte deutsche Softwarekonzern hat die Cloud nun auch für sich entdeckt und sich das Ziel gesteckt, bis 2015 der führende Cloud-Anbieter weltweit zu werden. Zudem soll dieser Geschäftsbereich einen Umsatz von zwei Milliarden Euro erzielen.

Die spannende Frage bleibt jedoch, lassen sich auch die der Cloud eher skeptisch gegenüber stehenden deutschen Unternehmen, insbesondere die Mittelständler, von SAP in die Cloud mitreißen? Gute Gründe würde es geben. SAP verfügt in Deutschland über einen hohen Marktanteil und eine breite Kundenbasis. Insbesondere beim viel diskutierten Thema Datenschutz können die Walldorfer auftrumpfen. Die Cloud Lösungen SAP Business ByDesign und SAP Business One OnDemand werden in Rechenzentren in Deutschland, genauer St. Leon-Rot, betrieben, SuccessFactors in Amsterdam, also ebenfalls im europäischen Rechtsraum. SAP nennt seine Cloud auch "Controlled Cloud", da nach eigenen Angaben, nicht einmal die eigenen Mitarbeiter Zugriff auf die Daten der Kunden hätten.

Ein weiterer Faktor kann das Angebot von einzeln zu beziehenden Cloud Services sein, die dennoch vollständig ineinander integriert werden können. Das Anbieten von einzelnen Services, wird auch "Building Blocks" genannt und zeichnet eine Vielzahl von Cloud Services auf dem Markt aus. Ob SAP Bestandskunden dieses dankbar annehmen werden, wird sich zeigen, allerdings würde der Wechsel in dem ein oder anderen Fall sicherlich Sinn machen, denn warum soll man für Dinge bezahlen, die eigentlich nicht benötigt werden. Zudem erhalten damit auch noch nicht SAP-Kunden die Chance, einzelne Services für ihre Anforderungen zu selektieren, ohne ein umfangreiches Softwarepaket zu kaufen.


Bildquelle: http://www.wiwo.de



Cloudera und IBM kooperieren im Big Data Bereich

IBM und Hadoop Pionier Cloudera werden im zukunftsträchtigen Big Data Markt strategisch kooperieren. Für IBM handelt es sich eher um eine weitere Partnerschaft. Cloudera hingegen könnte das weiter beflügeln. Werden die Hadoop Profis damit sogar zum Top-Influencer für Big Data?

Cloudera ist die wichtigste Kraft hinter dem Apache Hadoop Projekt und verfügt mit seiner “Cloudera Distribution including Apache Hadoop” (CDH) über die am meisten eingesetzte Hadoop Distribution weltweit.

Das Interessante an dieser Kooperation ist, das IBM bereits über eine eigene Hadoop Distribution verfügt. Warum also diese zusätzliche Partnerschaft. Der wahrscheinlichste Grund ist die aktuelle Marktsituation, in der Clouderas CDH dominiert. Der eigentliche Gewinner dieser Partnerschaft ist jedoch Cloudera, für die sich mit einem so starken Partner wie IBM viele weitere Türen öffnen werden und der Kundenstamm demnächst rasant ansteigen wird.


Bildquelle: Wired



Fujitsu steigt in den Markt für Big Data ein

Mit einer Reihe von Tools wird Fujitsu in den attraktiven Markt für Big Data Lösungen einsteigen. Das hat das Unternehmen zu Beginn dieser Woche mitgeteilt. Die Japaner wollen im Laufe des kommenden Jahres zudem dedizierte Big Data Server auf den Markt bringen und spezielle Hardware für die neuen Softwarepakete entwickeln.

Mit einer neuen Serversoftware hat Fujitsu eine Lösung angekündigt, die für den Umgang mit großen Datenmengen und unterschiedlichen Dateisystemen entwickelt wurde. Zudem soll diese in der Lage sein, schnell große Datenmengen zu scannen und diese ebenfalls sehr schnell aus Datenbanken lesen und darin speichern kann. Ende März wird darüber hinaus Hardware auf dem Markt erhältlich sein, die speziell auf die Software abgestimmt ist.

Fujitsu ist zwar ein Neuling im Big Data Markt, erwartet in diesem Bereich aber einen Jahresumsatz von 100 Milliarden ¥, umgerechnet 1,23 Milliarden US-Dollar.

Die Big Data Suite beinhaltet mit dem "Interstage Big Data Parallel Processing Server" eine Lösung, bei der es sich um eine Erweiterung der Apache Hadoop Plattform handelt und die für den Aufbau von verteilten Dateisystemen genutzt wird. Nach Angaben von Fujitsu sollen die Verbesserungen die Software fünfmal schneller machen als den originalen Hadoop. Die Lösung wird zum Ende diesen Monats verfügbar sein und pro Prozessor abgerechnet. Die Kosten dafür starten bei 600.000 ¥.

Zudem wird Fujitsu demnächst seinen "Complex Event Processing Server" veröffentlichen, der in der Lage ist, schnell große Datenmengen mit einem Satz von Masterdaten zu vergleichen. Der Server kann bspw. für die Analyse großer Datenmengen eingesetzt werden. Die Abrechnung erfolgt hier ebenfalls pro Prozessor und startet bei 6.000.000 ¥.


Bildquelle: http://www.bigdatabytes.com



Amazon Web Services: König der Cloud?

Liegen die restlichen Cloud Anbieter den Amazon Web Services zu Füßen? Es scheint fast so. Zumindest setzt Amazon unbeeindruckt von den Grabenkämpfen zwischen den Open Source Clouds OpenStack und CloudStack seine Entwicklung fort und veröffentlicht fleißig immer weiter neue Cloud Services.

OpenStack vs. CloudStack - Amazon der lachende Dritte

Die Kuriosität der Auseinandersetzung zwischen OpenStack und CloudStack besteht insbesondere darin, dass ca. 95% aller IaaS Anbieter von dem Kampf um die Herrschaft um die Open Source Cloud direkt oder indirekt betroffen sind. Nur die Amazon Web Services nicht. Im Gegenteil, das Unternehmen aus Seattle profitiert sogar noch davon, indem es auf Grund seiner APIs EC2 und S3 immer wieder im Gespräch ist.

Und genau um diese APIs geht es im Kern. So gut wie jeder IaaS Anbieter wirbt mit der Kompatibilität zur Amazon Elastic Compute Cloud (Amazon EC2) und Amazon Simple Storage Service (Amazon S3). EC2 erlaubt das Starten und Verwalten von virtuellen Maschinen in der Amazon Cloud. S3 ist für das Speichern und Verwalten von Daten ebenfalls in der Amazon Cloud zuständig.

So ermöglicht es bspw. Terremark seinen Kunden die Daten aus der Private Cloud ggf. per Cloud Bursting in die Amazon Cloud auszulagern. Ein Blick auf mobile Apps für Android oder iOS zeigt eine Vielzahl von Anwendungen, mit denen die Amazon Cloud gesteuert werden kann oder die mit der Unterstützung der AWS APIs werben. Ubuntu springt ebenfalls auf den Zug auf und wird ab der Version 12.04 Funktionen bieten, um OpenStack Installationen mit den Amazon Web Services zu verbinden.

Ein Grund von Citrix, sich aus dem OpenStack Projekt zurückzuziehen, war die angeblich schlechte Unterstützung der Amazon APIs. Was unverständlich ist, da OpenStack von Beginn mit der Kompatibilität von EC2 und S3 wirbt.

Als ein weiterer Gewinner, im Schatten der Schlacht zwischen OpenStack und CloudStack, wird sich Eucalyptus herauskristallisieren. Die Kooperation der Open Source IaaS Software mit Amazon hat sowohl für Eucalyptus als auch Amazon nur Vorteile. Eucalyptus erhält Unterstützung direkt von der Quelle und kann besser als die anderen Open Source Clouds eine perfekte Integration zur Amazon Cloud bieten. Amazon hingegen kann das Hybrid Cloud Geschäft weiter ausbauen und ist somit bereits mit einem Bein in dem hart umkämpften Unternehmensmarkt. Zudem wird durch diese Kooperation eine erste Brücke zwischen den Private Cloud Installation auf Basis von Eucalyptus und der Public Cloud von Amazon geschaffen, um damit insbesondere das Big Data Geschäft auszubauen.

Ich möchte Amazon hiermit keinen Freifahrtsschein für den Thron in der Cloud ausstellen. Dennoch können einzig die wirklich Großen der Branche wie HP, IBM, T-Systems und Microsoft es sich erlauben nicht auf den Zug aufzuspringen und Kompatibilität zu den Amazon APIs bieten. Wobei auch HP bereits OpenStack für sich entdeckt hat.


Bildquelle: http://gigaom2.wordpress.com



GoGrid steigt in den Markt für Big Data Lösungen ein

Cloud Computing Anbieter GoGrid steigt in den Big Data Markt ein. Für einen begrenzten Zeitraum erhalten alle Kunden den Zugriff auf die neue Big Data Lösung. Dabei handelt es sich um eine hybride Lösung bestehend aus einer vorkonfigurierten Hardware und einer Cloudera Hadoop Implementierung inkl. Big Data Analytics Tools.

GoGrid steigt in den Markt für Big Data Lösungen ein

Die Big Data Lösung basiert auf einer hybriden Infrastruktur-Architektur, die aus einer Kombination von Cloud Computing Eigenschaften und Single-Tenant Infrastruktur-Komponenten besteht. Die Steuerung und Verwaltung erfolgt über das GoGrid Management Portal.

Die Lösung kostet 3.800 US-Dollar pro Monat und ermöglicht eine High-Performance Analyse von Daten, die innerhalb einer NoSQL Datenbank einer Hadoop Implementation gespeichert werden. Kunden die sich für ein Jahr an GoGrid binden möchten erhalten 20% Rabatt pro Monat auf das Angebot.

Die Lösung besteht aus einem Paket aus einer vorkonfigurierten Hardware (1x Compute Node und 3x Data Nodes) sowie Cloudera Hadoop. Die Single-Tenant Infrastruktur wurde dabei speziell für die Analyse von Big Data designed und entwickelt.



Red Hat Storage 2.0 Beta steht bereit

Ab sofort steht eine Betaversion von Red Hat Storage 2.0 bereit. Die reine Softwarelösung bietet Funktionen zur Vereinheitlichung von Datenspeicherung und Infrastrukturen, eine höhere Performance, eine bessere Verfügbarkeit und eine einfachere Verwaltung großer Datenvolumen.

Red Hat Storage 2.0 Beta steht bereit

Red Hat Storage 2.0 ermöglicht eine Zusammenführung von File Storage und Object Storage und ist mit Apache Hadoop kompatibel. Diese Funktionalität sorgt für einen schnelleren Datenzugriff und sie öffnet Hadoop-Implementierungen für datei- oder objektbasierte-Applikationen.

Zum Funktionsumfang der Red Hat Storage 2.0 gehören ein einheitlicher Zugriff auf Dateien und Objekte innerhalb eines zentralen Storage Pools, eine Storage Infrastruktur speziell für Big Data mit einer Apache Hadoop Unterstützung, eine Performance Optimierung auf Basis von NFSv3, Integrationsmöglichkeiten mit der Red Hat Enterprise Virtualization, einen Network Lock Manager (NLM) sowie u.a. proaktive Funktionen zur Selbstheilung, um damit die Zuverlässigkeit zu erhöhen.

Weitere Infos gibt es im Red Hat Blog.



Cisco, EMC und VMware bilden Ausbildungs-Initiative für Cloud Computing und Big Data

Wenn Cloud Computing in die Unternehmen einzieht, werden IT-Profis umdenken und ihre Kenntnisse und Fähigkeiten stetig erweitern müssen, um den Nutzen von Cloud Computing, Virtualisierung, Unified Networking und Big Data für das Unternehmen zu erkennen und anzuwenden. Vorbei sind die Zeiten sich großartig mit der Installation von Hard- und Software zu beschäftigen. Es ist dann an der Zeit, dem Unternehmen auf Basis dieser neuen Technologien und Paradigmen einen Wettbewerbsvorteil zu verschaffen.

Weiterbildung in Zeiten von Cloud Computing und Big Data ist für IT-Profis von besonderer Wichtigkeit!

Cisco, EMC und VMware werden in Zukunft in diesem Bereich kooperieren und haben eine Ausbildungs-Initiative gegründet, mit der sich IT-Profis im Bereich Rechenzentrum usw. weiterbilden sollen, um den neuen Job Anforderungen gerecht zu werden. Unternehmen werden mittelfristig auf konvergente Infrastrukturen umsteigen, auf Cloud Architekturen umstellen und sich mit der Verwaltung riesiger Datenmengen (Big Data) konfrontiert sehen. Darauf müssen Unternehmen als auch die Mitarbeiter reagieren.

Eine Frage besteht bspw. darin, wie man aus klassischen Rechenzentren virtuelle macht und auf dieser Basis anschließend Cloud-basierte Rechenzentren aufbaut. Als Systemadministrator, Datenbankadministrator oder Netzwerkadministrator muss man letztendlich verstehen, wie die einzelnen Technologien in einem Cloud Rechenzentrum zusammenspielen.

Die Ausbildungs-Initiative der drei Anbieter wird mit Ressourcen von VMware unterstützt und bietet Kursunterlagen und Zertifizierungen für Cloud Architekturen, Virtualisierung, Storage, Data Center Networking und Data Science. Die einzelnen Bereiche sind nach spezifischen Job Rollen wie Cloud Architekt, Systemadministrator, Backup und Recovery, Rechenzentrum Design und Data Scientist sortiert.

Jeder Kurs des Ausbildungsmodells hat einen vorgegeben Pfad und das Ziel, Experten auszubilden. Zum Beispiel muss ein Systemadministrator folgende Kurse belegen um zu bestehen:

  • Cloud Infrastructure und Services
  • VMware vSphere: Installieren, Konfigurieren, Verwalten
  • Cisco Data Center Unified Computing Implementation (DCUCI)

Für jemanden, der sich als Netzwerk Architekt im Rechenzentrum fortbilden möchte, benötigt die folgenden Kurse:

  • EMC Cloud Infrastructure and Services
  • Cisco Data Center Unified Fabric (DCUFD)
  • Configuring Cisco Nexus Data Center (CCNDC)

Die Kurse können entweder als ein Bundle oder einzeln absolviert werden. Die Kurse können im Frontalunterricht mit einem Kursleiter in einem Trainingszentrum, über Video oder mit einem Lehrer vor Ort beim Kunden belegt werden.

PS: Ein Blick auf die Kurse zeigt natürlich deutlich, dass man hier kein Generalist wird, sondern speziell auf die Technologien von Cisco, EMC und VMware geschult wird!


Bildquelle: http://www.competence-site.de



Sorgt die Telekom endlich für den Durchbruch des Cloud Computing in Deutschland?

Die Deutsche Telekom hat vom Tabakkonzern British American Tobacco einen Cloud Computing Auftrag über 160 Millionen Euro mit einer Laufzeit von sieben Jahren erhalten. Dabei geht es um die Abbildung und Verarbeitung der betriebswirtschaftlichen SAP Prozesse in der Cloud.

Die Deutsche Telekom geht steil in die Cloud

Die offensive der Deutschen Telekom im Cloud Computing ist kaum zu übersehen. Die CeBIT war nur ein Indikator für den Willen, in der Cloud etwas bewegen zu wollen. Hinzu kommt die Penetration des Endkundengeschäfts mit massiver Print- und Fernsehwerbung für die Telekom Cloud. Kann die Deutsche Telekom damit aber auch endlich für den Durchbruch der Cloud in Deutschland sorgen?

Neben Virtual Private Cloud Services für Unternehmenskunden und der Telekom Cloud für das Privatsegment hat die Telekom im Rahmen der CeBIT angekündigt, ab Sommer 2012 einen Cloud Services Marktplatz für kleine und mittelständische Unternehmen anzubieten, dessen Cloud Infrastruktur auf OpenStack basiert.

Anders als die (US-amerikanischen) Cloud Anbieter deckt die Telekom somit beide wichtigen Bereiche ab, das Geschäftskunden- als auch das Privatkundensegment. Denn spätestens mit den Telekom Cloud Werbespots und Angeboten sollte der Term Cloud mittlerweile auch bei vielen Deutschen angekommen sein.

Die Cloud ist noch nicht in der Breite angekommen

Im für Skeptiker bekannten Deutschland ist Cloud Computing noch nicht richtig angekommen. Anders als z.B. in den USA, wo der Cloud Computing Markt regelrecht blüht und Milliardenumsätze eingefahren werden, finden sich in den Kommentaren zu Cloud Artikel auf anderen Online IT-Magazinen immer wieder Phrasen wie "Bleibt mir weg mit eurem ****** SaaS, das ist doch alles viel zu teuer." oder "Cloud? Meine Daten bekommt ihr nicht!".

Die Deutschen Nichtnutzer oder Skeptiker sehen in der Cloud also eher eine Gefahr als eine Chance. Eine Chance auch für Startups, in dem weltweiten lukrativen Cloud Computing Markt ein Wort mitreden zu können.

Abgesehen von der doch recht beachtlichen Anzahl von SaaS Startups in Deutschland, ist der Markt für junge Unternehmen in den Bereichen IaaS und PaaS so gut wie nicht vorhanden. ScaleUp Technologies wollte als Spin-off der internet4YOU, bereits 2009 IaaS in Form von Rechenleistung und Speicherplatz aus Deutschland heraus anbieten. Mittlerweile nutzen sie die dafür selbst entwickelte Plattform, um diese großen Telkos zu verkaufen. Im Bereich PaaS halten cloudControl und Scalarium die Fahne hoch.

Wie daran gut zu erkennen ist, es fehlt an Kapital, um Infrastructure Services aufzubauen. Scalarium und cloudControl setzen als Grundlage auf die Amazon Web Services und setzen ihre Plattform für das Cloud Hosting oben drauf. VCs investieren lieber in den Consumer Markt, was auch an der Akzeptanz des Cloud Computing in Deutschland liegen mag.

Dabei zeigen aktuelle Zahlen einen sehr positiven Trend, der auch schon während des Aufkommen des Cloud Computing prognostiziert wurde. So wird der Software-as-a-Service Markt in diesem Jahr um 17,9% auf 14.5 Milliarden US-Dollar wachsen. Alleine in Westeuropa auf 3,2 Milliarden Dollar. Zudem wird der gesamte deutsche Markt für Cloud Computing in diesem Jahr die Umsatzgrenze von 5 Milliarden Euro überschreiten und damit um fast 50 Prozent wachsen.

Die Deutsche Telekom kann Einfluss haben

Die Telekom kann und wird mittelfristig dafür sorgen, dass sich Cloud Computing auch endlich in der Breite in Deutschland etabliert. Ein Signal kann bereits der British American Tobacco Deal sein. Die Studien zeigen darüber hinaus bereits einen deutlichen Trend, der sich nun - z.B. mit der Telekom Cloud - auch auf den Markt für Privatkunden auswirken wird. Zudem existieren neben der Telekom weitere Cloud Computing Anbieter im selben Segment, die zwar nur die Geschäftskunden ansprechen, aber ebenfalls beachtenswerte Angebote haben.

Von besonderer Bedeutung wird weiterhin der Datenschutz im dafür sehr sensiblen Deutschland bleiben, was zu einem Standortvorteil werden kann, es zwangsläufig aber nicht sein muss. Hier muss weiterhin viel Vertrauen und Transparenz aufgebaut werden. Auf der anderen Seite gibt es mittlerweile allerdings viele Nutzer von Apples iCloud sowie Dropbox oder weiteren Cloud Storage Anbietern. Es ist also nur eine Frage der Zeit. Betrachtet man zudem den z.T. sehr lockeren Umgang mit privaten Daten in den sozialen Netzwerken, handelt es sich bei der Cloud Skepsis eher um ein Generationsproblem.

PS: Übrigens Deutschland, Big Data - ein Cloud Computing Use Case - steht auch schon länger vor der Tür! ;)



OpenStack – Ein Überblick

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Die Kernbereiche von OpenStack

Die Kernbereiche von OpenStack

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht aus insgesamt fünf Kernkompenten. Bei OpenStack Compute, OpenStack Object Storage und OpenStack Image Service handelt es sich um die grundlegenden Kernbereiche, die von Beginn an zu dem Projekt gehören. Mit OpenStack Identity und OpenStack Dashboard wurden in dem Diablo Release zwei weitere Komponenten hinzugefügt, die ab der kommenden Essex Version fest in die Kernbereiche mit aufgenommen werden.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.



Die Amazon Web Services hosten Katalog für Humangenetik in der Cloud

Die Amazon Web Services (AWS) und das U.S. National Institutes of Health (NIH) haben die komplette Datenbank des 1000 Genomes Project als Public Data Set in die Amazon Cloud migriert. Damit haben Wissenschaftler nun ständigen Zugang zu 200 Terabyte an genetischen Daten zur Erforschung von Krankheiten. Ein weiterer idealer Anwendungsfall für Cloud Computing und Big Data.

Die Kooperation, die offiziell während des White House Big Data Summit angekündigt wurde, ermöglicht es Wissenschaftlern kostenlos auf die weltweit größte Sammlung von Daten zur Humangenetik zuzugreifen Bei dem 1000 Genomes Project handelt es sich um ein internationales Forschungsprojekt, das von einem Konsortium bestehend aus 75 Unternehmen und Organisationen koordiniert wird. Das Ziel des Projekts ist die Erstellung des detailreichsten Katalogs von genetischen Variationen bei Menschen.

Dazu hat das Projekt bereits 200 Terabyte an genetischen Daten inkl. DNS Sequenzen von mehr als 1.700 Personen gesammelt, auf die Wissenschaftler nun kostenlos über die AWS Cloud zugreifen können. Das Projekt verfolgt das Ziel die Gene von weltweit über 2.600 Individuen aus 26 Bevölkerungen bereitzustellen. Das 1000 Genomes Project startete 2008 mit ein paar Terabytes an Daten in seine Pilotphase. Bereits 2010 wurde ein kleiner Teil als Public Data Set auf AWS veröffentlicht.

Bei den Amazon Public Data Sets handelt es sich um ein öffentliches zentrales Repository von unterschiedlichen Daten, die auf Amazon S3 und Amazon EBS gespeichert sind. Auf diese Daten kann direkt zugegriffen werden, z.B. über Amazon EC2 oder Amazon EMR (Elastic MapReduce) ohne diese großen Datenmengen auf lokale Server herunterzuladen.

Amazon hat neben dem 1000 Genomes Project ebenfalls Public Data Sets vom NASA Jet Propulsion Laboratory, Langone Medical Center an der New York University, Unilever, Numerate, Sage Bionetworks oder Ion Flux gespeichert.

Die Nutzung der Public Data Sets ist kostenlos. Kosten entstehen für die Verarbeitung der Daten auf der Amazon Cloud wie z.B. Amazon EC2.

In diesem Zusammenhang sehr interessant: Nach der Cloud, wird Amazon auch der Big Data Gigant?

Weiterführende Informationen


Bildquelle: http://www.ige3.unige.ch



Nach der Cloud, wird Amazon auch der Big Data Gigant?

IaaS Cloud Infrastrukturen haben auf Grund ihrer Skalierbarkeit die idealen Voraussetzungen für die Verarbeitungen großer Datenmengen, wodurch Big Data ein idealer Anwendungsfall für Cloud Computing ist. Aber welcher Anbieter wird das Rennen um die Verarbeitung machen?

Big Data ist ein idealer Anwendungsfall für das Cloud Computing

Amazon Web Services

Ein Kandidat ist Amazon. Zum einen hat das Unternehmen auf Grund seines Kerngeschäfts, dem Web-Shop, eine große Expertise bei der Verarbeitung und Analyse großer Datenmengen aufgebaut und diese, betrachtet an der Evolution und dem Funktionsumfang der Webseite, stetig weiterentwickelt. Hinzu kommen aber auch die Amazon Web Services und der darunter liegenden massiv skalierbaren Infrastruktur, die ideal für die Verarbeitung von Big Data ist und die Unternehmen nutzen können, um dort Anwendungen für die Analyse ihrer Daten zu betreiben. Dazu stehen mit Amazon EC2, Amazon S3 und Amazon Elastic MapReduce gut miteinander zu kombinierende Services zur Verfügung. Neben dem Service AWS Import/ Export, mit dem große Datenmengen auf dem Postweg an Amazon geschickt werden können, die von Amazon dann direkt in die Cloud kopiert werden, hat sich Amazon mit der vor kurzem angekündigten Kooperation mit dem Private Cloud Infrastruktur-Software Anbieter Eucalyptus zudem eine gute Ausgangsposition geschaffen, um Unternehmen die Möglichkeit zu geben, über eine Hybrid Cloud Daten aus der Private in die Amazon Cloud übertragen zu lassen.

Google

Google hat ebenfalls viel Erfahrung bei der Verarbeitung großer Datenmengen, was u.a. auf die Indexierung des Internets und die damit verbundene Suche zurückzuführen ist - ebenfalls beides Kerngeschäfte von Google. Hinzu kommt, das Google kürzlich mit Google BigQuery einen neuen Service für Entwickler vorgestellt hat, auf dem Anwendungen entwickelt werden können, um Big Data zu verarbeiten. Dieser befindet sich aktuell aber noch in der geschlossenen Betaphase.

Anders als die Amazon Web Services scheint Google allerdings nicht so konsequent auf das Business getrimmt zu sein. Zudem wirkt Google an vielen Stellen immer noch wie ein großer Spielplatz für die eigenen Entwickler, was natürlich immer wieder gute Innovationen hervorbringt, Google sich aber bereits eingestehen musste, dass einige Services doch einfach mehr Kapital verbrennen als Nutzen ergeben. So wurde die Google App Engine anfangs stark gepushed, hat im Laufe der Zeit aber etwas an Innovation verloren.

Microsoft

Microsofts Kerngeschäft hat im Vergleich zu Amazon oder Google in erster Linie nichts mit der Verarbeitung großer Datenmengen zu tun. Dennoch steht mit Windows Azure ebenfalls eine skalierbare Infrastruktur bereit, auf der Unternehmen Big Data analysieren können.

Im Vergleich zu Google oder Amazon ist Microsoft aber bereits schon dort lange angekommen, wo die beiden erst genannten erst zielstrebig hinwollen, das Business. Microsoft sollte die Herausforderungen und Wünsche, insbesondere bei den renommierten Unternehmen, kennen und gezielt darauf eingehen können.

Erste infrastrukturelle Schritte hat Microsoft bereits mit der Unterstützung von Hadoop auf Azure unternommen und eine Agenda zeigt die weiteren Vorhaben für das Jahr 2012. So wird das Unternehmen mit Hilfe von Hortonworks und einer ODBC Schnittstelle Apache Hadoop an Microsofts Excel anbinden und so Big Data ins Büro bringen. Damit können Business Intelligence (BI) Tools einen direkten Zugang zu einem Hadoop Cluster erhalten und via Excel Pivot-Analysen durchgeführt werden.

Die Anderen

Es existieren eine Vielzahl an Unternehmen, die mit Big Data tagtäglich in ihrem Kerngeschäft konfrontiert werden. Dazu gehören bspw. ebay, Facebook, XING, LinkedIn oder auch Twitter. Allerdings bietet keines dieser genannten Unternehmen einen Public Cloud Service an, mit dem Big Data von Dritten verarbeitet werden könnte. Die Kosten für den Ausbau einer stärker skalierbaren Infrastruktur wären wohl auch zu hoch.

Allerdings sollten auch renommierte Unternehmen wie SAP, IBM oder Oracle im Bereich Big Data nicht aus den Augen gelassen werden. Die Expertise aus dem Kerngeschäft ist zweifelsohne vorhanden.


Bildquelle: https://www.emcforums2011.com, http://www.techweekeurope.es



Mobile, Social Media und Big Data sind die Treiber des Cloud Computing

Zwei voneinander unabhängige Studien von Microsoft und SAP zeigen die besondere Bedeutung des Cloud Computing und das die Bereiche Mobile Computing, Social Media und Big Data die Treiber der Cloud sind.

"Mobile Computing, Social Media und Big Data sind die Treiber des Cloud Computing.

Eine neue Studie im Auftrag von SAP lässt Spekulationen aufkommen, das Cloud Computing, unterstützt durch die Bereiche Mobile Computing, Social Networking und Big Data, in den nächsten Jahren viel mehr Möglichkeiten aufzeigen wird, als es das Internet in seinen frühen Jahren geschafft hat.

Die Studie zeigt, das anhand des Cloud Computing bereits heute eine beträchtliche Zahl von Arbeitsplätzen in den USA geschaffen wurde und basierend auf zahlreichen Trends und Indikatoren, ein enormes Potenzial für neue Geschäfte hat und Hunderttausende neuer Arbeitsplätze schafft.

So zeigt die SAP Studie bspw., dass 11 Cloud Computing Anbieter zusammen 80.000 neue Arbeitsplätze im Jahr 2010 geschaffen haben. Zudem war das Beschäftigungswachstum bei diesen Unternehmen fast fünfmal größer als das des gesamten High-Tech-Sektors. Der Bericht zitiert dazu eine Studie der Bank of America Merrill Lynch Global, in der die Gesamtzahl der Mitarbeiter von 11 Cloud Computing Unternehmen (Amazon, Google, Netflix, OpenTable, Salesforce, Taleo, SuccessFactors, RightNow, Intuit, NetSuite und Concur) im Zeitraum von Januar 2010 bis Januar 2011 berechnet wurde. Die Gesamtzahl der Beschäftigten wuchs innerhalb dieses Jahres um 27%. So wuchs das führende Cloud Unternehmen OpenTable in diesem Zeitraum um mehr als 44%. VMware um 41% und Amazon um 31%.

Unternehmen die Cloud-Services anbieten, werden in den nächsten fünf Jahren voraussichtlich einen Umsatz von durchschnittlich 20 Milliarden Dollar pro Jahr erwirtschaften, wodurch in diesem Zeitraum ca. 472.000 Arbeitsplätze in den USA und weltweit geschaffen werden könnten. Darüber hinaus werden Venture Capital-Investitionen in den Cloud Bereich für die kommenden fünf Jahren auf 30 Milliarden Dollar taxiert, die weitere 213.000 neue Arbeitsplätze allein in den USA schaffen sollen.

Eine weitere Studie von IDC im Auftrag von Microsoft kommt zu dem Ergebnis, dass Cloud Computing in den kommenden drei Jahren weltweit 14 Millionen Arbeitsplätze schaffen wird. Diese werden aber auch in Bereichen außerhalb der IT wie Marketing, Vertrieb, Finanzen, Verwaltung, Entwicklung und Dienstleistungen entstehen. Darüber hinaus werden neue Positionen entstehen wie z.B. der "Virtuelle Ressourcen Administrator" oder der "Kunden-Netzwerk Moderator".

IDC prognostiziert in den nächsten drei Jahren zudem Einnahmen durch Cloud Innovation in Höhe von 1.1 Billion Dollar pro Jahr.

Mobile Computing, Social Networking und Big Data sind die Treiber

Drei Megatrends Treiben den Bereich der Cloud-Services voran und sorgen für das Wachstum im Arbeitsmarkt.

  • Mobile Computing: Der Markt für Smartphones und Tablets wird weiter stark nachgefragt. Dadurch werden die Anfragen an die Back-Ends wie App-Stores, Datenbanken und Speicherplatz der Cloud-Services durch Mobile Anwendungen massiv steigen. Zudem ermöglichen Cloud Services Tablet und Smartphone Nutzer einen besseren Zugriff auf Informationen und anderen Daten.
  • Social Networking: Ohne Cloud Computing Technologien wäre eine so massive Skalierbarkeit und Elastizität nicht möglich um diese Webseiten zu betreiben.
  • Big Data: Cloud Infrastrukturen und Plattformen werden bei der Verarbeitung und Analyse riesiger Datenmengen auf Grund ihrer Skalierbarkeit eine große Rolle spielen.

Bildquelle: http://www.thenewnewinternet.com, http://www.emptylemon.co.uk



Amazon und Eucalyptus kooperieren – Gemeinsame Allianz gegen OpenStack?

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus werden in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen.

Amazon und Eucalyptus kooperieren - Gemeinsame Allianz gegen OpenStack?

Amazon und Eucalyptus kooperieren.

Dabei wird die Kooperation unterschiedlich aufgebaut sein. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen.

Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.


Das sieht ganz nach einer Allianz gegen OpenStack aus! Schaut man sich die jüngsten Ankündigungen bzgl. OpenStack an - siehe unten - wäre das von Amazon als auch Eucalyptus ein kluger Schachzug, zumal sich die Eucalyptus Infrastruktur sehr nah an den Basisfunktionen der Amazon Web Services orientiert.

Zudem kann der von Amazon immer wieder geförderte Ansatz der Hybrid Cloud damit verbessert werden. Was sicherlich auch im Hinblick auf das Thema Big Data und der damit verbundenen Verarbeitung großer Datenmengen in der Amazon Cloud für die Amazon Web Services von großem Nutzen sein wird. Nach dem Motto: "Bigger is Better" bzw. "Data without Limits".


Bildquelle: http://www.search-internetmarketing.com/, http://www.techweekeurope.co.uk



BigQuery: Google bringt Big Data Service in die Cloud

Während viele Experten davon ausgehen, dass Systeme rund um das Thema Big Data On-Premise installiert werden, geht Google den Cloud Weg und hat einen Service entwickelt, mit dem große Mengen an Daten in der Cloud analysiert werden können, ohne dabei in eine eigene kostspielige Infrastruktur wie ein Data-Warehouse zu investieren.

Google bringt mit BigQuery einen Big Data Analytics Service in die Cloud

Der Service nennt sich BigQuery und soll Unternehmen und Organisationen bei der Analyse ihrer Daten helfen ohne die dafür notwendige Infrastruktur zu besitzen. Mit BigQuery soll es möglich sein eigene Anwendungen zu entwickeln und die damit generierten Daten als Service bereitzustellen. Also: "Data-as-a-Service"! BigQuery steht derzeit nur in einem eingeschränkten Vorschau-Modus für eine kleine Anzahl an Test-Nutzern zur Verfügung. Wann der Service im vollem Umfang zur Verfügung steht, ist noch nicht klar.

Da Google auf Grund der Indexierung des Webs auf Systeme für die Analyse riesiger Datenmengen angewiesen ist, wurden entsprechend bereits einige Tools entwickelt, die allerdings nur für den internen Einsatz vorgesehen sind. Aus diesen Tools wurde nun der BigQuery Service quasi abgeleitet.

Ein Test-Nutzer ist We Are Cloud, Anbieter eines Business Intelligence Cloud Service aus Montpellier in Frankreich.



Ist IaaS die Lösung für die Herausforderungen von Big Data?

Big Data gehört zu den Trend Themen für das Jahr 2012. Immer mehr Unternehmen suchen in dem Thema Lösungen für die Verarbeitung großer Datenmengen. Dazu gehören neben dem Speichern ebenso die Analysefunktionen auf diesen Daten. Wie aber kann Infrastructure-as-a-Services dabei helfen, mit diesen Problemen umzugehen und Lösungen zu finden?

Big Data ist die größte IT-Herausforderung für Unternehmen

Oracle's jährlicher Datacentre Index, der im Januar veröffentlicht wurde zeigt, dass Unternehmen in Europa, dem Nahen Osten und Afrika ihre Rechenzentrumsstrategien auf Grund der stetig wachsenden Datenmengen für das Jahr 2012 überdenken müssen. Zudem wird Big Data von vielen als die größte IT-Herausforderung für Unternehmen in den nächsten zwei Jahren gesehen.

Datenflut

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere "normale" Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Welcher Weg ist der Richtige?

Die Öl-und Gasindustrie hat dies durch den Einsatz von eher traditionellen Storage-Lösungen (SANs und NASs) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

IaaS (Infrastructure-as-a-Service), vereint beide Welten und nimmt dadurch eine einzigartige Position ein. Für diejenigen, die das SANs/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Wobei der Grid-Ansatz wahrscheinlich besser funktioniert. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Wettbewerbsfähig bleiben

McKinsey’s Report "Big data: The next frontier for innovation, competition, and productivity", aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Kosteneinsparung für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

IaaS Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.


Bildquelle: http://collaborationforgood.org, http://futurezone.at