Tag: Big Data


Disruptive Welt der IT: Neue Technologien verändern ständig den Status quo der Unternehmen #tsy13

Zero Distance klingt im ersten Moment wie eine dieser neumodischen Marketingphrasen, mit denen uns Anbieter tagtäglich erzählen, wie sie die Welt verbessern wollen. Nun, es handelt sich dabei auch um genau eine von diesen Marketingphrasen. Aber eine, in der viel Wahrheit steckt. Betrachtet man die Use Cases, die auf dem T-Systems Symposium 2013 gezeigt wurden und viele weitere weltweit, dann wird deutlich, was für Potentiale uns die moderne Informationstechnologie ermöglicht. Die Cloud bzw. Cloud Computing sind dabei nur ein Mittel zum Zweck und dienen als Enabler für neue Geschäftsmodelle und helfen bei der Veränderung unserer Welt.

Wer nicht handelt der stirbt aus!

Fakt ist, dass traditionelle Unternehmen dem Untergang geweiht sind, wenn sie sich nicht verändern. An alten Werten festzuhalten ist nicht immer die beste Strategie – insbesondere im Zeitalter des Digital Business. Startups tauchen wie aus dem nichts auf und überrennen Marktführer in ihrem Bereich, die gar keine Chance haben so schnell zu reagieren. Es ist der Vorteil der grünen Wiese, den die Startups ausnutzen und sich nicht mit lästigen Altlasten in der IT und anderweitigen Bereichen auseinandersetzen müssen. Aber es gibt auch die Unternehmen, die schon eine geraume Zeit erfolgreich auf dem Markt verweilen und die Zeichen der Zeit erkannt haben. Neue Technologien und Konzepte haben immer irgendeinen Einfluss auf das Business. Einige Unternehmen haben es verstanden sich neu zu erfinden und Cloud Computing, Big Data, Mobile und Collaboration gewinnbringend für die eigene Zwecke zu nutzen, um sich dadurch zu verändern. Andere hingegen können oder wollen es nicht verstehen und bleiben lieber ihrem Status quo treu.

Hey Bauer, wo bleibt der Bulle?

Es ist immer wieder erstaunlich in welchen Bereichen der Industrie die Informationstechnologie einen massiven Einfluss nimmt und dabei für mehr Effizienz sorgt. Nehmen wir das Beispiel der Landwirtschaft. Konkreter das Paarungsverhalten der Kühe. Das ist wichtig, denn eine Kuh gibt nur dann Milch, wenn sie gekalbt hat. Es ist für den Bauer daher von besonderem Interesse, das hier alles reibungslos abläuft.

Die Lösung: Ist eine Kuh brünstig, macht sie währenddessen typische Kopfbewegungen. Daher bekommt jede Kuh ein Halsband inkl. einem Mobilfunkchip. Der Bauer erhält darüber die Information, dass er den Bullen startklar machen kann. Auch beim Kalben hilft die Lösung. Dazu überträgt das Tool die Werte eines Thermometers mit integrierter SIM Karte. Etwa 48 Stunden vor der Geburt verändert sich die Körpertemperatur der Kuh. Der Bauer erhält zwei Stunden vor der Geburt eine SMS, um rechtzeitig vor Ort zu sein.

IT-Abteilungen müssen proaktiver werden

IT-Abteilungen sind und waren schon immer die Prügelknaben im Unternehmen. Zu recht? Nun, einige ja, andere wiederum nicht. Aber sind es die IT-Abteilungen alleine, die für die Transformation des Business zuständig sind? Jein. In erster Linie ist die Geschäftsführung für die Ausrichtung der Unternehmensstrategie verantwortlich. Sie muss sagen, welchen Weg das Unternehmen gehen soll, schließlich hat sie die Visionen. Das große Aber besteht allerdings in der Art wie die IT-Abteilung sich in diesem Kontext verhält. Ist sie einfach nur die unterstützende Kraft, die je nach Bedarf auf die Wünsche der Geschäftsführung und der Kollegen reagiert oder agiert sie lieber proaktiv?

Angriff ist die beste Verteidigung. IT-Abteilungen sollten heute am technischen und innovativen Puls der Zeit sitzen und über die Veränderungen im Markt informiert sein. Über eine ständige interne oder externe Markt- und Trendforschung müssen sie wissen, was auf sie und ggf. auf ihr Unternehmen zukommt und darauf schnellstmöglich und proaktiv reagieren, um nicht zu viel Zeit zu verlieren und im besten Fall einen Wettbewerbsvorteil zu schaffen. Je nach Trend müssen sie nicht auf jeden Zug aufspringen, aber sie sollten sich damit zumindest auseinandersetzen und verstanden haben, welcher Einfluss dadurch entsteht und ob sie oder ihr Unternehmen davon betroffen sind. Wenn sie Potential für neue Geschäftsmodelle erkennen, sollten sie diese in die Geschäftsführung tragen, die auch verstehen muss, dass IT heute Enabler und nicht nur Instandhalter ist. Das bedeutet, dass die IT-Abteilung im Unternehmen heute einen viel größeren Stellenwert hat als noch vor zehn Jahren.

Hierzu muss die Geschäftsführung der IT-Abteilung jedoch unter die Arme greifen und die IT-Abteilung von ihren Routineaufgaben befreien. In etwa 80 Prozent der IT-Ausgaben werden heute in den IT-Betrieb investiert und das nur, um die Dinge am Laufen zu erhalten. Es handelt sich also um Investitionen in den Status quo, die zu keinen Innovationen führen. Hingegen werden lediglich nur 20 Prozent der Ausgaben in Verbesserungen oder Weiterentwicklungen investiert. Dieses Verhältnis muss sich drehen, und die Geschäftsführung zusammen mit dem CIO haben die Aufgabe, diesen Wandel vorzunehmen, damit ein Unternehmen auch in Zukunft innovativ und wettbewerbsfähig bleibt.

Hören Sie auf den Status quo zu umarmen.



Big Data und Cloud Computing helfen nicht nur Obama

In meinem Gastbeitrag bei den Automatisierungs-Experten von arago bin ich vor zwei Wochen auf das Thema Big Data eingegangen und das Unternehmen aus dem US-Wahlkampf 2012 von Barack Obama lernen sollten, wie sie Echtzeit-Informationen in einen Vorsprung umwandeln. Neben Cloud Computing, Mobile und Social Media gehört Big Data zu den aktuellen Top-Themen im IT-Unternehmensumfeld. Dabei handelt es sich bei weitem nicht mehr nur um einen Trend sondern um die Realität. Und das mit einem weitreichenden Einfluss auf Unternehmen, ihre strategische Ausrichtung und der IT. Bekannte Technologien und Methoden haben mit der Analyse von Big Data ihre Grenzen erreicht und nur das Unternehmen, welches es schafft, aus den Datensilos einen Informationsvorsprung zu erzielen, wird dem Wettbewerb in Zukunft einen Schritt voraus sein.

Big Data: Kein Alter Wein in Schläuchen

Grundsätzlich ist die Idee hinter Big Data nichts Neues. Von Anfang bis Mitte der 1990er Jahre ging es bereits unter dem Begriff „Business Intelligence“ darum, anhand von Verfahren eine systematische Analysen von Daten vorzunehmen. Die Ergebnisse werden dazu verwendet, um neue Erkenntnisse zu gewinnen, die dabei helfen, die Ziele eines Unternehmens besser zu erreichen und strategische Entscheidungen zu treffen. Allerdings war die Datenbasis, die es zu analysieren galt, deutlich kleiner als heute und lies nur Analysen auf Daten aus der Vergangenheit zu, was zu unsicheren Prognosen für die Zukunft führte. Heute sammeln sämtliche Alltagsgegenstände jede Sekunde massive Datenmengen an Informationen. Dazu gehören Smartphones, Tablets, Autos, Stromzähler oder auch Kameras. Hinzu kommen Bereiche, die sich nicht in der unmittelbaren Umgebung eines Menschen befinden, wie vollautomatisierte Produktionslinien, Distributionslager, Messinstrumente, Flugzeuge und anderen Fortbewegungsmitteln. Und natürlich sind es wir Menschen, die Big Data mit unseren Verhalten im Internet nähren. Tweets auf Twitter, Kommentare auf Facebook, Suchanfragen mit Google, Stöbern mit Amazon und sogar die Vitalwerte während einer Jogging-Session liefern modernen Unternehmen heute unmengen an Daten, aus denen sich wiederum wertvolle Informationen gewinnen lassen.

Strukturierte und unstrukturierte Daten

Große Datensätze sind keine neue Erscheinung. Bereits seit Jahrzenten sammeln Handelsketten, Ölfirmen, Versicherungen oder Banken massiv Informationen über Warenbestände, Bohrdaten und Transaktionen. Weiterhin gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Bereichen von dem, was heute als Big Data bezeichnet wird. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, die Wettervorhersage und die Medizinbranche. Alle genannten Bereiche und Branchen haben mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen.

Doch nun wirkt sich die Problematik auch auf die "normalen" Branchen aus. Die heutigen Herausforderungen bestehen darin, dass Daten aus vielen unterschiedlichen Quellen stammen und zum Teil schnell, unverhersagbar und damit unstrukturiert aufkommen. Big Data soll daher insbesondere an den Stellen helfen, wo viele unterschiedliche Datenquellen miteinander kombiniert werden. Beispiele sind Tweets auf Twitter, das Surfverhalten oder Informationen über Abverkäufe, um auf dieser Basis neue Produkte und Dienstleistungen zu entwickeln. Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält. Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten beziehungsweise Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind. Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Warum Unternehmen sich für Big Data entscheiden

Doch wo kommen diese riesigen Datenmengen tatsächlich her und welche Motivation haben Unternehmen, sich mit der Thematik zu beschäftigen. Die Marktforscher der Experton Group haben versucht, die Fragen in Ihrer "Big Data 2012 – 2015" Client-Studie im Oktober 2012 zu klären. Demnach ist der wichtigste Treiber für den Einsatz von Big Data Technologien und Konzepten das rasante Datenwachstum inklusive dem dazugehörigen Qualitätsmanagement und der Automatisierung der Analysen und Reports. Die Themen Kundenbindung und Marketing nehmen circa ein Drittel der Unternehmen zum Anlass, um die Anaysen ihrer Datenbestände zu erneuern. Neue Datenbanktechnologien nennen 27 Prozent der Befragten Unternehmen als Motivation für neue Verfahren zur Datenalyse. Weiterhin zählen nahezu alle Eigenschaften von Big Data zu den Gründen für die Erweiterung des strategischen Datenmanagements. Das zeigt, dass Big Data bereits Realität ist, auch wenn es in vielen Fällen nicht unter diesem Begriff bekannt ist. Die Big Data Treiber selbst sind über alle Branchen und Unternehmensgrößen hinweg gleich. Der einzige Unterschied besteht in der Bedeutung und Intensität. Ein großer Unterschied bei der Unternehmensgröße besteht in der Verteilung der Daten und Informationen an die richtigen Mitarbeiter im Unternehmen. Hier sehen große Unternehmen ihre größten Herausforderungen. Wohingegen kleinere Unternehmen das Thema als sehr unkritisch einstufen.

Big Data: Ein Anwendungsfall für die Cloud

Die Öl-und Gasindustrie hat die Verarbeitung großer Datenmengen durch den Einsatz von traditionellen Storage-Lösungen (SAN und NAS) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

Big Data Verarbeitung gehört in die Cloud

Cloud Infrastrukturen helfen bei der Kostenreduzierung für die IT-Infrastruktur. Dadurch werden Unternehmen in die Lage versetzt, sich effizienter auf ihr Kerngeschäft zu konzentrieren und erhalten mehr Flexibilität und Agilität für den Einsatz neuer Lösungen. Damit wird ein Grundstein gelegt, sich auf die ständig verändernden Datenmengen einzustellen und für die notwendige Skalierbarkeit zu sorgen. Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit der Datenmenge

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Cloud Konzepte wie Infrastructure-as-a-Service (IaaS), vereinen beide Welten und nehmen dadurch eine einzigartige Position ein. Für diejenigen, die das SAN/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Eine passable Lösung kommt von Cloud Computing Pionier Amazon Web Services. Mit der AWS Data Pipeline steht bei Amazon ein Service (noch in der Betaphase) bereit, mit dem sich Daten automatisch zwischen verschiedenen Systemen verschieben und verarbeiten lassen. Die Systeme können sich dazu entweder direkt in der Amazon Cloud oder auf einem anderen System außerhalb befinden. Amazon macht damit die Handhabung der wachsenden Datenmengen auf verteilten System mit unterschiedlichen Formaten einfacher. Dazu lassen sich beliebig viele Pipelines erstellen, in denen die unterschiedlichen Datenquellen, Bedingungen, Ziele, Anweisungen und Zeitpläne definiert sind. Kurzum geht es darum, welche Daten von welchem System auf Basis welcher Bedingungen geladen, verarbeitet und die Ergebnisse anschließend wieder gespeichert werden. Die Pipelines selbst werden je nach Bedarf stündlich, täglich oder wöchentlich gestartet. Die Verarbeitung kann entweder direkt in der Amazon Cloud oder auf den Systemen im unternehmenseigenen Rechenezentrum stattfinden.

Big Data = Big Opportunities?

Nicht nur das Obama Beispiel zeigt, wie gewinnbringend die Verknüpfung von strukturierten und unstrukturierten Daten aus mobilen Endgeräten, Social Media Kanälen, der Cloud und vielen weiteren unterschiedlichen Quellen für ein Unternehmen sein kann. Allerdings muss man sich bei Big Data über eines im Klaren sein. Es geht letztendlich nicht um die Masse der Daten die gesammelt wird, sondern um deren Qualität und wofür die Daten letztendlich überhaupt genutzt werden sollen.

Entscheidend ist daher, ob und wie ein Unternehmen es schafft, aus den Massen an Daten, die durch menschliche und maschinelle Interaktionen entstehen, die qualitativ hochwertigsten Informationen zu analysieren und sich damit eine führende Position am Markt sichert. Qualifizierte Daten sind das neue Öl und werden in den Unternehmen, die den eigenen Vorteil darin erkennen, für den gewinnbringenden Antrieb sorgen.



Big Data in der Cloud: AWS Data Pipeline und Amazon Redshift

Amazon rüstet seine Cloud-Infrastruktur für Big Data mächtig auf. Mit der AWS Data Pipeline steht nun ein Dienst (zur Zeit in der Betaphase) zur Verfügung, mit sich Daten über verschiedene Systeme automatisch verschieben und verarbeiten lassen. Amazon Redshift stellt ein Datawarehouse in der Cloud dar, welches zehnmal schneller sein soll als bisher verfügbare Lösungen.

AWS Data Pipeline

Mit der AWS Data Pipeline sollen die stetig wachsenden Daten, welche auf verschiedenen Systemen und in unterschiedlichen Formaten vorhanden sind, einfacher zugänglich gemacht werden. Der Service lädt zum Beispiel Textdateien von Amazon EC2, verarbeitet sie und speichert diese in Amazon S3. Dreh und Angelpunkt ist dabei die AWS Management Console. Hier werden Pipelines definiert, die aus unterschiedlichen Quellen, Bedingungen, Zielen und Anweisungen bestehen. Über Zeitpläne wird festgelegt, wann welcher Job ausgeführt wird. Die AWS Data Pipeline legt fest, von welchem System welche Daten auf Basis von bestimmten Bedingungen geladen werden, unter welchen Bedingungen sie zu verarbeiten sind und wo diese am Ende gespeichert werden.

Die Verarbeitung der Daten kann entweder direkt in der Amazon Cloud auf EC2-Instanzen oder im eigenen Rechenzentrum durchgeführt werden. Dafür steht mit dem Task Runner ein Open-Source Tool bereit, dass mit der AWS Data Pipeline kommuniziert. Der Task Runner muss dafür auf den jeweiligen datenverarbeitenden Systemen gestartet sein.

Amazon Redshift

Amazons Cloud-Datawarehouse Amazon Redshift soll dabei helfen, große Datenmengen innerhalb kürzester Zeit zu analysieren. Darin lassen sich bis zu 1,6 Petabyte Daten speichern und per SQL abfragen. Zwar wird der Service, wie üblich, nach Verbrauch abgerechnet. Kunden, die allerdings einen Dreijahresvertrag unterschreiben und volle Last auf ihre virtuelle Infrastruktur bringen, zahlen ab 1.000 US-Dollar pro Terabyte pro Jahr. Amazon stellt dazu einen Vergleich mit Zahlen von IBM an. IBM berechnet für ein Datawarehouse zwischen 19.000 US-Dollar und 25.000 US-Dollar pro Terabyte pro Jahr,
Erste Beta-Tester von Amazon Redshift sind Netflix, JPL und Flipboard, deren Abfragen 10- bis 150-mal schneller waren als auf dem derzeit genutzten System.

Amazon Redshift kann als Single-Node-Cluster mit einem Server und maximal 2 TByte Speicherplatz oder als Multi-Node-Cluster, der aus mindestens zwei Compute-Nodes und einem Leader-Node besteht, genutzt werden. Der Leader-Node ist dabei für die Verwaltung der Verbindungen, das Parsen der Anfragen, das Erzeugen der Ausführungspläne und der Verwaltung der Anfragen auf den einzelnen Compute-Nodes zuständig. Die Berechnung findet auf den Compute-Nodes statt. Die Compute-Nodes stehen als hs1.xlarge mit 2 TByte Speicherkapazität und hs1.8xlarge mit 16 TByte Speicherkapazität zu Verfügung. Ein Cluster darf dabei maximal aus 32 hs1.xlarge und 100 hs1.8xlarge Compute-Nodes bestehen. Das ergibt eine maximale Speicherkapazität von 64 Terabyte beziehungsweise 1,6 Petabyte. Die Compute-Nodes sind über ein separates 10 Gigabit/s Backbone miteinander verbunden.

Kommentar

Amazon baut ungeachtet vom Mitbewerb sein Cloud Services Portfolio weiter aus. Dadurch kann man manchmal den Eindruck bekommen, dass alle anderen IaaS-Anbieter auf der Stelle treten - angesichts der Innovationskraft der Amazon Web Services. Ich kann es an dieser Stelle nur noch einmal betonen, Mehrwert-Services sind die Zukunft von Infrastructure-as-a-Service bzw. Wer als IaaS-Anbieter zu Amazon konkurrenzfähig sein will muss mehr als nur Infrastruktur im Portfolio haben.

Schauen wir uns die aktuellen Entwicklungen an, steigt der Bedarf an Lösungen für die Verarbeitung großer strukturierter und unstrukturierter Datenmengen stetig an. Barack Obamas Wahlkampf ist dafür nur ein Use Case, der zeigt, wie wichtig der Besitz qualitativ hochwertiger Informationen ist, um sich für die Zukunft Wettbewerbsvorteile zu verschaffen. Und auch wenn viele in den Amazon Web Services "nur" einen reinen Infrastructure-as-a-Services Anbieter sehen (ich tue das nicht), wird Amazon - mehr als jeder andere (IaaS)-Anbieter - im Kampf um Big Data Lösungen weit oben mitspielen - was letztendlich nicht nur an dem Wissen auf Grund des Betriebs von Amazon.com liegt.



Cloud Computing und Big Data – Der ideale Use Case

Ich hatte schon einmal im März die Frage gestellt, ob Infrastructure-as-a-Service (IaaS) die ideale Lösung für die Herausforderungen von Big Data ist. Bereits damals bin ich zu dem Ergebnis gekommen, dass die Verarbeitung und Analyse großer Datenmengen - kurz: Big Data - ein idealer Use Case für das Cloud Computing ist. Unternehmen können die hohen Anforderungen, die Big Data erwartet, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Was ist Big Data

Als Big Data werden besonders große Datenmengen bezeichnet, die mit Hilfe von Standard-Datenbanken und Daten-Management-Tools nicht oder nur unzureichend verarbeitet werden können. Problematisch sind hierbei vor allem die Erfassung, die Speicherung, die Suche, Verteilung, Analyse und Visualisierung von großen Datenmengen. Das Volumen dieser Datenmengen geht in die Terabytes, Petabytes, Exabytes und Zettabytes.

Quelle: Wikipedia.de

Beispiele für Big Data

Für Unternehmen bietet die Analyse von Big Data die Möglichkeit zur Erlangung von Wettbewerbsvorteilen, Generierung von Einsparungspotentialen und zur Schaffung von neuen Geschäftsfeldern. Beispiele hierfür sind:

  • zeitnahe Auswertung von Webstatistiken und Anpassung von Online-Werbemaßnahmen
  • bessere, schnellere Marktforschung
  • Entdeckung von Unregelmäßigkeiten bei Finanztransaktionen (Fraud-Detection)
  • Einführung und Optimierung einer intelligenten Energieverbrauchssteuerung (Smart Metering)
  • Erkennen von Interdependenzen in der medizinischen Behandlung
  • Realtime-Cross- und Upselling im E-Commerce und stationären Vertrieb
  • Aufbau flexibler Billingsysteme in der Telekommunikation

Quelle: Wikipedia.de

Herausforderungen von Big Data

Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungsprogramme sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommt daher eine neue Art von Software zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeitet. Hierbei gibt es folgende Herausforderungen:

  • Verarbeitung vieler Datensätze
  • Verarbeitung vieler Spalten innerhalb eines Datensatzes
  • schneller Import großer Datenmengen
  • sofortige Abfrage importierter Daten (Realtime-Processing)
  • kurze Antwortzeiten auch bei komplexen Abfragen
  • Möglichkeit zur Verarbeitung vieler gleichzeitiger Abfragen (Concurrent Queries)

Die Entwicklung von Software für die Verarbeitung von Big Data befindet sich noch in einer frühen Phase. Prominent ist der MapReduce-Ansatz, der in der Open-Source-Software (Apache Hadoop und MongoDb), sowie in einigen kommerziellen Produkten (Aster Data, Greenplum u. a.) zum Einsatz kommt.

Quelle: Wikipedia.de

Cloud Computing und Big Data: Der perfekte Use Case

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere “normale” Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Wettbewerbsfähigkeit steigern

McKinsey’s Report “Big data: The next frontier for innovation, competition, and productivity”, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Big Data Verarbeitung in der Cloud

Kosteneinsparungen für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit Big Data

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen - wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. - die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.



HP zeigt ersten Server speziell für Big Data

HP hat die erste Server-Reihe angekündigt, die speziell für Big Data entwickelt wurde: Der HP ProLiant SL4500 Gen8 ist ab sofort als Ein- und Zwei-Knoten-System erhältlich. Das Ein-Knoten-System eignet sich durch seine Konfiguration mit bis zu 60 Festplatten vor allem als Object-Storage-Device für OpenStack-Cloud-Anwendungen, Redhat Enterprise Linux, SUSE Enterprise Linux oder Microsoft Windows Server. Das Zwei-Knoten-System mit 25 Festplatten pro Knoten eignet sich für Big-Data-Analytics und für Datenbanken wie MongoDB. Voraussichtlich Anfang 2013 wird HP das Portfolio durch ein Drei-Knoten-System nach oben abrunden. Mit dieser Konfiguration können Kunden unter anderem Parallel-Processing- und Big-Data-Anwendungen wie beispielsweise verschiedene Distributionen von Apache Hadoop nutzen.

HP Scaleable Line

Die neuen SL4500-Server (SL = Scaleable Line) sind speziell für Big-Data-Anwendungen entwickelt. Sie bieten je nach Konfiguration bis zu 240 Terabyte Speicherplatz pro Server. Außerdem nutzen sie die RAID-Controller HP Smart Array mit der Technologie Predictive Spare Activation. Diese Technologie erkennt fehlerhafte Laufwerke bevor diese ausfallen und verschiebt die Daten automatisch auf ein freies Laufwerk. So wird die RAID-Initialisierung umgangen, die ansonsten bei einem Plattenausfall entsteht und während der kein Schutz der Daten besteht. Die SL4500-Server befinden sich in einem 4,3 Höheneinheiten großen Chassis. Damit passen bis zu neun Server in ein Standard-Rack. In dem Ein-Knoten-System lassen sich bis zu 2,16 Petabyte Daten speichern. Das entspricht etwa 20 Jahren HD-Filmmaterial. Die Zwei- und Drei-Knotensysteme fassen bis zu 25 respektive 15 3,5-Zoll-Festplatten pro Knoten. Kunden können bei allen drei Konfigurationen zwischen SAS-, SATA- und SSD-Festplatten wählen. Beim Management größerer Umgebungen steht Unternehmen neben dem Server-Management-Werkzeug HP Integrated Lights-Out (iLO) für die Fernüberwachung auch das Werkzeug HP Insight Cluster Management Utility (HP Insight CMU) zur Verfügung. Mit diesem Werkzeug lassen sich große Server-Cluster anhand von Parametern steuern und die Lastverteilung optimieren.

HP bietet die SL4500-Server wahlweise mit Prozessoren von Intel (Xeon E5-2400) und AMD (Opteron 4200). Die Intel-Server nutzen die Server-Architektur der HP ProLiant Gen8, die AMD-Systeme greifen auf die Architektur der Generation 7 zurück. Im Vergleich zu konventionellen Rack-Servern mit JBODs benötigen die SL4500-Server bis zu 50 Prozent weniger Stellplatz, 61 Prozent weniger Energie, 63 Prozent weniger Kabel und sind 31 Prozent günstiger. Das modulare Design ermöglicht eine Vielzahl an Kombinationen von Rechenleistung und Speicherkapazität. Dadurch können Kunden die Server entsprechend ihren Anwendungen anpassen.

Die SL4500-Gen8-Server bieten außerdem bis zu sieben Mal mehr IOPS (Input/Output Operations per Second) als bestehende Architekturen. Die Lösung HP SmartCache verbessert den Speicher-Datenverkehr und verringert dadurch Latenzzeiten. Außerdem greifen die SL4500-Server auf die ProActive Insight Architecture zurück. Diese soll Kunden ermöglichen:

  • Ausfallzeiten zu reduzieren und Daten durch automatische Sicherheits-Funktionen zu sichern.
  • Die Produktivität der Server durch HP Active Health zu maximieren. Dieses Diagnose-Werkzeug erfasst alle Veränderungen an den Servern und der System-Konfiguration. Damit hilft es bei der Fehlerdiagnose und Lösungssuche. HP Smart Update spielt außerdem Firmware-Updates automatisch ein.
  • Die Kosten im Rechenzentrum durch die Technologie HP Intelligent Infrastructure zu senken und die Rechenleistung pro Watt um bis zu 70 Prozent zu steigern.
  • Selbstüberwachung, Selbstdiagnose und proaktiven Support für die Server durch HP Insight Online.

Preise und Verfügbarkeit

Der HP ProLiant SL4500 als Ein-Knoten-System ist ab sofort erhältlich. Der weltweite Listenpreis startet bei 5.925 Euro für die Basiskonfiguration.



Mainframe: Grundpfeiler von Wachstum und Innovation?

CA Technologies, Anbieter von IT-Management-Software und -Lösungen, veröffentlicht die Ergebnisse seiner weltweiten Studie „The Mainframe as a Mainstay of the Enterprise 2012“. Aus ihr geht hervor, dass sich der Großrechner in einer zunehmend komplexer werdenden IT-Landschaft zu einem Grundpfeiler von Wachstum und Innovation in der Unternehmensinfrastruktur entwickelt. Die im August 2012 durchgeführte Studie untersuchte die Rolle des Großrechners in der heutigen und künftigen IT-Strategie. Für die Studie wurden weltweit 623 IT-Experten aus elf Ländern befragt. Dabei die Studienergebnisse drei Haupttrends: Der Mainframe spielt eine immer größere strategische Rolle beim Managen der wachsenden Anforderungen von Unternehmen. Im Zeitalter von Big Data und Cloud Computing helfen Großrechner, die Innovationsfähigkeit eines Unternehmens zu erhalten. Die Unternehmen suchen für das Mainframe-Management nach Fachkräften mit fachübergreifenden Kompetenzen.

Großrechner als strategische IT-Investition

Laut Studienergebnissen nimmt der Mainframe eine immer stärkere Position im Unternehmen ein und wird vermehrt als ein strategischer Bestandteil der IT-Infrastruktur wahrgenommen. In diesem Zusammenhang bestätigen 33 bzw. 56 Prozent der Befragten aus Deutschland und über 80 Prozent der weltweiten Teilnehmer, dass Großrechner eine strategische bzw. eine wichtige strategische Komponente ihrer gegenwärtigen und künftigen IT-Strategie sind. Knapp ein Drittel der deutschen Befragten (31 Prozent) und 46 Prozent der weltweiten Umfrageteilnehmer gaben an, dass sie in den nächsten zwölf bis 18 Monaten beabsichtigen, in Mainframe-Software zu investieren. In Großrechner-Hardware wollen in diesem Zeitraum gut zwei Fünftel der deutschen Befragten (44 Prozent) vermehrt investieren. Weltweit steht das bei 36 Prozent der Befragten auf der Agenda. Zudem sehen 52 Prozent der deutschen sowie 44 Prozent der international Befragten vor, ihre Investitionen in Mainframe-bezogene Services (NET) zu erhöhen.

Mainframe als Innovationstreiber

Mit dem zunehmenden Anstieg von Cloud Computing, Big Data und Enterprise Mobility wird der Mainframe die notwendige Rechenleistung liefern, das heißt, er wird in den nächsten Jahren vielen technischen Neuentwicklungen den Weg bereiten. 75 Prozent der deutschen Teilnehmer der Studie und 58 Prozent der international Befragten sind der Meinung, dass der Großrechner eine zentrale strategische Plattform in ihrer Cloud Computing-Strategie ist bzw. sein wird. Insgesamt sehen die Befragten die flexible Bereitstellung neuer Services, Skalierbarkeit und Sicherheit als „wichtige“ Vorteile des Mainframe-Einsatzes, die den Weg in die Cloud ebnen. So evaluieren oder planen gegenwärtig 63 Prozent der weltweit und 69 Prozent der deutschen Befragten in den nächsten zwölf bis 36 Monaten neue Werkzeuge einzusetzen, mit denen sie schnell private und hybride Cloud-Services auf dem Großrechner einführen und kostensparend provisionieren können.

Angesichts der zunehmenden Mobilität, die sich zu einer Triebkraft von IT-Innovationen entwickelt, belegt die Studie schließlich, dass Unternehmen auch das Thema Mobilität in ihre Großrechnerumgebung integrieren. 86 Prozent der Studienteilnehmer aus Deutschland und 74 weltweit gaben an, dass sie bereits ein mobiles Management des Mainframes befürwortet haben oder dies innerhalb der nächsten 18 Monate realisieren werden.

Wandel in der Mainframe-Belegschaft

Obwohl oft von einer Verknappung der Belegschafts-Ressourcen die Rede ist, identifizierte die Studie „The Mainframe as a Mainstay of the Enterprise 2012“ auch positive Entwicklungen. Zwar gehen 76 Prozent der internationalen sowie 79 Prozent der deutschen Befragten davon aus, dass ihr Unternehmen künftig über weniger Großrechnerexpertise verfügen wird. Jedoch sind sich fast alle Befragten (98 Prozent global sowie 98 Prozent aus Deutschland) darin einig, dass ihre Unternehmen angemessen oder sehr gut darauf vorbereitet sind, die Kontinuität der Mainframe-Belegschaft sicherzustellen.

Weltweit gaben nur 7 Prozent und in Deutschland lediglich 8 Prozent der Teilnehmer an, dass sie „sehr große Schwierigkeiten“ bei der Suche nach Mainframe-Nachwuchs hätten. Dagegen berichteten 65 Prozent der deutschen Befragten von „einigen Schwierigkeiten“ in dieser Sache. Damit liegt Deutschland vier Prozent über dem internationalen Durchschnitt mit 61 Prozent. Generell lässt sich Folgendes beobachten: Trotz der weiterhin bestehenden Herausforderung, geeignetes Personal für den Großrechner zu rekrutieren, fühlen sich viele Unternehmen für die Übergangsphase gewappnet – auch wenn die Rekrutierung von geeigneten Fachkräften länger als angenommen dauert.

Die Studie belegt, dass sich die Mainframe-Belegschaft im Wandel befindet. Der Grund dafür ist die tragende Rolle, die der Großrechner im Kontext von Cloud Computing einnimmt. Umso mehr werden interdisziplinäre Fähigkeiten zum zentralen Kriterium bei der Suche nach geeigneten Bewerbern. So planen im nächsten Jahr 89 Prozent der weltweiten sowie 96 Prozent der deutschen Teilnehmer der Studie ein hybrides, Plattform-übergreifendes Management einzuführen – inklusive Design-Teams sowie übergreifender Budgets, Teams und Orgaisationsleitung. Vor diesem Hintergrund meint mehr als die Hälfte der weltweiten Befragten (56 Prozent), dass es für einen Bewerber essentiell sei, sowohl über Mainframe- als auch über übergreifende Kompetenzen zu verfügen. In Deutschland vertreten 58 Prozent diese Meinung.


Bildquelle: http://ethernetfabric.com



BT: Höhere Cloud Performance für die Life-Science-Branche

Der Netzwerk- und IT-Dienstleister BT und die Aspera Inc., Anbieter von Lösungen für Hochgeschwindigkeits-Datenübertragung, werden in Zukunft kooperieren und Asperas Datentransfer-Technologie in „BT for Life Sciences R&D“ integrieren. Dieser speziell für die Pharma Industrie entwickelte Cloud-Service ermöglicht die übergreifende Zusammenarbeit und soll helfen, die Produktivität bei Forschung und Entwicklung zu steigern.

Big Data in der Life-Science-Branche

Unternehmen aus der Life-Science-Branche müssen derzeit eine gewaltige Datenflut, die bei ihren Versuchsreihen entsteht, in den Griff bekommen. Sie müssen diese Datenmengen optimieren, managen, übertragen, speichern und sichern. Um den Datenfluss zu verbessern, nutzt BT for Life Sciences R&D Connect das globale Netzwerk von BT und verwendet künftig fasp von Aspera, eine Technologie für den Hochgeschwindigkeitstransfer. Diese ermöglicht die sichere, berechenbare und skalierbare Übermittlung ungeachtet der Datenmenge, der Entfernung zwischen den Endpunkten sowie den Netzwerkbedingungen.

fasp-Protokoll ersetzt herkömmliche Transfertechnologien

Das fasp-Protokoll von Aspera soll, nach eigenen Angaben, die üblichen Engpässe herkömmlicher Transfertechnologien beseitigen. Es bietet einen schnellen und zuverlässigen Ende-zu-Ende-Transport über öffentliche und private Netzwerke, nutzt dabei die verfügbare Bandbreite voll aus, ist unabhängig von Netzwerkverzögerungen und funktioniert auch bei starkem Paketverlust. Die Aspera-Software, die auf dem Protokoll aufbaut, ermöglicht Datenübertragungen, die bis zu 1.000 Mal schneller als die herkömmlicher Technologien sein sollen. Angewendet wird sie über eine Benutzeroberfläche, die ein grafisches Monitoring in Echtzeit, Anzeige der Bandbreitennutzung sowie Zugriffskontrolle ermöglicht. Für Sicherheit wird durch eine Authentifizierung, Datenverschlüsselung und eine Überprüfung der Datenintegrität gesorgt.


Bildquelle: http://www.semcon.com



Big Data Nutzer in Unternehmen sind vorwiegend Anwendungsentwickler

Big Data Lösungsanbieter Jaspersoft hat die Ergebnisse einer kürzlich durchgeführten Umfrage zum frühen Einsatz von Hadoop in Unternehmen veröffentlicht. Über 600 Mitglieder der Jaspersoft-Community hatten an der Big Data-Umfrage teilgenommen. Unter den Teilnehmern, die Hadoop für Big Data im Unternehmen verwenden, haben 59 Prozent bereits eine Hadoop-basierte Big Data-Lösung im Einsatz bzw. implementieren sie gerade, während 77 Prozent der Hadoop-Anwender die Big Data-Lösungen innerhalb der nächsten sechs Monate bereitstellen werden.

Ergebnisse der Umfrage

  • 63 Prozent der Hadoop-Benutzer in Unternehmen sind Anwendungsentwickler, 15 Prozent BI-Berichtsentwickler und 10 Prozent BI-Administratoren oder Gelegenheitsnutzer.
  • Nur 37 Prozent der Hadoop-Benutzer arbeiten in der Software- oder Internet-Branche. Hadoop wird in den unterschiedlichsten Branchen eingesetzt, von der Finanzbranche bis zum Bildungssektor.
  • 57 Prozent setzen Big Data mit Hadoop lokal ein, während 43 Prozent die Lösung in der Cloud bereitstellen.
  • Der beliebteste Big Data-Speicher war Hadoop HDFS (82 %), gefolgt von HBase (34 %), relationalen Datenbanken (31 %), MongoDB (30 %), Hive (25 %) und Cassandra (14 %).
  • 38 Prozent benötigen Analysen in Echtzeit bzw. nahezu Echtzeit für ihre Big Data-Anwendung mit Hadoop.


Google verbindet BigQuery mit Microsoft Excel

Googles BigQuery ist ein Cloud Service und Teil der Google Cloud Plattform, mit dem SQL-Anfragen gegen große Datenmengen (Big Data) gestartet werden können, um auf deren Basis Analysen durchzuführen. Google geht nun einen kleines Stück aus der Cloud zurück und bietet Unternehmen, die nicht auf sehr schnelle Analysen angewiesen sind, ganz gewöhnliche Batch-Abfragen und die Verbindung über Microsoft Excel.

Google verbindet BigQuery mit Microsoft Excel

BigQuery für Big Data

Google BigQuery hilft bei der Analyse großer Datenmengen und erfreut sich bereits großer Beliebtheit. Mit zwei neuen Funktionen hat Google den Service nun erweitert und damit attraktiver für noch nicht so Cloud-affine Nutzer gemacht. Ab sofort lassen sich Zeit unkritische Batchprozesse verarbeiten. Also solche, die gerne mehr Zeit benötigen dürfen und keine hohe Priorität besitzen. Mit einem Connector for Microsoft Excel lässt sich der BigQuery Service zudem nun mit Microsofts Tabellenkalkulation verknüpfen.

Google passt BigQuery den Anforderungen an

Google konzentriert sich mit den neuen Funktionen insbesondere auf normale Use Cases wie Standard Abfragen oder dem Erstellen von nächtlichen Auswertungen, die Unternehmen zwar weiterhin benötigen aber nicht zeitkritisch abgearbeitet werden müssen. Das merkt man auch am Preis. Die bisherigen Abfragen mit einer hohen Performance kosten 3,4 Cent pro GB. Die neuen langsameren Abfragen kosten hingegen nur 2 Cent pro GB.

Neben den normalen Use Cases adressiert Google mit dem Excel Connector vor allem die traditionellen Nutzer und wird diese damit näher an die Cloud und vor allem an BigQuery heranbringen. Viele Analysten, Buchhalter, Finanzberater usw. arbeiten noch klassisch mit ihren Excel Tabellen. Diese wissen nicht, was ein Hadoop Cluster ist und wollen bzw. müssen dies auch nicht wissen. Der Excel Connector kann ein richtiger Schritt sein, diese Zielgruppe zu gewinnen, ihre Daten zwar weiter per Excel zu pflegen die Auswertungen aber von BigQuery durchführen zu lassen. Aus Erfahrung ist es leichter, den Anwendern ihre bekannten Applikationen weiter nutzen zu lassen und diese stattdessen mit weiteren Services im Hintergrund aufzuwerten.



Trends und Fakten rund um den Cloud Computing Markt

Auch wenn die Meinungen und Reaktionen rund um die Cloud immer sehr "vielfältig" ausfallen, ist die generelle Meinung, dass Cloud Computing rasant wächst und weiter stark wachsen wird. Während die Marktforscher von Market Research Media dem Cloud Markt bis 2020 ein Wachstum von 270 Milliarden US-Dollar voraussagen, ist Forrester ein wenig vorsichtiger und vermutet bis 2014 ein Wachstum von ca. 55 Milliarden US-Dollar.

Aktuelle Fakten und Trends im Cloud Computing Markt

Aber wie wird sich der Cloud Markt in Zukunft verhalten und welche Trends erwarten uns? In das Orakel zu schauen, was in der Zukunft passieren wird und wie sich das genau in Zahlen niederschlägt ist sehr schwierig. Umsonst müssen sich die Marktforscher nicht immer mal wieder nach unten korrigieren. Dennoch sind die Zahlen gute Richtwerte und anhand der aktuellen Marktentwicklung lassen sich gut neue Trends und Bedürfnisse erkennen.

Software-as-a-Service (SaaS)

Der SaaS-Markt bietet auf Grund seiner Vielfalt und Möglichkeiten das größte Marktsegment in der Cloud und wird damit auch der größte Bereich im Cloud Computing Markt bleiben. Gartner hat hier verschiedene Kategorien von SaaS Applikationen differenziert. Dazu gehören aktuell CRM, ERP, Web Conferencing, Kollaborationsplattformen und Social Software Suites.

Infrastructure-as-a-Service (IaaS)

IaaS wird in den kommenden Jahren ein stetiges Wachstum behalten. Allerdings sieht Forrester in Dynamic Infrastructure Services auf lange Sicht mehr Potential als in IaaS. Dennoch sollte man nicht vernachlässigen, dass IaaS die Lösung für die Herausforderungen von Big Data ist.

Platform-as-a-Service (PaaS)

Nach einer Gartner Studie hat PaaS das schnellste Wachstum von allen Services in der Cloud. Die Wachstumsraten in den jeweiligen PaaS Teilsegmenten gliedern sich dabei wie folgt auf: Anwendungsentwicklung (22%), Datenbankmanagementsysteme (48.5%), Business Intelligence Plattformen (38.9%) und Anwendungsinfrastruktur und Middleware (26.5%).

Business Process Management

Der Cloud BPM (bpmPaaS) Markt soll von Jahr zu Jahr um ca. 25% wachsen. 40% der Unternehmen die bereits BPM einsetzen, nutzen BPM aus der Cloud. Gartner hat mehr als 30 bpmPaaS Anwendungen und Plattformen identifiziert und hat diese als Model-Driven BPM-Plattform in der Cloud kategorisiert, mit denen Prozess-orientierte Anwendungen der nächsten Generation entwickelt werden sollen, die für Differenzierung und Innovation sorgen werden.

Big Data

Big Data wird, laut Gartner, den Unternehmen in den nächsten 2 bis 5 Jahren entscheidende Vorteile bringen. Bis 2015 soll Big Data den Unternehmen dabei helfen einen strategischen Vorteil gegenüber des Mitbewerbs zu erhalten. Gartner definiert Big Data dabei als Methode um große Datenmengen, zusätzlich zur Batch-Verarbeitung, fließend zu verarbeiten. Integraler Bestandteil von Big Data ist ein erweiterbares Framework, dass Daten direkt verarbeitet oder diese an einen Prozess-Workflow weiterleitet. Gartner unterscheidet Big Data dabei zusätzlich in strukturierte und unstrukturierte Daten.

Cloud Business Marketplaces

Cloud Marketplaces gehören zu der logischen Entwicklung des Cloud Computing, um Unternehmen und Entwicklern den einfachen Zugriff auf IT-Ressourcen zu ermöglichen. Neben einer gut dokumentierten API gehören ebenfalls übersichtliche und umfangreiche Web-Oberflächen zu einem guten Cloud Angebot, die es dem Nutzer ermöglichen sich "auch mal eben" eine Cloud Infrastruktur "zusammenzuklicken", um z.B. ein paar Tests durchzuführen. Bereits viele Anbieter sind auf diesen Zug aufgesprungen und ermöglichen über einen eigenen Cloud Marktplatz den Zugriff auf ihre IaaS-Ressourcen. Zudem reichern sie ihre Infrastruktur-Angebote über den Marktplatz mit Betriebssystem-Images oder weiteren Software-Lösungen an, um den virtuellen Ressourcen damit einen echten Nutzen zu geben.

Cloud Brokerage Services

Das Cloud Services Brokerage Modell bietet ein architektonisches-, business-, und IT-Betriebs-Modell, mit dem verschiedene Cloud Services bereitgestellt, verwaltet und adaptiert werden können. Und das sich innerhalb eines föderierten und konsistenten Bereitstellung-, Abrechnung-, Sicherheit-, Administration- und Support-Framework befindet.

Unternehmen werden damit in die Lage versetzt, ihr Cloud-Services Management zu vereinheitlichen, um damit den Innovationsgrad zu erhöhen, die globale Zusammenarbeit zu verbessern, die Betriebskosten zu senken und insgesamt besser zu wachsen. Cloud Computing Anbieter erhalten damit die Möglichkeit die Bereitstellung ihrer Cloud Services zu vereinheitlichen und ihr eigenes Services Netzwerk zu differenzieren und damit eine umfangreiche Cloud Computing Plattform bereitzustellen. Technologie-Anbieter können damit ein Ökosystem von Mehrwertdiensten aufbauen, um ihre wichtigsten Angebote zu differenzieren, die Kundenbindung erhöhen und neue Vertriebswege erschließen.

Ein Cloud Service Broker ist ein Drittanbieter, der im Auftrag seiner Kunden Cloud Services mit Mehrwerten anreichert und dafür sorgt, dass der Service die spezifischen Erwartungen eines Unternehmens erfüllt. Darüber hinaus hilft er bei der Integration und Aggregation der Services, um ihre Sicherheit zu erhöhen oder den originalen Service mit bestimmten Eigenschaften zu erweitern.

Master Data Management (MDM)

Master Data Management (MDM) Lösungen aus der Cloud und hybride IT Konzepte sind das erste Mal im Hype Cycle vertreten. Gartner erwartet, dass MDM Lösungen aus der Cloud ein steigendes Interesse in Unternehmen erhält, da das allgemeine Interesse an MDM stetig steigt. Als führende Anbieter in diesem Bereich sieht Gartner Cognizant, Data Scout, IBM, Informatica, Oracle und Orchestra Networks.

Private Cloud

Die Private Cloud gehört zu den beliebtesten Cloud Deployment Modellen. Laut einer Gartner Umfrage planen 75% der Befragten bis 2014 eine Strategie in diesem Bereich. Bereits viele unterschiedliche Unternehmen haben Private Cloud Lösungen in Pilot-Projekten und im produktiven Betrieb im Einsatz. Dabei ist das Hauptziel, für sich den größten Nutzen aus der Virtualisierung zu ziehen.

Fazit

Unabhängig von den oben getroffenen Annahmen werden alle Segmente des Cloud Computing Markt durch den Zustand unserer Wirtschaft und die weltweite Nachfrage nach IT-Dienstleistungen beeinflusst werden. Cloud Computing ist ein attraktiver Wachstumsmarkt besonders für kleine- und mittelständische Unternehmen, aber bietet ebenfalls ein erhebliches Potenzial für Unternehmen jeder Größe.


Bildquelle: http://www.moeller-horcher.de



SAP wächst und profitiert von der Cloud

Mit dem Verkauf von Software erzielte die SAP AG im zweiten Quartal 2012 einen Rekordumsatz von mehr als 1 Milliarde EUR. Zudem wiesen alle Regionen ein zweistelliges Wachstum bei den Softwareerlösen aus. Das Cloud-Wachstum setzte sich für SuccessFactors (auf Stand-alone-Basis) mit einem Anstieg der durch Neu- und Erweiterungsgeschäft generierten 12-Monats-Abrechnungsvolumina um 112 % im Vorjahresvergleich fort. Insbesondere SuccessFactors sei für SAP der Treiber für die Strategie, führender Anbieter im Cloud-Bereich zu werden. Die Big Data Lösung SAP HANA sorgte für einen Umsatz von 85 Millionen EUR. Der Bereich Mobile bescherte SAP einen Umsatz von 54 Millionen EUR.

Cloud, Mobile und In-Memory-Computing sind auf Kurs

Die Innovationsstrategie sei laut SAP klar auf die Bedürfnisse der eigenen Kunden ausgerichtet und soll den Kunden einen Mehrwert bringen. Insbesondere durch innovative Lösungen in den Bereichen Cloud, Mobile und In-Memory-Computing möchte SAP seinen Kunden neben den bestehenden Kernanwendungen weitere Lösungen liefern und sieht sich auf einem guten Weg bis 2015 die gesteckten Ziele zu erreichen.

Positive Vorzeichen für das Gesamtjahr 2012

SAP erwartet, dass die Software- und softwarebezogenen Serviceerlöse (Non-IFRS) für das Geschäftsjahr 2012 ohne Berücksichtigung der Wechselkurse um 10 % bis 12 % steigen werden (2011: 11,35 Mrd. €). Dies beinhaltet einen Beitrag ihres Cloud Stars SuccessFactors von bis zu 2 Prozent-punkten. Zudem wird erwartet dass das Betriebsergebnis (Non-IFRS) für das Geschäftsjahr 2012 ohne Berücksichtigung der Wechselkurse in einer Spanne von 5,05 Mrd. € bis 5,25 Mrd. € (2011: 4,71 Mrd. €) liegen wird. Das Betriebsergebnis (Non-IFRS) ohne den Beitrag von SuccessFactors soll in einer ähnlichen Spanne liegen.



Jaspersoft wird Teil des Google Cloud Platform-Partnerprogramm – Big Data Analyse mit Google BigQuery

Business Intelligence-(BI)-Plattform Anbieter Jaspersoft wird Teil des Google Cloud Platform-Partnerprogramm. Über dieses Programm stellt das Unternehmen als Technologiepartner seinen Open Source-Konnektor für Google BigQuery-Kunden bereit, mit dem Business Intelligence-Berichte und Analysen auf der Google Cloud Platform durchgeführt werden können. Mit diesem Konnektor lassen sich die BI-Tools von Jaspersoft in die Google Cloud Platform integrieren. Auf diese Weise wird der Zugriff auf Reporting- und BI-Analyse-Anwendungen über ein integriertes Tool ermöglicht.

Jaspersoft wird Teil des Google Cloud Platform-Partnerprogramm

Das Google Cloud Platform-Partnerprogramm

Dem Google Cloud Platform-Partnerprogramm sind bereits Technologiepartner wie Internetdienst- und SaaS-Anbieter, Plattformunternehmen, Anbieter von Management- und Entwicklungstools, Anbieter von Analyse-, BI- und ETL-Lösungen sowie Speicherspezialisten beigetreten. Diese Partner tragen Zusatztechnologien bei, die bereits in die Plattform integriert wurden, um den Kunden leistungsfähige neue Lösungen auf der Basis der Google Cloud Platform anbieten zu können.

Die Google Cloud Plattform im Detail

Die einzelnen Services der Cloud Platform von Google ermöglichen die Implementierung der folgender Lösungen:

  • Cloud Apps wie mobile Anwendungen, Social Media-Anwendungen, Geschäftsprozess-Anwendungen und Websites mit der Google App Engine und Google Cloud SQL.
  • Cloud Storage Lösungen wie High-End-Backup und -Recovery, aktive Archivierung, globales File Sharing/Zusammenarbeit und primäres SAN/NAS mit Google Cloud Storage.
  • Lösungen für die Verarbeitung umfangreicher Datenmengen wie Batch- und Datenverarbeitung sowie High Performance Computing mit der Google Compute Engine.
  • Big Data-Lösungen wie interaktive Tools, Trenderkennung und BI-Dashboards mit Google BigQuery und der Google Prediction-API.

Jaspersoft setzt auf Google BigQuery

Jaspersoft will die Möglichkeit nutzen, seine Business Intelligence-Produkte mit der Leistungsfähigkeit von Googles Cloud Platform zu vereinen. Zudem stellt sie eine breite Palette von Funktionen für die Anwendungsentwicklung, Cloud Storage sowie für die Verarbeitung umfangreicher Datenmengen und die Big Data-Verarbeitung bereit und bietet unseren Kunden Big Data-Reporting- und -Analysefunktionen für beliebige Datentypen.

Dazu fokussiert sich Jaspersoft mit seinem Konnektor auf Google BigQuery, um damit weitere Funktionen bereitzustellen:

  • Sicherheit. Jaspersoft nutzt die OAuth-Token-Authentifizierung von Google für die Bereitstellung einer sicheren Verbindung.
  • Schnelligkeit. Mit dem Konnektor soll die Skalierbarkeit von BigQuery voll ausgenutzt werden können um auf diese Weise Millionen oder sogar Milliarden von Zeilen zu verarbeiten.
  • Flexibilität. Der Konnektor unterstützt die unbeschränkte Verwendung der gesamten BigQuery-SQL-Abfragesyntax.
  • Nahtlose Integration. Mit dem Konnektor lassen sich die Leistungsfähigkeit von BigQuery und die Stabilität der Dashboards, interaktiven Berichte und Ad-hoc-Analysen von Jaspersoft kombinieren.
  • Offenheit. Der Konnektor steht als Open Source-Komponente unter www.jasperforge.com kostenlos zur Verfügung. Der Quellcode steht unter http://code.google.com/p/jaspersoft-bigquery-datasource unter der AGPL-Lizenz zur freien Verwendung für Entwickler bereit.


Big Data: Nodeable Cloud Service StreamReduce analysiert Datenströme in Echtzeit

Apache Hadoop gilt als der letzte Schrei in Unternehmen wenn es darum geht, Systeme zur Verarbeitung und Analyse großer Datenmengen (Big Data) zu installieren. Allerdings hat die beliebte Batch-Processing Lösung auch seine Schwächen. Eine davon ist, dass Hadoop eher träge ist und Zeit benötigt, um in Betrieb genommen zu werden. Zudem existiert keine gute Benutzeroberfläche, die man nur von Cloudera, Greenplum, Hortonworks usw. erhält. Zu guter Letzt ist Hadoop nicht in der Lage Daten in Echtzeit zu verarbeiten.

Big Data: Nodeable Cloud Service analysiert Datenströme in Echtzeit

Nodeable ändert Unternehmensstrategie

Nodeable begann im Jahr 2011 als Twitter ähnlicher Benachrichtigungsdienst für das Systemmanagement, hat nun aber seine Unternehmensstrategie geändert, da das Unternehmen erkannt haben mag, dass Hadoop nicht benutzerfreundlich genug sei und dafür eine Lösung benötigt wird. Dazu hat Nodeable sein Produkt neu definiert und bietet nun einen neuen Cloud Service für die Verarbeitung und Analyse von Datenströmen in Echtzeit.

StreamReduce verarbeitet Big Data Ströme in Echtzeit

Der Service nennt sich StreamReduce, läuft auf Twitters Open Source Framework und ist nach eigenen Angaben deutlich schneller als das herkömmliche Hadoop Front-End. Darüber hinaus arbeitet es mit anderen Batch-Processing Systemen wie bspw. Amazon Elastic Map Reduce zusammen.

Fast ein Jahr arbeitete Nodeable mit 400 Beta Nutzern eng zusammen, die das Team immer wieder daran erinnert haben, dass die Echtzeit-Analyse von Daten höchste Priorität hat. Batch-Workflows sind zu langsam, um aus den gesammelten Daten schnell nützliche Informationen zu gewinnen.

StreamReduce hilft bei einer Vielzahl von Use Cases, darunter die Analyse von Log-Strömen und das Klickverhalten in Echtzeit sowie das Erkennen von Anomalien in Amazon EC2 Instanzen, Sicherheitslücken und Betrugsversuche, das Auswerten von mobilen- und Geo-Daten und kann für gezielte Werbe- und Marketing-Aktivitäten eingesetzt werden. Dazu lässt sich StreamReduce mit verschiedenen externen Anbietern und Systemen integrieren, darunter die Amazon Web Services, Salesforce, Twitter, Google Analytics, Github und Puppet.

StreamReduce kann für 99 US-Dollar pro Monat genutzt werden.



Assure Analytics: BT veröffentlicht Big Data Lösung zur Analyse von Sicherheitsrisiken

Netzwerk- und IT-Dienstleister BT bringt mit Assure Analytics einen neuen Service für die Analyse von "Big Data" auf den Markt. Dieser ermöglicht es Unternehmen, große strukturierte und unstrukturierte Datenbestände zusammenzuführen, aufzubereiten und diese auszuwerten. Die Daten werden visuell aufbereitet, damit Entscheidungen sehr zeitnah und dennoch im Detail getroffen werden sollen. Im Vordergrund steht dabei die Analyse komplexer sicherheitsrelevanter Daten.

Assure Analytics: BT veröffentlicht Big Data Lösung zur Analyse von Sicherheitsrisiken

Big Data Analysen in Echtzeit

BT Assure Analytics ist in der Lage - fast in Echtzeit - strukturierte und unstrukturierte Daten aus verschiedenen Quellen – wie E-Mails, Reporting-Systemen, Datenbanken und News Feeds – zusammenzuführen und erzeugt aus den extrahierten Informationen grafische Darstellungen für die Anwender in Unternehmen. Dargestellt werden die Angriffs-Muster, Bedrohungen, Abhängigkeiten und möglichen Folgen für das Unternehmen in geografischen Karten und Diagrammen. Die Ergebnisse ermöglichen es, Richtlinien für den Einsatz von Ressourcen und den Umgang mit Bedrohungen und Sicherheitsrisiken zu entwickeln.

Eat your own dog food

BT setzt Assure Analytics bereits selbst ein, um sein Telefonnetz in Großbritannien vor Kabeldiebstahl zu schützen. Der Service hilft dem Unternehmen, Kriminalitätsstatistiken, Fehlermeldungen und geografische Informationen zu analysieren. So lassen sich Regelmäßigkeiten erkennen und die Regionen identifizieren, in denen besonders häufig Kabel gestohlen werden. Diese Informationen fließen in die Strategie zur Vorbeugung und Reaktion auf solche Vorfälle ein. Zudem besteht die Möglichkeit, die Anwendung in die unternehmenseigene Lösung "Rabit" zu integrieren. Sie alarmiert bei einem Kabeldiebstahl frühzeitig BT und die Polizei.

Kooperation mit Cisco

BT Assure Analytics setzt via SecureLogix auf den Cisco UC Gateway Services API, dessen Richtlinien für den Einsatz der Voice-Technologie sowie Sicherheitsanwendungen in den Voice Gateway integriert sind. Da der Service auf die Secure Logix- und Cisco-Lösungen aufbaut, kann er auf Daten- oder Voice-Pakete zugreifen – sowohl auf Basis von SIP (Session-Initiation-Protocol) als auch TDM (Time-Division-Multiplex). Er liefert somit Sicherheitsservices integriert und zentral auf einer Plattform, der Cisco ISR G2.



Cloud Computing und Collaboration treibt Big Data in die deutschen Unternehmen

Die Menge der Daten, die in deutschen Unternehmen verarbeitet werden, steigt explosionsartig an. Im Schnitt erwarten IT-Entscheider einen Zuwachs von mehr als 40 Prozent in den kommenden zwei Jahren, wie eine aktuelle Studie im Auftrag von BT Germany ergeben hat. Die IT-Verantwortlichen haben die strategische Relevanz von "Big Data" erkannt und erwarten erhebliche Auswirkungen auf die Unternehmens-IT. Vor allem bei Bandbreitenkapazität, Server- und Storage-Infrastrukturen besteht noch erheblicher Handlungsbedarf.

Cloud Computing und Collaboration treibt Big Data in die Unternehmen

Big Data ist kein Buzz Word mehr

Die Ergebnisse der Studie "Datenexplosion in der Unternehmens-IT" zeigen: "Big Data" ist längst mehr als ein reiner Trendbegriff. So geht ein Viertel der befragten Entscheider sogar davon aus, dass das Datenvolumen in ihrem Unternehmen bis Ende 2014 um mehr als 60 Prozent ansteigen wird, im Durchschnitt aller Befragten wird immerhin ein Wachstum um 42 Prozent erwartet. Für die strategische Relevanz des Themas spricht, dass sich knapp über die Hälfte der Unternehmen bereits mit dem Thema "Big Data" beschäftigt hat. Ein weiteres Viertel der Befragten plant, sich künftig mit dem Thema zu befassen. Konkret haben jedoch lediglich acht Prozent der Unternehmen entsprechende Lösungen schon in ihre Prozesse integriert.

Wie schnell wachsen die Daten?

Die Entscheider treibt vor allem die Frage um, mit welcher Geschwindigkeit sich das Datenwachstum vollzieht und wie sich darauf reagieren lässt. Dabei zeigt sich: Das Datenwachstum hat aus Sicht der Befragten vor allem immense Auswirkungen auf die unternehmenseigene Infrastruktur.

So erwarten drei Viertel der Entscheider (76 Prozent) erhebliche Auswirkungen im Bereich der Storage-Systeme durch das Big-Data-Phänomen. Zwei Drittel (64 Prozent) sehen einen großen Handlungsbedarf bei der Server- und Netzwerkinfrastruktur sowie der Bandbreitenkapazität auf sich zukommen, während nur rund die Hälfte (55 Prozent) große Auswirkungen bei den Analyse- und Reporting-Systemen vorhersieht.

Als zentrale Treiber für das globale Datenwachstum sehen die Befragten vor allem die mobile Internetnutzung (59 Prozent), Cloud Computing (53 Prozent) sowie die internetbasierte Kommunikation via VoIP, Video, Chat und Unified Communications (47 Prozent) an. Auch die Nutzung von Social Media (44 Prozent) gilt als wesentlicher Faktor, sorgt sie doch für eine virale Verbreitung von Inhalten über eine Vielzahl von Plattformen. Die Digitalisierung von Geschäftsmodellen (34 Prozent), z.B. in Form von eCommerce und Online-Werbung, trägt nach Ansicht der IT-Verantwortlichen ebenfalls maßgeblich zur wachsenden Datenmenge bei.

Cloud Computing ist Treiber für Big Data

Innerhalb der Unternehmen ist Cloud Computing der wichtigste Treiber für das Datenwachstum – 42 Prozent der Befragten gaben dies als Grund an, gefolgt von Collaboration (34 Prozent) und der Digitalisierung von Geschäftsmodellen (32 Prozent). Die Nutzung von Social Media und Video Streaming spielt innerhalb der Unternehmen nur eine untergeordnete Rolle (12 bzw. 9 Prozent).

Die Unternehmen haben wiederum große Erwartungen an Big Data: Wenn sich der immer größere Datenbestand in Zukunft systematisch verarbeiten und auswerten lässt, erhoffen sie sich positive Auswirkungen auf ihr Geschäft.

Unternehmen mit mehr als 1.000 Mitarbeitern erwarten dabei vor allem eine bessere Aussteuerung von Vertriebs- und Marketingkampagnen (41 Prozent) und geringere Kosten durch optimierte Logistikprozesse (41 Prozent). Bei den Unternehmen mit 500 bis 1.000 Mitarbeitern geht es den Verantwortlichen vor allem um bessere Informationen über das Informations- und Konsumverhalten ihrer Kunden (46 Prozent) und um eine bessere Einschätzung von Marktpotenzialen und Business Cases (38 Prozent).



Big Data: MapR integriert seine Hadoop Distribution mit der Google Compute Engine

MapR Technologies, Softwareanbieter für die Analyse großer Datenmengen, wird in Zukunft seine eigene Apache Hadoop Distribution für Googles Infrastructure-as-a-Service Google Compute Engine bereitstellen. MapR für die Google Compute Engine wird zunächst kostenlos als Private Beta für eine ausgewählte Anzahl von Benutzern zur Verfügung stehen. Wer Interesse an der Big Data Analyse hat, kann sich hier dafür bewerben.

Big Data: MapR integriert seine Hadoop Distribution mit der Google Compute Engine

Big Data Analyse auf der Google Compute Engine

Mit der Kombination von Googles neuen IaaS und MapRs Hadoop sind Nutzer damit in der Lage große Implementierungen von MapR Cluster on-Demand bereitzustellen und sich damit ein Cloud-basiertes System für die Analyse großer Datenmengen aufzubauen. Google hatte MapReduce ursprünglich für sein interes Such-Framework entwickelt.

Ein Meilenstein für die Big Data Analyse

Während der Google I/O demonstrierte MapR bereits, zu was seine Hadoop Implementierung in der Lage ist. Ein 1TB TeraSort Job wurde innerhalb von 1 Minute und 20 Sekunden verarbeitet. Dabei nutzte MapR einen Google Compute Engine Cluster bestehend aus 1.256 Nodes, 1.256 Platten und 5.024 Cores für gerade einmal 16 US-Dollar.

Zum Vergleich: Der aktuelle Weltrekord für den TeraSort liegt bei 1 Minute und 2 Sekunden. Dazu wurde ein physikalischer Cluster mit mehr als vier Mal so vielen Festplatten, doppelt so vielen Cores und weitere 200 Server benötigt. Kosten: Mehr als 5.000.000 US-Dollar.

Integration

Für die Integration von MapR mit der Google Compute Engine stehen mehrere Standard MapR Konfigurationen zur Verfügung. Nutzer können die Google Compute Engine je nach Bedarf nutzen und können, wenn nötig, mehr als 1.000 Node Cluster starten.



Big Data: Red Hat veröffentlicht seinen Storage Server 2.0

Auf der Suche nach einem on-Premise Cloud Storage oder Probleme mit Big Data? Dann hat RedHat da etwas neues im Portfolio, den Red Hat Storage Server 2.0. Die Open-Source-Storage-Lösung hilft beim Management unstrukturierter Daten und setzt nach Angaben des Open Source Giganten neue Standards im Enterprise- und Cloud-Storage-Markt. So soll die Lösung die Innovationen aus der Open-Source-Community zusammen mit der Leistungsfähigkeit standardbasierter x86-Server kombinieren und ermöglicht vielfältige Storage-Lösungen in den Rechenzentren vor Ort, in der Cloud und in hybriden Umgebungen.

Biiiig Data

Dank Social Media, Dokumenten, E-Mails, Bildern, Video- und Audio-Daten explodieren branchenweit die Mengen an unstrukturierten Daten. Das Wachstum der Daten übertrifft bei Weitem das der strukturierten Daten. Bis zum Jahr 2020 sollen laut Cisco 50 Milliarden Geräte mit dem Internet verbunden sein. Diese Prognose wird von einer IDC Studie unterstützt, nach der das digitale Ungetüm um das 50-Fache anwachsen wird – wobei wir hier von 90 Prozent an unstrukturierten Daten sprechen, die 2011 bereits 1,8 Zetabyte umfassten. Mit diesen Hintergrundinformationen stehen Unternehmen vor erheblichen Herausforderungen, die Daten zu verarbeiten und zu speichern. Proprietäre, monolithische Hardwarelösungen sind nicht dafür ausgerüstet und bieten den Unternehmen keine dafür geeigneten kostengünstigen Möglichkeiten.

RedHat hat dafür was im Portfolio

Die Storage-Lösung von Red Hat greift auf die Innovationen aus der Open-Source-Community zurück, um dieses riesige Wachstum zu bewältigen. Der Red Hat Storage Server 2.0 ermöglicht dazu eine Zusammenführung von File Storage und Object Storage. Dazu können Unternehmen sehr große Datenmengen in einem einzigen Storage-Pool gemeinsam speichern. Die Kombination von File und Object Storage soll die Verwaltung unterschiedlichster Daten vereinfachen und Unternehmen eine höhere Speicher- und Informationsflexibilität bieten, um das rasante Wachstum unstrukturierter Daten zu bewältigen und schneller sowie kostengünstiger auf die Daten zugreifen zu können.

Anhand des Red Hat Enterprise Linux soll der Red Hat Storage Server für mehr Wahlfreiheit sorgen und Unternehmen helfen leistungsfähige, skalierbare und verfügbare Speicherlösungen aufzubauen. Der Red Hat Storage Server adressiert das eigene Rechenzentrum, Private oder Public Cloud sowie hybride Umgebungen und eignet sich für das Speichern großer Datenmengen in den Bereichen High Performance Computing, arbeitsplatznahe Archivierung und die Ablage von Medieninhalten.

Die Funktionen des Red Hat Storage Server 2.0

  • Kompatibel mit mehr als 50 Dual-Socket-x86-Servern unterschiedlicher Hardwarehersteller
  • Unterstützt verschiedene Dateizugriffsprotokolle wie Common Internet File System (CIFS), Network File System (NFS), HTTP und OpenStack
  • Hohe Sicherheit ohne Kompromisse bei der Zugänglichkeit und Verfügbarkeit der Daten, einschließlich Georeplikation. Damit lassen sich selbst anspruchsvollste Speicherlösungen aufbauen.

Big Data und Hadoop

Die Software unterstützt Big Data Infrastrukturen und ist mit Apache Hadoop kompatibel. Dazu lässt sich der Red Hat Storage Server entweder zusammen mit dem Hadoop Distributed File System (HDFS) oder alleine nutzen. Er soll für einen schnellen Datenzugriff sorgen und öffnet Hadoop-Implementierungen für datei- oder objektbasierte-Applikationen. Die Managementkonsole des Red Hat Storage Server basiert auf dem oVirt-Projekt – einer Open-Source-Infrastruktur- und Virtualisierungsmanagementplattform – und bietet Administratoren von einem Punkt aus einen vollständigen Überblick über die Storage-Cluster.


Bildquelle: http://www.hostingtecnews.com



Big Data: Jaspersoft geht in die GoGrid Cloud

Business Intelligence Anbieter Jaspersoft und Cloud Anbieter GoGrid gehen in Zukunft gemeinsame Wege. Die Open Source BI Plattform von Jaspersoft wird dazu auf dem GoGrid Exchange Ökosystem zur Verfügung gestellt. Mit GoGrid Exchange können Kunden Cloud-basierte Software als Teil ihrer IT-Infrastruktur einsetzen. Unter Einsatz der GoGrid Server Image (GSI) Technologie sind Unternehmen und Entwickler jetzt in der Lage die BI-Reporting-Funktionalitäten von Jaspersoft nutzen.

Big Data treibt Reporting und Analysen

Reporting und Analysen werden in aufkommenden Zeiten von Big Data immer wichtiger für die Entwicklung und den Einsatz von datengetriebenen Anwendungen. Cloud Angebote ermöglichen es, solche Lösungen überall performant und skalierbar verfügbar zu machen, um Unternehmen bspw. einen einfachen Zugriff auf BI-Technologie mit einer eine robusten Reporting-Lösung zu ermöglichen.

Jaspersoft und GoGrid auf einem Blick

Kunden sollen von der Partnerschaft wie folgt profitieren:

  • Zugang zu webbasierter Business Analytics – über jeden Browser, auch von mobilen Endgeräten aus
  • Umfassende Unterstützung für Mandantenfähigkeit bei dem Einsatz komplexer Anwendungen
  • Datenintegration aus jeglichen Datenquellen: aus der Cloud oder von on-Premise, einschließlich Jaspersoft BI for Big Data oder GoGrid Big Data Solution.

Infrastructure-as-a-Service ist Grundlage für Big Data

Infrastructure-as-a-Service (IaaS) gehört zu einer zentralen Cloud Strategie, wenn Unternehmen BI-Anwendungen einsetzen, aber nicht direkt für den operativen Ablauf, Storage, Hardware und Netzwerkkomponenten verantwortlich sein wollen. Zudem stellt IaaS auf Grund der massiven Skalierbarkeit der Infrastruktur die ideale Grundlage für Anwendungen und Analysen rund um das Thema Big Data dar.


Bildquelle: http://www.newelements.de



Big Data Index: MongoDB führt dicht gefolgt von Cassandra

Im Rahmen des ersten branchenweiten Big Data Index, hat der Business Intelligence Anbieter Jaspersoft für das zweite Quartal 2012 die Nachfrage nach den beliebtesten Datenquellen für das Speichern, Analysieren und Darstellen von Big Data gemessen. Dabei basiert der Index auf auf der Gesamtanzahl der heruntergeladenen nativen Konnektoren von der Open Source Community Webseite Jasperforge.

Neben Hadoop Hive, Hadoop HBase, MongoDB, DataStax Cassandra, Riak, Red Hat Infinispan, Neo4J, Redis, CouchDB und VoltDB erfasst der Big Data Index eine breite Palette von NoSQL- und Big Data-Umgebungen. Aus den im Zeitraum von Januar 2011 bis Mai 2012 erfassten Daten wurden die Wachstumstrends für Big Data-Auswertungen ermittelt und eine Rangfolge der einzelnen Datenquellen erstellt.

Zu den wichtigsten Merkmalen des Big Data Index zählen:

  • Im Vergleich zu 2011 sind Big Data-Downloads derzeit dabei um 92 Prozent zu wachsen.
  • Mehr als 10.000 Big Data-Konnektoren wurden in 2012 heruntergeladen.
  • Mit 58 Prozent der Downloads konzentriert sich seit Januar 2011 der Großteil der
    Nachfrage auf Datenspeicher. Mit jeweils 20 Prozent und 19 Prozent der Nachfrage
    belegen Key-Value-Stores und Big Table Clones die Plätze zwei und drei.
  • In 2012 vereinen Datenspeicher mehr als 70 Prozent der Nachfrage auf sich. MongoDB
    von 10gen bleibt weiterhin Spitzenreiter in dieser Gruppe.
  • Allein im Mai 2012 verzeichnet Cassandra von DataStax ein Nachfragezuwachs von
    knapp 100 Prozent.
  • Die Downloadrate von Hadoop Hive ist konstant, d.h. eine stabile Nachfrage von 2011
    bis 2012.

Seitdem Analysten damit beginnen, Log-Dateien, Social Media, Gaming Websites usw. auszuwerten, zeigt sich deutlich, wie wertvoll Big Data in den kommenden Jahren werden wird.



HP steigt in den Big Data Markt ein

Im Rahmen seiner HP Discover in Las Vegas stellt HP neue Lösungen zur Information Optimization vor. Diese basieren auf den Technologien Autonomy, Vertica und der HP Converged Infrastructure und umfassen Services von HP Information Management & Analytics. Unternehmen sollen damit ihre stetig wachsenden Datenmengen verwalten, verstehen und nutzbar machen. Die Lösungen beziehen strukturierte, unstrukturierte und semi-strukturierte Daten ein, egal ob sie aus betrieblichen Abläufen, Anwendungen oder von Sensoren stammen. So können beispielsweise auch Statements auf Internet-Plattformen wie Twitter und YouTube, oder die von Sensoren erfassten Pfade, die Kunden in Geschäften zurücklegen, für Marktforschungszwecke ausgewertet werden.

So soll bspw. das HP AppSystem for Apache Hadoop es ermöglichen, Hadoop-Umgebungen schneller einzurichten und ihre Leistungsfähigkeit bei der Speicherung, Verwaltung und Verarbeitung der riesigen Datenmengen zu steigern. Mit Vertica 6 sollen Anwender in die Lage versetzt werden auf sämtliche Informationen zuzugreifen, diese zu analysieren und zu verwalten - unabhängig von ihrer Art, dem Speicherort oder dem verwendeten Zugriff. Die Integration der Datenanalyse-Plattform Autonomy Intelligent Operating Layer (IDOL) 10 in Hadoop-Nodes soll zudem das Verständnis der Inhalte durch Kategorisierungen, Clustering und Verknüpfungen steigern.

Big Data in Hadoop-Umgebungen besser nutzen

Mit HP AppSystem for Hadoop bietet HP eine Appliance für Hadoop-Umgebungen. Diese ist voraussichtlich ab dem vierten Quartal 2012 verfügbar und vereint die HP Converged Infrastructure, ein übergreifendes Management mit der Software HP Insight Cluster Manager sowie eine weitreichende Integration mit Vertica 6. Unternehmen nutzen Hadoop zunehmend für die Speicherung und Verwaltung von Petabytes an Informationen. Mit der Appliance von HP können sie Hadoop-Infrastrukturen zunächst in Testumgebungen aufbauen und später einfach in den Produktivbetrieb übernehmen. Dies soll die Implementierung von Hadoop vereinfachen und beschleunigen. Als erster Anbieter bietet HP zudem Referenzarchitekturen, Werkzeuge und Whitepaper für die wichtigsten Hadoop-Lösungen Cloudera, Hotronworks und MapR. Darüber hinaus erwartet das Unternehmen, das mit dem HP AppSystem die Qualität und Geschwindigkeit von Analyseprozessen in Hadoop durch die Integration von Vertica 6 verbessert wird. So war im Rahmen des standardisierten Tests Apache Hadoop Terasort Benchmark die HP-Lösung in der Lage, 10 Terabyte in rund 1,5 Stunden zu verarbeiten. Sie war damit 3,8 respektive 2,6 Mal schneller als vergleichbare Lösungen von Oracle und SGI. Durch Technologien zur 3D-Überwachung erkennt die Appliance Engpässe in den Abläufen und identifiziert das ursächliche Problem in Echtzeit. Dadurch sollen Administratoren Fehler schneller beheben und die Leistungsfähigkeit des Systems sofort wiederherstellen.

Weiterhin hat HP neue Services entwickelt, um Unternehmen auf den Umgang mit Big Data vorzubereiten: den HP Big Data Strategy Workshop und den HP Roadmap Service for Hadoop. Im HP Big Data Strategy Workshop vermittelt HP Unternehmen ein umfassendes Verständnis der Herausforderungen im Umgang mit Big Data und der bestehenden Lösungen. So können Unternehmen Risiken besser einschätzen. Zudem haben sie eine bessere Grundlage für die Entscheidung, wie sie aus der bestehenden Unternehmens-IT und den Geschäftszielen kritische Erfolgskriterien für die Einführung von Big Data ableiten und welche Methoden sie dabei verwenden können. Der HP Roadmap Service for Hadoop wiederum liefert das Wissen, um eine Hadoop-Umgebung zu planen und zu dimensionieren. Mithilfe von Best Practices, Erfahrungen und organisatorischen Überlegungen wird eine Roadmap erstellt, die eine erfolgreiche Planung, Implementierung und Unterstützung von Hadoop ermöglicht. Darüber hinaus unterstützen die HP Always On Support Services die Appliance HP AppSystem for Apache Hadoop sowie die HP-Komponenten der Referenzarchitekturen.

Vertica 6: Alle Informationen verstehen - an jedem Ort und wie es gerade erforderlich ist

Die Version 6 der HP Vertica Analytics Platform versetzt Unternehmen in die Lage, auf jede Information zuzugreifen, sie zu analysieren und zu verwalten. Die Daten können dort gespeichert werden, wo es aus betrieblicher Sicht am sinnvollsten ist, und dennoch in die Vertica-Plattform integriert werden. Auch der Zugriff kann je nach Bedarf über verschiedene Schnittstellen wie Standard Structured Query Language (SQL), Business Intelligence Anwendungen oder Analytics-Programmiersprachen wie R erfolgen. Die Architektur Vertica FlexStore bietet einen flexiblen Rahmen für Big Data Analytics. Dazu gehört die Integration oder Verbindung mit Autonomy und Hadoop-Technologie oder jeder anderen Quelle an strukturierten, unstrukturierten oder semi-strukturierten Daten. Das Framework für Distributed Computing wird erweitert um eine native Funktion zur parallelen Ausführung von R-Anwendungen in Vertica. Die neue Version unterstützt Cloud- und SaaS-Implementierungen sowie gemischte Arbeitsumgebungen. Damit ist Vertica die derzeit umfassendste Plattform für Big Data Analytics.

Autonomy IDOL 10 macht Big Data cleverer

Mit Autonomy IDOL verfügen Unternehmen über eine Analytics-Plattform, die bislang isolierte Datensilos zusammenführt. Über 400 Unternehmen nutzen Autonomy IDOL als OEM-Lösung in ihren Produkten. Nun erweitert Autonomy die Einsatzmöglichkeiten durch die Einbindung in Hadoop-Umgebungen. Das Hadoop-File-System wird damit um über 500 Funktionen erweitert, um die Daten besser zu verstehen, zu kategorisieren, zu clustern und zu verknüpfen. Darüber hinaus unterstützt Autonomy IDOL 10 mehr als 1.000 Dateitypen und über 400 Connectors, um Informationen aus externen Quellen einzubinden. Ermöglicht wird dies durch die Integration von Autonomy IDOL 10 in HP AppSystem for Hadoop. So kann in jedem Node von HP AppSystem eine IDOL-Engine eingebunden werden.

Effektivität von Marketing-Investitionen mit Autonomy steigern

Mit Autonomy Optimost Clickstream Analytics erweitert HP seine Digital-Marketing-Plattform Autonomy Optimost. Die Lösung nutzt die Vertica Analytics Platform und Autonomy IDOL für die Erstellung von granularen Clickstream-Daten. So können die Marketing-Verantwortlichen die Informationen nach Bedarf aggregieren, kombinieren und analysieren. Sie erhalten eine einheitliche und konsistente Sicht auf Kundenbesuche, Kaufentscheidungen und Kundenbindung durch E-Commerce. Sie können diese Daten auch mit unstrukturierten Daten, dem Wissen von Personen und anderen externen Datenquellen kombinieren, um umfassende und verwertbare Erkenntnisse über das Interesse, Interaktionen und das Kaufverhalten der Kunden zu gewinnen.

Die Social Intelligence Services von HP ergänzen Autonomy Optimost um eine 360-Grad-Sicht auf Kundendaten im Netz oder im Unternehmen. Die Berater von HP haben auf der Grundlage von unterschiedlichen Anwendungsszenarien ein ganzheitliches Social Intelligence Framework entwickelt. Das Framework unterstützt Unternehmen dabei, die für sie relevanten digitalen Prozesse zu identifizieren und zu bewerten. Um die Umsetzung zu vereinfachen, zeigt HP in der HP Social Intelligence Reference Architecture auf, welche Komponenten benötigt werden und wie die Autonomy-Lösungen integriert werden müssen.

Services rund um Information Management & Analytics

Die HP Information Management & Analytics (IM&A) Services unterstützen Unternehmen bei Business Intelligence und Information Management, insbesondere in extrem großen und komplexen Informationsinfrastrukturen. HP bietet ein umfassendes Lösungs- und Service-Portfolio für Produkte von HP und seinen Partnern. Dazu gehören vorbereitende Beratungsleistungen für die Planung von Business-Intelligence- und Information-Management-Projekten, bei denen die Sicht auf Unternehmensinformationen sowie Geschäftsstrategien zusammengeführt werden. Hierbei werden beispielsweise funktionale Anforderungen und der Wert für geschäftliche Abläufe ermittelt, die Organisationsstruktur angepasst, Richtlinien für Information Governance vorbereitet, ein Business-Intelligence-Kompetenzzentrum geschaffen sowie geeignete Werkzeuge und Plattformen ausgewählt. Die IM&A-Services helfen Unternehmen dabei, Prozesse, Organisationen und technische Architekturen zu entwickeln, um Informations-Silos aufzubrechen und eine umfassende Umgebung zu schaffen. Auf dieser Grundlage werden Informationen zentral erfasst, verwaltet und bereitgestellt. Dies steigert die Agilität über sämtliche Initiativen hinweg und ermöglicht eine einheitliche, konsistente Sicht auf das Geschäft sowohl intern wie extern.