Tag: Use Case


Serverless-Infrastrukturen Teil 2 – Über Opa Cloud und Enkel Serverless

  • Serverless-Infrastrukturen bieten weit mehr als die reine Ausführung von Funktionen oder Microservices
  • Serverless-Infrastrukturen bieten finanzielle Vorteile und erhalten dabei die Portierbarkeit
  • Serverless-Angebote werden sich noch erheblich deutlicher in das Portfolio der Cloud-Anbieter integrieren und bilden damit die nächste Evolutionsstufe von Cloud Computing
  • Autonome und selbstheilende Infrastrukturlandschaften bilden die Basis für digitale Produkte und Dienste, die mit dem Kunden schon beinahe eine Symbiose bilden

Continue reading “Serverless-Infrastrukturen Teil 2 – Über Opa Cloud und Enkel Serverless” »



Ready, Set, Go – Fliegender Start für Augmented Reality im Business

  • Augmented Reality steht kurz vor seinem Durchbruch. Immer mehr Unternehmen verschiedener Branchen evaluieren konkrete Use Cases.
  • Die größten Potentiale liegen im Bereich Industrie, Bildung oder Medizin. Doch auch der Augmented Workplace wird kommen.
  • Die AR-Technologien sind noch in der Reifephase, dennoch sind die Ergebnisse bereits beachtlich.
  • Unternehmen, die Technologien scouten und erste Showcases auf die Beine stellen, werden die Gewinner des Rennens sein.

Continue reading “Ready, Set, Go – Fliegender Start für Augmented Reality im Business” »



Cloud Computing und Big Data – Der ideale Use Case

Ich hatte schon einmal im März die Frage gestellt, ob Infrastructure-as-a-Service (IaaS) die ideale Lösung für die Herausforderungen von Big Data ist. Bereits damals bin ich zu dem Ergebnis gekommen, dass die Verarbeitung und Analyse großer Datenmengen - kurz: Big Data - ein idealer Use Case für das Cloud Computing ist. Unternehmen können die hohen Anforderungen, die Big Data erwartet, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Was ist Big Data

Als Big Data werden besonders große Datenmengen bezeichnet, die mit Hilfe von Standard-Datenbanken und Daten-Management-Tools nicht oder nur unzureichend verarbeitet werden können. Problematisch sind hierbei vor allem die Erfassung, die Speicherung, die Suche, Verteilung, Analyse und Visualisierung von großen Datenmengen. Das Volumen dieser Datenmengen geht in die Terabytes, Petabytes, Exabytes und Zettabytes.

Quelle: Wikipedia.de

Beispiele für Big Data

Für Unternehmen bietet die Analyse von Big Data die Möglichkeit zur Erlangung von Wettbewerbsvorteilen, Generierung von Einsparungspotentialen und zur Schaffung von neuen Geschäftsfeldern. Beispiele hierfür sind:

  • zeitnahe Auswertung von Webstatistiken und Anpassung von Online-Werbemaßnahmen
  • bessere, schnellere Marktforschung
  • Entdeckung von Unregelmäßigkeiten bei Finanztransaktionen (Fraud-Detection)
  • Einführung und Optimierung einer intelligenten Energieverbrauchssteuerung (Smart Metering)
  • Erkennen von Interdependenzen in der medizinischen Behandlung
  • Realtime-Cross- und Upselling im E-Commerce und stationären Vertrieb
  • Aufbau flexibler Billingsysteme in der Telekommunikation

Quelle: Wikipedia.de

Herausforderungen von Big Data

Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungsprogramme sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommt daher eine neue Art von Software zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeitet. Hierbei gibt es folgende Herausforderungen:

  • Verarbeitung vieler Datensätze
  • Verarbeitung vieler Spalten innerhalb eines Datensatzes
  • schneller Import großer Datenmengen
  • sofortige Abfrage importierter Daten (Realtime-Processing)
  • kurze Antwortzeiten auch bei komplexen Abfragen
  • Möglichkeit zur Verarbeitung vieler gleichzeitiger Abfragen (Concurrent Queries)

Die Entwicklung von Software für die Verarbeitung von Big Data befindet sich noch in einer frühen Phase. Prominent ist der MapReduce-Ansatz, der in der Open-Source-Software (Apache Hadoop und MongoDb), sowie in einigen kommerziellen Produkten (Aster Data, Greenplum u. a.) zum Einsatz kommt.

Quelle: Wikipedia.de

Cloud Computing und Big Data: Der perfekte Use Case

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere “normale” Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Wettbewerbsfähigkeit steigern

McKinsey’s Report “Big data: The next frontier for innovation, competition, and productivity”, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Big Data Verarbeitung in der Cloud

Kosteneinsparungen für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit Big Data

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen - wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. - die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.



Use Case: Cloud Computing hilft Entertainment

Welche Einflüsse haben neue technologische Innovationen wie die Cloud auf die Kreativ-Industrie, welches Potenzial entsteht durch neue Arbeitstechniken und wie verändert sich mit der Microsoft Cloud die tägliche Arbeit in Medien und Produktionsfirmen? Antworten gab das diesjährige Forum D’Avignon, eines der wichtigsten Wirtschafts- und Kulturforen in Europa, das vom 15. bis 17. November in Avignon, Frankreich, stattfand. Die Gäste konnten sich hier über die Innovation des ScreenerOne von Bertelsmann arvato informieren. Das auf der Microsoft Cloud basierende Content Collaboration System ermöglicht es den GrundyUFA Produktionsteams von „Gute Zeiten, schlechte Zeiten“, „Verbotene Liebe“, „Alles was zählt“ und „Unter Uns“ sämtliche Inhalte orts- und zeitunabhängig zu verwalten und abzustimmen.

GrundyUFA setzt auf ScreenerONE

Seit 2011 vertraut GrundyUFA, Marktführer im Segment lang laufender Serien, bei ihren Produktionen auf das Cloud-basierte Content Collaboration System ScreenerONE. Eine Applikation, die die Bertelsmann-Tochter arvato gemeinsam mit GrundyUFA und Microsoft Partnern entwickelt hat. Auf Basis der Microsoft Cloud Windows Azure kam der ScreenerONE zunächst bei der Produktion des Daily Dramas „Verbotene Liebe“ zum Einsatz. Die erfolgreiche Evaluierungsphase einhergehend mit den positiven Veränderung im täglichen Workflow der GrundyUFA Kreativteams führten nun zu der Erweiterung der Collaboration-Plattform zu einer unternehmensweiten Lösung. Seitdem kommt der ScreenerONE auch bei den Produktionen „Gute Zeiten, schlechte Zeiten“, „Alles was zählt“ und „Unter Uns“ zum Einsatz, die täglich für ein Millionenpublikum produziert werden.

ScreenerONE – Im Praxiseinsatz bewährt

Zeit ist kostbar, vor allem bei der Produktion von Daily-Dramas. Daher konzentrierte sich die Zielsetzung von GrundyUFA in der Evaluierungsphase der Lösung auf die erfolgreiche Umsetzung ihres „24h Konzepts“: Innerhalb von 24 Stunden nach Dreh müssen alle inhaltlichen Abstimmungen erfolgt sein, unabhängig wo gedreht wird und wo die Ansprechpartner sitzen. Was wiederum die Sicherstellung einer effektiven Zusammenarbeit über verschiedene Kanäle und Devices einschließt. Als Collaboration-Plattform erlaubt der ScreenerOne dem Produktionsteam sämtliche Inhalte, von Video-Sequenzen und Storyboards, über Tonaufnahmen und Scripts bis hin zu Pressefotos einer jeden Folge zu verwalten, Metadaten einzusehen und Anmerkungen einzufügen.
Räumliche Distanzen spielen dabei für die Produktionen keine Rolle mehr. Gedrehtes Material – unabhängig ob Daily Drama oder Online Serien – wird in Echtzeitkommunikation von überall, zu jedem Zeitpunkt und Device-unabhängig, ob PC, Notebook, Smartphone oder Tablet, bewertet und abgestimmt. Die Arbeitsweise entfernt sich auf diese Weise von hierarchischen Prozessen und organisiert sich fortan collaborativ, drehfreie Zeiten werden reduziert und ein produktives Arbeiten ermöglicht.

Green Producing in der Windows Cloud

Indem der GrundyUFA Workflow in der Microsoft Cloud vollkommen datenträgerfrei ist, führt er neben der Reduktion von Kosten zu wichtigen Einsparpotenzialen für die Umwelt. So verringerte sich beispielsweise beim Mallorca-Dreh der „Verbotene Liebe“ der Transportaufwand für Film- und Datenmaterial auf der Insel und von der Balearen-Insel nach Deutschland deutlich. Dabei gelten für die Film- und Medienbranche besondere Anforderungen an die Lösungen und die Cloud-Plattform, auf der die Lösung betrieben wird. Hierzu zählt auch die Unterstützung verschiedener Dateiformate, sodass die vor Ort erstellten Clips Device-übergreifend fehlerfrei abspielbar sind. Daneben gewährt die Windows Azure Technologie eine hohe Skalierbarkeit und Verfügbarkeit, sodass GrundyUFA ihren Workflow jederzeit ihren echten Anforderungen anpassen kann. Mit sicheren Rechenzentren und einer speziellen Microsoft Play Ready Technologie sorgt Microsoft zudem für den Schutz der Medieninhalte vor illegalen Raubkopien und schützt somit das geistige Eigentum der Produktionsfirma.



Der Weg in die Cloud startet mit dem richtigen Use Case

Der Übergang von on-Premise hinzu Cloud basierten Lösungen stellt Unternehmen vor Herausforderungen. Sollen die bestehenden Systeme 1:1 migriert oder die Chance genutzt werden, um einen Neuanfang zu starten und nur die Daten übernommen werden. Es stellt sich hier also die Frage, wie existierende Anwendungen in die Cloud migriert werden. So oder so muss sich allerdings das Architekturmodell der bestehenden Systeme und Anwendungen vollständig vom statischen zu dynamischen/ skalierbaren Modellen zzgl. Multi-Tenancy Fähigkeiten verändern, um die wahren Möglichkeiten der Cloud zu nutzen.

Eine Infrastruktur bietet die meisten Freiheiten

Die größten Herausforderungen erleben Unternehmen bei der Nutzung des Infrastructure-as-a-Service (IaaS), da ihnen hier von einem Public Cloud Anbieter „nur“ virtuelle Ressourcen bereitgestellt werden, um auf dieser Basis eine eigene virtuelle Infrastruktur aufzubauen, auf der sie ihre eigenen Systeme hinsichtlich Hochverfügbarkeit aber vor allem mit einer enormen Skalierbarkeit aufzubauen. Ein Nutzer darf sich hier zudem maximal darauf verlassen, dass der Anbieter dafür sorgt, dass die durch im bereitgestellte Infrastruktur zu einem bestimmten Service Level zur Verfügung steht. Um alle weiteren Themen, wie die Wartung der virtuellen Ressourcen und den darauf betriebenen Software, Services und Systemen muss sich der Nutzer selbst kümmern. Ebenso das Sicherstellen der Hochverfügbarkeit der eigenen Systeme und Applikationen fällt in den Aufgabenbereich des Kunden.

Eine Plattform erleichtert die Administration

Ein Stückweit mehr Verantwortung gibt der Nutzer an einen Anbieter ab, wenn er sich für einen Platform-as-a-Service (PaaS) entscheidet. Wie der Name bereits sagt, stellt ein Anbieter eine vollständige Plattform inkl. einem umfangreichen Systemstack zur Verfügung. Ein Nutzer kann sich hier gezielt auf die Entwicklung seiner Anwendung konzentrieren und muss sich nicht, anders als beim IaaS, um die darunter liegende Infrastruktur kümmern. PaaS gilt als die Serviceart mit dem größten Wachstumspotential und den vielfältigsten Möglichkeiten für die kommenden Jahre. Ein Blick auf die PaaS der ersten Stunde unterstreicht diese These. Haben die meisten Anbieter zu Beginn nur eine Programmiersprache unterstützt, kamen im Laufe der Zeit immer weitere Sprachen hinzu, wodurch ein Nutzer mittlerweile aus einer Vielfalt an Sprachen wählen kann, um seine Applikationen in die Cloud zu migrieren bzw. dort neue Ideen zu verwirklichen.

Standardisierte Applikationen

Bei der Nutzung von Applikationen auf Basis von Software-as-a-Service (SaaS) hat der Nutzer am wenigsten bis keinen Einfluss auf das Angebot. Anhand von standardisierten Applikationen wird er von dem Anbieter mit fertigen und in der Regel nicht anpassbaren Lösungen versorgt. Anders als bei IaaS und PaaS, ist ein SaaS Anbieter für den gesamten, einwandfreien Betrieb der Anwendungen verantwortlich. Der Nutzer muss sich hier also um die nicht zu unterschätzende Aufgabe kümmern, wie er seine Daten in die SaaS Applikation migriert, bzw. exportiert, wenn er das Angebot nicht mehr nutzen möchte. An dieser Stelle sollte der Anbieter entsprechende Schnittstellen zu on-Premise Systemen bzw. gängigen Formaten bereitstellen.

Der Use Case ist entscheidend

Für wen welche Art der Cloud Nutzung in Frage kommt, muss jedes Unternehmen individuell evaluieren. Es geht also grundsätzlich um die Frage, für welche Systeme und Plattformen eine Migration in die Cloud besonders sinnvoll ist und welche Serviceart geeignet ist. Über gut dokumentierte APIs sollte ein Anbieter seine Kunden dabei unterstützen, die Cloud bestmöglich für ihre Anforderungen zu nutzen.


Bildquelle: ©Erika Hartmann / PIXELIO



Cloud Computing – Sinn und Nutzen? Am Ende zählt der Use Case!

Hat Cloud Computing wirklich seine Daseinsberechtigung? Geht es nach den Pessimisten: Nein, denn es ist nur alter Wein in neuen Schläuchen! Geht es nach dem Marketing: Ja, neue Buzzwords lassen sich immer gut verkaufen! In der Regel schauen beide Seiten jedoch niemals hinter die Kulissen und betrachten nicht den tatsächlichen Mehrwert bzw. den Nutzen oder auch nicht-Nutzen.

An die Pessimisten: Cloud Computing ist kein alter Wein neuen Schläuchen. Gewiss, einige Technologien und Ideen die das Gesamtkonzept Cloud Computing ergeben, existieren bereits seit den 1960er. Aber genau das Wort "Gesamtkonzept" ist hier der entscheidene Faktor. Erst die Kombination vieler Technologien, wie SOA, Virtualisierung, ASP, Web Services und Grid Computing plus das Multi-Tendancy Konzept ermöglichen erst das Paradigma, das wir Cloud Computing nennen. Hinzu kommt das Geschäftsmodell (on Demand, Pay per use, Building Blocks, usw.) bzw. die Geschäftsmodelle, die erst auf Grund des Cloud Computing entstehen konnten. Betrachten wir die letzten Monate und Jahre, konnten neue Unternehmen und Geschäftsmodelle nur dadurch entstehen, da sie auf Grund des Cloud Computing unkompliziert, flexibel und kostengünstig auf die dafür benötigten IT-Ressourcen zugreifen konnten. Der Unterschied zum klassischen Outsourcing oder auch den Managed Services ist ebenfalls sehr deutlich. Beim Outsourcing existiert kein skalierbarer, flexibler und abrechnungsgenauer Bezug von Ressourcen. Statt Cloud Computing hätte es genauso gut Dynamic Computing Services oder on Demand Computing Services genannt werden können. Aber Cloud Computing ist auf Grund des Ressourcenbezugs über das Internet nun einmal die beste Beschreibung.

An das Marketing: Bitte bei der Wahrheit bleiben! Ca. 70% der klassischen Webhoster sind bereits auf den Cloud Computing Zug aufgesprungen. Die einen mehr, die anderen weniger Cloud. Sehr beliebt ist, einfach ein bestehendes Produkt zu „vercloudifizieren“. Heißt: Gleiches Produkt mit einem neuen Namen, z.B. Cloud Server. Das es sich dann nur um einen virtuellen Server handelt, der auch noch für eine monatliche Grundgebühr zu beziehen ist und über keine (automatisierte) Skalierbarkeit verfügt, wird außer acht gelassen. Positiv überraschen die etablierten IT-Konzerne. Das Konzept Cloud Computing wird, insbesondere in Deutschland und Europa, zwar teilweise neu interpretiert. Das ist auf Grund der Zielgruppe (etablierte Unternehmen) und dem Einsatzgebiet (kritische Produktivumgebungen) aber durchaus verständlich. So befinden sich hier vermehrt (sichere) Virtual Private Clouds im Portfolio. In den USA herrschen derzeit noch die Public Clouds.

Der Glaubenskrieg

Hier beginnt auch schon der Kampf um die "beste" Cloud. Fakt ist: Es gibt keine gute oder schlechte Cloud und schon gar nicht die beste Cloud. Aber es gibt individuelle Bedürfnisse und Anforderungen. Neben den Public, Private und Hybrid Clouds, werden die Beschreibungen immer granularer. So existieren mittlerweile unterschiedliche Cloud Level, zu denen auch die Public und Hybrid Cloud gehören. Diese Cloud Level machen sich aber besonders im Umfeld der Private Cloud bemerkbar. Es gibt daher nicht mehr nur die Private Cloud im eigenen Rechenzentrum, sondern nun auch die sogenannte Dedicated Private Cloud oder auch Virtual Private Cloud. Führen die Public Clouds auf Grund ihres unkomplizierten Zugriffs zu Innovationen und neuen Geschäftsmodellen, haben die "X Private Clouds" die Aufgabe, die Heimat von Produktivsystemen zu werden und Unternehmen darüber den flexiblen on Demand Bezug von Ressourcen auf einer Pay per use Basis in einem privatem und not shared Umfeld zu ermöglichen. Unternehmen erhalten damit die Gelegenheit, eine eigene Private Cloud, inkl. allen Methoden und Konzepten des Public Cloud Computing (bis auf die Kreditkarte), aufzubauen, ohne einen Cent in eigene Rechenzentrumskapazitäten zu investieren. Damit umgehen sie der Komplexitäts- und Kostenfalle der eigentlichen Private Cloud, erhalten aber dennoch Ressourcen wenn sie benötigt werden. Wie ich jedoch eingangs erwähnte gibt es keine gute oder schlechte Cloud. Die eigene Private Cloud kann im Einzelfall durchaus Sinn ergeben, um den eigenen Bezug der IT-Ressourcen zu flexibilisieren.

Der Einzelfall entscheidet

Grundsätzlich muss immer der Einzelfall betrachtet werden, wo Cloud Computing Sinn macht und wo nicht, bzw. welche Art von Cloud Computing hilfreich ist. Beim Cloud Computing sprechen wir von X-as-a-Service, genauer Software-as-a-Service (SaaS), Platform-as-a-Service (PaaS) und Infrastructure-as-a-Service (IaaS).

SaaS erzielt in nahezu 99% aller Fälle den gewünschten Nutzen und hilft Unternehmen dabei, Anwendungen zu nutzen wenn sie benötigt werden, ohne dabei langfristig in teure Softwarelizenzen und Infrastruktur zu investieren und je nach Mitarbeitersituation immer ausreichend Anwendungen zur Verfügung zu haben. Darüber hinaus entfallen die Installation und Wartung der Software, da der Zugriff über den Standard Webrowser stattfindet und der Anbieter für den aktuellen Stand und der Funktionsfähigkeit der Software zuständig ist.
Entscheidend ist letztendlich die Analyse der eigenen Situation und der Anforderungen sowie die Evaluation der geeigneten Software sowie deren möglicherweise notwendigen Integration mit den restlichen Systemen.

PaaS spielt besonders im Entwicklerumfeld seine Stärken aus. Die Bereitstellung von skalierbarer Rechenleistung ist ein teures Vergnügen. Ebenso die Wartung der dafür benötigten Infrastruktur in Form von Hardware, Netzwerkkomponenten, aber auch Betriebssysteme und die restlichen Softwarestacks. Speziell die Bereitstellung vollständig vorkonfigurierter und gewarteter Softwarestacks helfen einem Entwickler bei der schnellen Umsetzung seiner Ideen. Ein kleiner Nachteil besteht in der Regel durch die Entscheidung für eine einzige Programmiersprache, wodurch die Portabilität der Anwendung leidet. Dabei handelt es sich jedoch um ein je nach Situation durchaus zu vernachlässigendes Problem.
Vor allem für das "mal eben ausprobieren" einer Idee eignet sich PaaS besonders gut. Aber ebenfalls der langfristige produktive Einsatz und das Hosting der Anwendung auf einer skalierbaren und gewarteten Infrastruktur sind sehr attraktiv, wenn vorab die benötigten Anforderungen und das Programmiermodell geklärt worden sind.

IaaS bietet je nach Einsatzgebiet in vielen Bereichen Vorteile. Kann aber durchaus auch zur Kostenfalle werden. Soll bspw. eine Webseite auf einer Instanz aus der Cloud 7/24/365 betrieben werden, wird schnell deutlich, dass die Kosten dafür einfach nicht tragbar sind. Für diesen Zweck reicht ein gewöhnlicher virtueller Server (was eine Instanz aus der Cloud letztendlich auch nur ist) von einem traditionellen Webhoster mit einer monatlichen Grundgebühr völlig aus. Damit ist die Kosten- als auch die technische Seite gut abgedeckt. Anders verhält es sich bei einer Webseite die einer nicht unmittelbar vorhersagbaren Dynamik oder saisonalen Einflüssen unterlegen ist. Hier hilft der Einsatz einer Cloud Infrastruktur, wenn sie dann richtig genutzt wird und die Methoden und Konzepte des Cloud Computing, wie z.B. Skalierbarkeit und Hochverfügbarkeit durch den Einsatz von Skripten oder anderweitiger Tools, berücksichtig wird. IaaS ist daher, je nach Bereich, kostentechnisch nicht für den Langzeitbetrieb geeignet, sondern vielmehr für den periodischen Ausgleich von Anfragen und dadurch entstehende Lasten. Auch bzgl. der Nutzung einer Public Cloud oder einer Virtual Private Cloud gibt es unterschiedliche Einsatzszenarien. Eine Public Cloud ist bspw. ideal für kleine Unternehmen und Startups, die eine Web- oder Mobile Anwendung mit Backend anbieten möchten oder Entwickler die schnell eine Idee umsetzen wollen und dafür entsprechende Ressourcen benötigen. Eine Virtual Private Cloud hingegen bietet etablierten Unternehmen die Möglichkeit ihre Produktivumgebungen skalierbarer und flexibler auszulagern und zu betreiben. So wären z.B. mögliche Use Cases die Migration des ERP Systems oder die Virtualisierung der Desktops und die damit verbundene Umstellung von Fat auf Thin Clients.

Fazit

Es gibt keine gute oder schlechte Cloud! Und schon gar nicht die beste Cloud. Wie seit jeher in der IT notwendig, muss immer die eigene Situation betrachtet werden und die Entscheidung individuell getroffen werden. Der einzige sinnvolle Rat zu Beginn kann daher nur lauten: Augen auf und genau überlegen in welche Richtung die Reise gehen soll, welches die Ziele sind und was damit erreicht werden soll. Ein erster unabhängiger Marktüberblick inkl. Angebotsanalyse wird dabei helfen Klarheit zu schaffen und mögliche Produkte und Services für die eigene bedarfsgerechte Nutzung zu identifizieren.