Tag: Unternehmen


Desktop-as-a-Service: VMware ebnet Google den Weg in die Unternehmen

Im ersten Moment war es eine unerwartete Ankündigung, die auf dem zweiten Blick allerdings sehr schnell einen Sinn ergibt. VMware und Google haben in der vergangenen Woche eine Partnerschaft verkündet, um über VMwares Desktop-as-a-Service Plattform Unternehmen Windows-Applikationen, Daten und Desktops auf Google Chromebooks auszuliefern. Continue reading “Desktop-as-a-Service: VMware ebnet Google den Weg in die Unternehmen” »



Die Amazon Web Services greifen nach der Enterprise IT. Ein Realitätscheck.

Die AWS re:Invent 2013 ist vorbei und die Amazon Web Services (AWS) haben mit einigen neuen Services begonnen, die Hände weiter nach den Unternehmenskunden auszustrecken. Nachdem sich AWS als führender Infrastrukturanbieter und Enabler für Startups und neue Geschäftsmodelle in der Cloud etabliert hat, versucht das Unternehmen aus Seattle schon seit geraumer Zeit einen Fuß direkt in das lukrative Unternehmensumfeld zu bekommen. Aktuelle Public Cloud Marktzahlen für das Jahr 2017 von IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) geben AWS Rückenwind und bestärken den IaaS Marktführer in seiner reinen Public Cloud Strategie.

Die neuen Services

Mit Amazon WorkSpaces, Amazon AppStream, AWS CloudTrail und Amazon Kinesis hat Amazon interessante neue Services präsentiert, die insbesondere Unternehmenskunden adressieren.

Amazon WorkSpaces

Amazon WorkSpaces ist ein Service, der virtuelle Desktops auf Basis von Microsoft Windows bereitstellt, mit dem sich eine eigene Virtual Desktop Infrastructure (VDI) innerhalb der Amazon Cloud aufbauen lässt. Als Basis kommt der Windows Server 2008 R2 zum Einsatz, der Desktops mit einer Windows 7 Oberfläche ausrollt. Alle Services und Applikationen werden aus Amazon Rechenzentren auf die entsprechenden Endgeräte gestreamt, wobei das PCoIP (PC over IP) von Teradici zum Einsatz kommt. Dabei kann es sich um Desktop-PCs, Notebooks, Smartphones oder Tablets handeln. Zudem lässt sich Amazon WorkSpaces mit einer Microsoft Active Directory kombinieren, was die Benutzerverwaltung vereinfacht. Standardmäßig werden die Desktops mit bekannten Anwendungen wie Firefox oder Adobe Reader/ Flash ausgeliefert. Dies lässt sich von den Administratoren beliebig anpassen.

Mit Amazon WorkSpaces betritt Amazon völlig neues Terrain, in welchem mit Citrix und VMware bereits zwei absolute Marktgrößen warten. VMware hatte erst während der VMworld in Barcelona die Übernahme von Desktone bekanntgegeben. VDI ist grundsätzlich ein sehr spannendes Marktsegment, da es die Unternehmens-IT von Administrationsaufgaben erlöst und Infrastrukturkosten reduziert. Allerdings handelt es sich hierbei um ein noch sehr junges Marktsegment. Unternehmen sind zudem noch sehr vorsichtig bei der Auslagerung ihrer Desktops, da anders als bei klassischen on-Premise Terminal Services, die Bandbreite (Netzwerk, Internet, Datenverbindung) von entscheidender Bedeutung ist.

Amazon AppStream

Amazon AppStream ist ein Service, der als ein zentrales Backend für graphisch umfangreiche Applikationen dient. Damit soll die eigentliche Leistung des Endgeräts, auf dem die Applikationen genutzt werden, keine Rolle mehr spielen, da sämtliche Ein- und Ausgaben innerhalb der Amazon Cloud verarbeitet werden.

Da die Leistung der Endgeräte in Zukunft wahrscheinlich eher noch mehr zunehmend wird, muss die lokale Leistung vermutlich nicht berücksichtigt werden. Allerdings ist der Service für den Aufbau einer echten Mobile Cloud, bei der sich sämtliche Daten und Informationen in der Cloud befinden und die Geräte lediglich als Konsumenten genutzt werden, durchaus interessant. Weiterhin ist die Kombination mit Amazon WorkSpaces zu betrachten, um Applikationen auf Endgeräte bereitzustellen, die lediglich als ThinClients dienen und keine weitere lokale Intelligenz und Leistung benötigen.

AWS CloudTrail

AWS CloudTrail hilft beim Überwachen und Aufzeichnen der AWS API Aufrufe von einem oder mehrerer Accounts. Dabei werden Aufrufe über die AWS Management Console, dem AWS Command Line Interface (CLI), von eigenen Anwendungen oder Anwendungen von Drittanbietern berücksichtigt. Die erhobenen Daten werden entweder in Amazon S3 oder Amazon Glacier zur Auswertung gespeichert und lassen sich über die AWS Management Console, dem AWS Command Line Interface oder Tools von Drittanbietern betrachten. Derzeit lassen sich nur Amazon EC2, Amazon ECS, Amazon RDS und Amazon IAM überwachen. Amazon CloudTrail kann kostenlos genutzt werden. Kosten entstehen für das Speichern der Daten auf Amazon S3 und Amazon Glacier sowie für die Benachrichtigungen über Amazon SNS.

AWS CloudTrial gehört, auch wenn er nicht sehr spannend ist (Logging), zu den wichtigsten Services für Unternehmenskunden, die Amazon in letzter Zeit veröffentlicht hat. Die gesammelten Logdateien helfen bei der Compliance, indem sie sämtliche Zugriffe auf AWS Services aufzeichnen und damit das Einhalten von gesetzlichen Rahmenbedingungen nachweisen können. Ebenso verhält es sich mit Sicherheitsaudits, bei denen sich damit Sicherheitslücken und unberechtigte oder fehlerhafte Zugriffe auf Daten nachvollziehen lassen. Amazon ist gut beraten, AWS CloudTrail schnellstmöglich über alle weiteren AWS Services zu erweitern und für sämtliche Regionen weltweit verfügbar zu machen. Insbesondere die Europäer werden es danken.

Amazon Kinesis

Amazon Kinesis ist ein Service zur Echtzeitverarbeitung von großen Datenströmen. Hierzu ist Kinesis in der Lage Datenströme beliebiger Größe aus einer Vielzahl unterschiedlicher Quellen zu verarbeiten. Die Steuerung erfolgt aus der AWS Management Console, indem sich einer Anwendung unterschiedliche Datenströme zuweisen und darüber speichern lassen. Auf Grund von Amazons massiver Skalierbarkeit bestehen keine Kapazitätsbegrenzungen. Allerdings werden die Daten automatisch auf die weltweiten Amazon Rechenzentren verteilt. Als Use Cases für Kinesis gelten die üblichen Verdächtigen: Finanzdaten, Social Media sowie Daten aus dem Internet of Things/ Everything (Sensoren, Maschinen usw.).

Der eigentliche Vorteil von Kinesis, als Big Data Lösung, besteht in der Echtzeitverarbeitung von Daten. Gängige Standard-Lösungen am Markt verarbeiten die Daten via Batch, wodurch die Daten niemals zum direkten Zeitpunkt, sondern maximal ein paar Minuten später verarbeitet werden können. Kinesis hebt diese Barriere auf und ermöglicht neue Möglichkeiten zur Auswertung von Live-Daten.

Herausforderungen: Public Cloud, Komplexität, Self-Service, "Lock-in"

Schaut man auf die aktuellen AWS Referenzen, ist die Quantität als auch die Qualität beeindruckend. Schaut man genauer hin, handelt es sich bei den Top-Referenzen allerdings weiterhin um Startups, unkritische Workloads oder komplett neue Entwicklungen die dort verarbeitet werden. Das bedeutet, dass die meisten bestehenden IT-Systeme, um die es tatsächlich geht, sich noch gar nicht in der Cloud befinden. Das hängt neben den Bedenken vor dem Kontrollverlust und Compliance Themen damit zusammen, dass das Scale-out Prinzip es für Unternehmen beliebig kompliziert macht, ihre Anwendungen und Systeme in die AWS-Cloud zu migrieren. Am Ende läuft es darauf hinaus, dass sie von Vorne beginnen müssen, da ein nicht verteilt entwickeltes System nicht so funktioniert, wie es auf einer verteilten Cloud Infrastruktur laufen sollte - Stichworte: Skalierbarkeit, Hochverfügbarkeit, Multi-AZ. Das sind Kosten die nicht unterschätzt werden sollten. Das führt dazu, dass selbst die Migration eines vermeintlich einfachen Webshops zu Herausforderungen für Unternehmen werden, die nicht über die Zeit und das notwendige Cloud-Wissen verfügen, um den Webshop für die (Scale-out) Cloud Infrastruktur neu zu entwickeln.

Hinzu kommt, dass sich die Skalierbarkeit und Verfügbarkeit einer Applikation auf der AWS Cloud nur sauber realisieren lässt, wenn man sich an die Services und APIs hält, mit denen dies sichergestellt wird. Weiterhin stehen viele weitere infrastrukturnahe Services zur Verfügung bzw. werden ständig veröffentlicht, die das Leben für den Entwickler sichtlich einfacher machen. Der Lock-in ist damit vorprogrammiert. Zwar bin ich auf dem Standpunkt, dass ein Lock-in nichts Schlechtes sein muss, solange der Anbieter die gewünschten Anforderungen erfüllt. Dennoch sollte sich ein Unternehmen vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Zum Schluss. Auch wenn einige Marktforscher der Public Cloud eine goldende Zukunft prophezeien, sollte man die Zahlen nicht zu sehr auf die Goldwaage legen. Cloud Marktzahlen werden schon seit Jahren immer mal wieder nach unten korrigiert. Außerdem muss man im Einzelfall betrachten, wie sich diese Zahlen tatsächlich zusammensetzen. Aber darum geht es hier nicht. Am Ende des Tages geht es darum, was der Kunde will. Andy Jassy hat auf der re:Invent noch einmal deutlich gemacht, dass Amazon AWS konsequent auf die Public Cloud setzen wird und in keine eigenen Private Cloud Lösungen investieren wird. Man kann dies nun als Arroganz und Ignoranz gegenüber den Kunden, dem puren Willen nach Disruption oder einfach nur Selbstbestätigung interpretieren. Fakt ist, auch wenn Amazon wohl die Private Cloud für die CIA bauen wird, haben sie bei weitem nicht die Ressourcen und Kenntnisse, um als Softwareanbieter am Markt aufzutreten. Amazon AWS ist ein Service-Anbieter. Allerdings haben sie mit Eucalyptus einen starken Verbündeten auf der Private Cloud Seite, der es ermöglicht eine AWS-ähnliche Cloud Infrastruktur im eigenen Rechenzentrum aufzubauen.

Anmerkung hierzu: Nahezu alle Eucalyptus Kunden sollen ebenfalls AWS Kunden sein (Quelle: Eucalyptus). Das bedeutet im Umkehrschluss, dass einige Hybrid Cloud Infrastrukturen zwischen on-Premise Eucalyptus Infrastrukturen und der Amazon Public Cloud bestehen.

Vorteile: AWS Marketplace, Ökosystem, Enabler, Innovationstreiber

Was bei den ganzen Diskussionen um Amazon AWS und Unternehmenskunden leider immer wieder kläglich vergessen und auch von Amazon viel zu wenig beworben wird, ist der AWS Marketplace. Im Vergleich zu der Cloud Infrastruktur, die Kunden nutzen können, um eigene Lösungen zu entwickeln, bietet der Marketplace voll funktionsfähige Softwarelösungen von Partnern (z.B. SAP), die auf der AWS Infrastruktur automatisch ausgerollt werden können. Die Kosten für die Nutzung der Software werden pro Stunde oder pro Monat abgerechnet. Hinzu kommen die AWS Gebühren für die dafür benötigte Infrastruktur. Hier steckt der eigentliche Mehrwert für Unternehmen, ihre bestehenden Standardsysteme bequem in die Cloud auszulagern und sich von den on-Premise Systemen zu trennen.

Man muss bei den Amazon Web Services daher strikt zwischen der Nutzung von Infrastruktur für die Eigenentwicklung und dem Betrieb von fertigen Lösungen trennen. Beides ist in der der Amazon Cloud möglich. Hinzu kommt das Ökosystem von Partnern und Systemintegratoren, die AWS Kunden dabei helfen, ihre Lösungen zu entwickeln. Denn auch wenn AWS selbst (derzeit noch) ein reiner Infrastruktur Anbieter ist, müssen sie gleichermaßen als Plattform für andere Anbieter und Partner verstanden werden, die darauf ihre Geschäfte betreiben. Darin besteht auch der maßgebliche Erfolg und Vorteil gegenüber anderen Anbietern am Markt und wird langfristig die Attraktivität bei den Unternehmenskunden erhöhen.

Hinzu kommt, dass Amazon der absolute Innovationstreiber in der Cloud ist, dem kein anderer Cloud-Anbieter derzeit technologisch das Wasser reichen kann. Dazu bedarf es keiner re:Invent. Stattdessen zeigt sich dies nahezu jeden Monat von Neuem.

Amazon AWS ist - bedingt - tauglich für die Enterprise IT

Je nach Land und Use Case variieren die Anforderungen, die Amazon für Unternehmen erfüllen muss. Europäische Kunden sind hier meist bedachter mit der Datenhaltung und speichern die Daten lieber im eigenen Land. Ich saß schon mit mehr als einem Kunden zusammen, der technisch überzeugt war aber das Speichern der Daten in Irland nicht in Frage kam. In einigen Fällen ist es aber auch die fehlende Einfachheit der Nutzung. Das bedeutet, dass ein Unternehmen seine bestehende Anwendung oder Webseite nicht für die Amazon Infrastruktur (neu) entwickeln möchte. Gründe hierfür sind die fehlende Zeit und das Wissen um dies umzusetzen, was gleichzeitig zu einen längeren Time to Market führen würde. Beides lässt sich auf die Komplexität zurückführen, um auf den Amazon Web Services Skalierbarkeit und Verfügbarkeit zu erreichen. Es sind nun einmal nicht nur ein paar API-Aufrufe. Stattdessen muss die vollständige Architektur auf die AWS Cloud ausgerichtet werden. In Amazons Fall liegt es insbesondere an der horizontalen Skalierung (scale-out) die dies erforderlich macht. Die Unternehmen würden lieber die vertikale Skalierung (scale-up) bevorzugen, um das bestehende System 1:1 migrieren zu können und nicht von vorne zu beginnen, sondern direkt in der Cloud Erfolge zu erzielen.

Die AWS Referenzen zeigen allerdings auch, dass ausreichend Use Cases für Unternehmen in der Public Cloud existieren, bei denen die Datenhaltung eher als unkritisch betrachtet werden kann, solange die Daten vorher klassifiziert und anschließend verschlüsselt abgelegt werden.

Analysten Kollege Larry Carvalho hat sich auf der re:Invent mit ein paar AWS Unternehmenskunden unterhalten. Ein Kunde hat eine gehostete Webseite auf AWS für weniger als $7.000 Dollar implementiert, wofür ein anderer Systemintegrator $70.000 berechnen wollte. Ein anderer Kunde hat ausgerechnet, dass er für eine on-Premise Business Intelligence Lösung inkl. Wartung etwa $200.000 pro Jahr zahlen würde. Auf Amazon AWS lediglich $10.000 pro Jahr. Diese Beispiele zeigen, dass AWS auf der einen Seite ein Enabler ist. Auf der anderen Seite aber auch, dass die Sicherheitsbedenken in einigen Fällen den Kosteneinsparungen in den Unternehmen weichen werden.



Enterprise Cloud Computing: T-Systems startet "Enterprise Marketplace"

Mit dem Business Marketplace konnte die Deutsche Telekom nach eigenen Angaben bereits 10.000 mittelständische Unternehmen erreichen. Nun soll ein ähnlicher Erfolg auch im Großkundenumfeld erzielt werden. Dazu steht jetzt der Enterprise Marketplace bereit, über den sich Software, Hardware oder Paket-Lösungen nach Bedarf buchen und ebenfalls unternehmensspezifische Eigenentwicklungen den eigenen Mitarbeitern bereitstellen lassen.

SaaS, IaaS und fertige Pakete

Der Enterprise Marketplace richtet sich speziell an die Bedürfnisse von Großunternehmen und bietet neben Software-as-a-Service-Lösungen (SaaS) ebenfalls vorkonfigurierte Images (Appliances) und konfigurierbare Gesamtpakete an, die sich in die bestehenden Systemlandschaften integrieren lassen sollen. Alle Services inklusive der integrierten Eigenentwicklungen befinden sich in einer Hosted Private Cloud und werden über das Netz der Telekom bereitgestellt.

Standardlösungen und Eigenentwicklung

Der Enterprise Marketplace bietet weitestgehend standardisierte Services. Die Nutzung dieser Services beinhaltet neue Releases, Updates und Patches. Die Abrechnung erfolgt monatlich und je nach Nutzung des jeweiligen Angebots. T-Systems stellt ebenfalls fertige Appliances wie bspw. einen vorkonfigurierten Apache Application Server bereit der nach Bedarf mit eigener Software erweitert und verwaltet werden kann. Weiterhin sollen Kunden in Zukunft selbst wählen können, welches T-Systems Rechenzentrum sie nutzen möchten.

Innerhalb des Enterprise Marketplace können ebenfalls unterschiedliche Angebote aus dem Marktplatz miteinander kombiniert werden, z.B. ein Webserver mit Datenbank und Content-Management-System. Weiterhin lassen sich eigene Lösungen wie Monitoring-Tools integrieren. Diese eigenen Lösungen lassen sich ebenfalls den restlichen Marktplatzteilnehmern zur Verfügung stellen. Wer und wie viele Teilnehmer Zugriff auf diese Lösung im Enterprise Marketplace erhalten entscheidet das Unternehmen alleine.

Zudem kann die Performance der jeweiligen Appliance des Enterprise Marketplace individuell angepasst werden. Der Nutzer erhält hierzu Einfluss auf die Anzahl der CPUs sowie die Größe des RAM und Speicherplatz und die Anbindungsbandbreite. In einer weiteren Ausbaustufe erfolgen ebenfalls Managed Services die Patches, Updates und Release-Wechsel beinhalten.

Marktplatz mit Lösungen von externen Anbietern

Ein individuelles Dashboard sorgt für die Übersicht aller eingesetzten bzw. freigegeben Applikationen innerhalb des Enterprise Marketplace. Zu den aktuellen Lösungen auf dem Marktplatz zählen unter anderem Web Server (z.B. Apache und Microsoft IIS), Application Server (z.B. Tomcat und JBoss), SQL-Datenbanken, Microsoft Enterprise Search sowie OpenSource-Pakete (z.B. LAMP Stack oder Joomla). Weiterhin kooperiert T-Systems mit einer Reihe von SaaS-Lösungen von Software-Partnern, die speziell für den Betrieb auf der T-Systems Infrastruktur geprüft wurden. Dazu gehören u.a. die Steuersoftware TAXOR, die Enterprise Social Media Lösung tibbr, die Business Process Management Suite T-Systems Process Cloud sowie das Nachhaltigkeitsmanagement WeSustain.

Cloud Computing auf Enterprise Level

T-Systems ist mit dem Enterprise Marketplace bereits dort angekommen, wohin sich andere Anbieter wie Amazon, Microsoft, Google, HP und Rackspace erst auf den Weg gemacht haben - bei den lukrativen Unternehmenskunden. Wo sich der Business Marketplace in erster Linie lediglich als Marktplatz für SaaS-Lösungen präsentiert, geht T-Systems mit dem Enterprise Marketplace deutlich weiter und bietet neben SaaS-Anwendungen ebenfalls Infrastruktur-Ressourcen und vollständige Lösungsansätze für Unternehmen inkl. die Integration von Eigenentwicklungen sowie Managed-Services.

Im Vergleich zu den aktuellen Cloud Playern am Markt verfügt T-Systems über keine Public Cloud und konzentriert sich stattdessen auf das Bereitstellen seiner Angebote über eine (Hosted/ Virtual) Private Cloud. Das kann sich mittelfristig rentieren. Aktuelle Marktzahlen von IDC versprechen ein Wachstum für die Public Cloud von 2013 mit 47,3 Billionen Dollar auf 107 Billionen Dollar im Jahr 2017. Die Beliebtheit der Private Cloud wird laut IDC zu Gunsten der Virtual Private Cloud (Hosted Private Cloud) abschwächen, sobald Public Cloud Anbieter damit beginnen, entsprechende Lösungen anzubieten, um den Bedenken der Kunden entgegenzukommen.

Ähnliche Beobachtungen haben wir während unserer GigaOM Studie "The state of Europe’s homegrown cloud market" gemacht. Cloud-Kunden fordern vermehrt Managed-Services. Zwar wollen sie von den Eigenschaften der Public Cloud - flexible Nutzung der Ressourcen, Pay per use - profitieren, dieses aber gleichzeitig in einem sehr sicheren Umfeld inkl. der Unterstützung bei der Integration von Anwendungen und Systemen durch den Anbieter. All dies können die Public Cloud Player in dieser Form derzeit noch nicht bieten, da sie sich vornehmlich auf ihre Self-Service Angebote konzentrieren. Das ist in Ordnung, da sie damit bestimmte Use Cases effektiv bedienen und bisher beachtliche Marktanteile in einem bestimmten Zielkundensegment erreicht haben. Wollen Sie allerdings an die großen Fische im Enterprise Segment gelangen, werden sie ihre Strategie an das T-Systems Portfolio ausrichten müssen, um die individuellen Bedürfnisse der Kunden bedienen zu können.

Eine Anmerkung zu dem Auswahlprozess von Partnern für den Enterprise Marketplace: Gespräche mit Partnern, die auf dem Business Marketplace ihre Lösungen anbieten, bestätigen einen knallharten Auswahlprozess, der für den Partner zu einer echten "Qual" werden kann. Spezifische Anpassungen speziell an die Sicherheitsinfrastruktur von T-Systems sind keine Einzelfälle und zeugen von einer hohen Qualitätssicherung durch T-Systems.



Google Apps unterstützt nun Google+ für Unternehmen

Google hat heute die ersten Google+ Funktionen speziell für Unternehmen veröffentlicht. Google Apps for Business Nutzer können ab sofort über einen Vorschaumodus und ohne Einschränkungen darauf zugreifen. Während dieser Vorschauphase können Unternehmen, die Google nutzen, die Business-Funktionen von Google+ bis Ende 2013 gratis verwenden. In der Zwischenzeit will Google weitere speziell für Unternehmen entwickelte Funktionen und Bedienelemente zur Verwaltung hinzufügen.

Google Apps unterstützt nun Google+ für Unternehmen

Privates Teilen im Unternehmen

Google Apps-Nutzer soll damit nun mehr Kontrolle über die Inhalte, die sie auf Google+ veröffentlichen erhalten. Wenn sie einen Beitrag erstellen, können sie diesen als eingeschränkt markieren. Eingeschränkte Beiträge sind ausschließlich dem Unternehmen zugänglich und können niemals, auch nicht im Nachhinein, mit Außenstehenden geteilt werden. Gleichzeitig haben sie bei jedem Beitrag die Flexibilität, ihn mit bestimmten Partnern oder Kollegen außerhalb des Unternehmens zu teilen.

Video-Meetings mit Einbindung von Gmail, Kalender und Docs

Google Apps Kunden können ein Meeting von Angesicht zu Angesicht mit Kollegen oder Kunden in aller Welt abhalten. Dazu benötigen diese lediglich ein Gerät mit einer Kamera und eine Internetverbindung. Mit Hangouts können bis zu 10 Personen an einem Video-Meeting teilnehmen – per Laptop, Smartphone oder Tablet-PC.

Wie Google im Juli angekündigt hatte, ist nun ein sogenannter Multiway-Video-Chat möglich. Dieser kann mit Hilfe von Hangouts und direkt über Gmail genutzt werden. Während des Hangout-Meetings ist es möglich, ein Google Doc zu öffnen. So können Kollegen ganz einfach zusammen ein Dokument erstellen oder ändern. Ab heute können Nutzer ebenfalls einen Hangout zu einem Kalendertermin hinzufügen. So können die Teilnehmer direkt über die Einladung oder den Kalendereintrag am Meeting teilnehmen.

Bedienelemente zur Verwaltung

Damit Nutzer ihre Beiträge wirklich nur mit den Menschen teilen, für welche die Informationen bestimmt sind, können Administratoren jetzt Standards für die Einschränkung von Beiträgen einstellen, die für das gesamte Unternehmen gelten. Sie können ebenfalls eingeschränkte Hangouts nutzen, um private Meetings innerhalb des Unternehmens zu starten.

Weitere Funktionen folgen

Diese neuesten Business-Funktionen für Google+ sollen erst der Anfang sein. Google hat für die kommenden Monate noch weitere Erneuerungen geplant, darunter eine mobile Version von Google+ für Unternehmenskunden und mehr Bedienelemente zur Verwaltung.



Big Data: Red Hat veröffentlicht seinen Storage Server 2.0

Auf der Suche nach einem on-Premise Cloud Storage oder Probleme mit Big Data? Dann hat RedHat da etwas neues im Portfolio, den Red Hat Storage Server 2.0. Die Open-Source-Storage-Lösung hilft beim Management unstrukturierter Daten und setzt nach Angaben des Open Source Giganten neue Standards im Enterprise- und Cloud-Storage-Markt. So soll die Lösung die Innovationen aus der Open-Source-Community zusammen mit der Leistungsfähigkeit standardbasierter x86-Server kombinieren und ermöglicht vielfältige Storage-Lösungen in den Rechenzentren vor Ort, in der Cloud und in hybriden Umgebungen.

Biiiig Data

Dank Social Media, Dokumenten, E-Mails, Bildern, Video- und Audio-Daten explodieren branchenweit die Mengen an unstrukturierten Daten. Das Wachstum der Daten übertrifft bei Weitem das der strukturierten Daten. Bis zum Jahr 2020 sollen laut Cisco 50 Milliarden Geräte mit dem Internet verbunden sein. Diese Prognose wird von einer IDC Studie unterstützt, nach der das digitale Ungetüm um das 50-Fache anwachsen wird – wobei wir hier von 90 Prozent an unstrukturierten Daten sprechen, die 2011 bereits 1,8 Zetabyte umfassten. Mit diesen Hintergrundinformationen stehen Unternehmen vor erheblichen Herausforderungen, die Daten zu verarbeiten und zu speichern. Proprietäre, monolithische Hardwarelösungen sind nicht dafür ausgerüstet und bieten den Unternehmen keine dafür geeigneten kostengünstigen Möglichkeiten.

RedHat hat dafür was im Portfolio

Die Storage-Lösung von Red Hat greift auf die Innovationen aus der Open-Source-Community zurück, um dieses riesige Wachstum zu bewältigen. Der Red Hat Storage Server 2.0 ermöglicht dazu eine Zusammenführung von File Storage und Object Storage. Dazu können Unternehmen sehr große Datenmengen in einem einzigen Storage-Pool gemeinsam speichern. Die Kombination von File und Object Storage soll die Verwaltung unterschiedlichster Daten vereinfachen und Unternehmen eine höhere Speicher- und Informationsflexibilität bieten, um das rasante Wachstum unstrukturierter Daten zu bewältigen und schneller sowie kostengünstiger auf die Daten zugreifen zu können.

Anhand des Red Hat Enterprise Linux soll der Red Hat Storage Server für mehr Wahlfreiheit sorgen und Unternehmen helfen leistungsfähige, skalierbare und verfügbare Speicherlösungen aufzubauen. Der Red Hat Storage Server adressiert das eigene Rechenzentrum, Private oder Public Cloud sowie hybride Umgebungen und eignet sich für das Speichern großer Datenmengen in den Bereichen High Performance Computing, arbeitsplatznahe Archivierung und die Ablage von Medieninhalten.

Die Funktionen des Red Hat Storage Server 2.0

  • Kompatibel mit mehr als 50 Dual-Socket-x86-Servern unterschiedlicher Hardwarehersteller
  • Unterstützt verschiedene Dateizugriffsprotokolle wie Common Internet File System (CIFS), Network File System (NFS), HTTP und OpenStack
  • Hohe Sicherheit ohne Kompromisse bei der Zugänglichkeit und Verfügbarkeit der Daten, einschließlich Georeplikation. Damit lassen sich selbst anspruchsvollste Speicherlösungen aufbauen.

Big Data und Hadoop

Die Software unterstützt Big Data Infrastrukturen und ist mit Apache Hadoop kompatibel. Dazu lässt sich der Red Hat Storage Server entweder zusammen mit dem Hadoop Distributed File System (HDFS) oder alleine nutzen. Er soll für einen schnellen Datenzugriff sorgen und öffnet Hadoop-Implementierungen für datei- oder objektbasierte-Applikationen. Die Managementkonsole des Red Hat Storage Server basiert auf dem oVirt-Projekt – einer Open-Source-Infrastruktur- und Virtualisierungsmanagementplattform – und bietet Administratoren von einem Punkt aus einen vollständigen Überblick über die Storage-Cluster.


Bildquelle: http://www.hostingtecnews.com



Achtung IT-Abteilungen: Hier kommt Google Drive

Das soll kein Hetzartikel gegen Google Drive werden. Es handelt sich dabei bestimmt um einen hervorragenden Service - ich durfte bisher noch nicht in den Genuss kommen. Dennoch muss auch alles Gute kritisch betrachtet werden. Denn neben den Bedenken bzgl. des Datenschutz, dabei handelt es sich nicht um die Diskussion wegen dem Eigentum der Daten, wird Google Drive auch den IT-Abteilungen massives Kopfzerbrechen bereiten.

Google Drive ist angekommen

Google Drive ist Googles neuer Cloud Storage, der zu Beginn dieser Woche vorgestellt wurde. Google möchte damit die Zusammenarbeit fördern und hat dazu Google Docs und Drive integriert. Google Drive bietet neben Funktionen wie Smart Tagging, einer neuartigen Bilderkennung und der Unterstützung der OCR Technologie ebenfalls 5GB kostenlosen Speicherplatz der mit neun Kapazitätsstufen erweitert werden kann. Der Preis für weiteren Speicher beginnt bei 2,49 US-Dollar pro Monat für 25 GB.

Google Drive im Unternehmen

Google Drive ist selbstverständlich nicht der einzige Cloud Storage, über Dropbox und Box sollten IT-Abteilungen ebenso beunruhigt sein. Aber es gibt einen entscheidenen Unterschied zu allen anderen Cloud Storage Services und Google Drive. Denn auf Grund der Vielzahl an Google Anwendungen, die zudem noch z.T. mit Google Drive integriert sind, allen voran Google Mail, YouTube, Google+ oder Google Maps erschweren es den IT-Abteilungen, Google Drive auszusperren und so das Unternehmen vor Datenverlusten zu beschützen. Bei anderen Anbietern wie Dropbox oder Box ist das einfacher, da beide nur einen Dienst anbieten.
Google Docs konnte bereits seit längerer Zeit als Datenspeicher genutzt werden, jedoch war dieses eher eine "Randfunktion" die nicht so populär gemacht wurde. Google Drive hingegen wurde bereits im Vorhinein massiv durch die Medien getrieben. Spekulationen und Gerüchte waren in den letzten Wochen an der Tagesordnung. Das führt natürlich dazu, dass Google Drive auch in der breiten Öffentlichtkeit war genommen wird und die Nutzung wahrscheinlich erhöht. Google sollte also angesichts der Probleme für Unternehmen, Möglichkeiten bieten, den Zugriff auf Google Drive separat von anderen Google Dienst zu sperren.

Ich bin zwar persönlich auch kein Fan von Blockaden und mag es frei zu arbeiten. Wenn es jedoch um sensible Unternehmensdaten geht, die ein Mitarbeiter zusammen mit seinen privaten Daten im Google Drive speichern könnte, hört der Spaß ein wenig auf. Zudem wird ein Stück Papier, in dem der Mitarbeiter auf die Nutzung des Service verzichtet, wahrscheinlich nicht viel bringen. Wie bereits geschrieben, ich bin kein Fan von Blockaden, aber in gewissen Maßen muss ein Mitarbeiter auch vor sich selbst geschützt werden. Denn auch wenn die Consumerization langsam Einzug erhält, geht nicht jeder Mitarbeiter so sorgsam mit den Daten um, wie er es sollte.

Es geht an dieser Stelle also darum, wie IT-Abteilungen sicherstellen können, dass ein Mitarbeiter mögliche Unternehmensdaten nicht in seinem privaten Google Drive speichert. Denn solange nicht geklärt ist bzw. Google nicht dazu Stellung nimmt, inwieweit sie mit den Daten die im Google Drive gespeichert werden umgehen, also ggf. analysieren usw., kann und darf Google Drive (für Privatleute) im Unternehmen nicht eingesetzt werden.



Google Drive ist auch für Google Apps Nutzer verfügbar. Preise sind erheblich teurer.

Google Drive steht ab sofort auch für Google Apps Kunden zur Verfügung. Somit steigt Google mitGoogle Drive for Google Apps auch in den Cloud Storage Markt für Unternehmen ein. Wie generell von Unternehmensangeboten bekannt, weichen die Google Drive Preise für Google Apps Kunden deutlich von den Preisen für Privatkunden ab.

Google Drive ist auch für Google Apps Nutzer verfügbar. Preise sind erheblich teurer.

Google Drive for Google Apps bietet zunächst die grundlegenden Funktionen wie das Standard Google Drive. Da sich Google Apps jedoch ausschließlich auf Unternehmen und Organisationen konzentriert, wird für Google Drive for Google Apps die Infrastruktur genutzt, der auch alle anderen Google Apps Services zu Grund liegt. Das bedeutet, dass Google Drive vollständig in die Google Apps Domain integriert ist und dem Administrator somit neue Tools für ein zentralisiertes Management des Cloud Storage zur Verfügung stehen, mit dem er Speicherplatz für einzelne Benutzer oder Teams hinzufügen oder entfernen kann.

Zudem wird der Zugriff auf Google Drive innerhalb der Google Apps Infrastruktur verschlüsselt und kann optional mit einer 2 Wege Authentifizierung abgesichert werden. Zusätzlich garantiert Google eine Verfügbarkeit von 99.9% sowie einen 24/7 Support.

Über den Chrome Web Store für Google Apps stehen viele Tools von Drittanbietern bereit, die direkt auf die Daten in Google Drive zugreifen können. Darunter DocuSign, HelloFax, Lucidchart und Smartsheet.

Die Preise für Google Drive for Google Apps

Wie bei Google Drive für Privatkunden erhält auch jeder Google Apps Nutzer 5GB kostenlosen Speicherplatz. Dieser kann ebenfalls mit weiteren Speicheroptionen erweitert werden. Auch hier unterteilt Google den möglichen nutzbaren Speicherplatz in neun Kapazitätsstufen, die sich preislich jedoch erheblich von denen für den Privatkunden unterscheiden. Ein weiterer Unterschied sind die Staffelungen. Google Drive for Google Apps beginnt bei 20GB und bietet als zweite Erweiterung 50GB. Das Standard Google Drive beginnt hingegen bei 25GB gefolgt von 100GB.

Google Drive ist auch für Google Apps Nutzer verfügbar. Preise sind erheblich teurer.

Die kleinste Erweiterung (20GB) für Google Drive for Google Apps kostet 4,00 US-Dollar pro Monat, die Größte (16TB) 1.430,00 US-Dollar pro Monat. Bei Google Drive für Privatkunden sind es hingegen 25GB für 2,49 US-Dollar pro Monat bzw. 16TB für 799,99 US-Dollar pro Monat.

Derzeit sind Nutzer von Google Apps for Education und Google Apps for Government noch nicht in der Lage für Google Drive zentral weiteren Speicher bereitzustellen bzw. diesen zu verwalten.



SpiderOak veröffentlicht Cloud Storage Service für Unternehmen

Der Cloud Storage Anbieter SpiderOak veröffentlicht mit SpiderOak Blue seine Cloud Storage Lösung für Unternehmen und geht u.a. in den Ring mit Dropbox und Box. Mit drei unterschiedlichen Service Levels adressiert der Anbieter kleine, mittelständische und Großunternehmen.

Seit 2006 bietet SpiderOak mit SpiderOak Orange bereits einen Cloud Storage Service für Privatkunden an. Die Differenzierung zu anderen Cloud Storage Anbietern versucht SpiderOak mit einem "Zero-Knowledge Privacy Standard". Das bedeutet, dass die Nutzer selbst ihre Passwörter erstellen können, ohne das der Anbieter die unverschlüsselten Daten lesen kann, selbst wenn er es versuchen würde.

Diese Funktionalität bildet SpiderOak nun in seinem Unternehmensangebot SpiderOak Blue ab und ermöglicht einem IT-Administrator die Verwaltung der Passwörter. Innerhalb einer virtuellen Appliance wird ein Control Panel bereitgestellt. Diese virtuelle Appliance wird in einer virtuellen Maschine (VM) gekapselt, so dass die VM in der eigenen Infrastruktur des Unternehmen ausgeführt werden kann. Der Cloud Storage Service erstellt zudem ein zentrales Repository, mit dem die Unternehmensdaten verwaltet und provisioniert werden können. Damit soll sichergestellt werden, dass ein Unternehmen immer im Vollbesitz der Rechte bleibt und das die SpiderOak Mitarbeiter niemals Zugriff auf die im Cloud Storage gespeicherten Daten erhalten.

SpiderOak Blue wird in drei unterschiedliche Service Levels unterteilt.

    SpiderOak Blue for SMBs
    Ermöglicht dem Unternehmen den vollen Zugriff auf die Daten inkl. der Auditing Informationen. Über die Web-basierte Management Oberfläche können die Passwörter zurückgesetzt und Reports betrachtet werden.

    SpiderOak Blue OpenLicense (OL)
    Umfasst den Funktionsumfang der SpiderOak Blue for SMBs, richtet sich jedoch an Universitäten und Schulen. Zudem dürfen die Endnutzer die Rechteverwaltung übernehmen. Die Benutzer sind für das Passwort selbst zuständig. Es existiert keine zentrale Möglichkeit zum zurücksetzen des Passworts.

    SpiderOak Blue Plus
    Richtet sich an große Unternehmen inkl. einer virtuellen Appliance die alle Managementfunktionen in einer virtuellen Maschine vereint und in der Infrastruktur des Unternehmens betrieben werden kann. Darüber hinaus ermöglicht SpiderOak Blue Plus eine vollständige Integration in Microsoft Active Directory, OpenLDAP und RedHat Directory Server sowie ein integriertes Passwort Management für LDAP oder RADIUS (wie z.B. RSA SecurID).

Die Kosten für den SpiderOak Blue Service betragen 400 US-Dollar pro Terabyte, unabhängig von der Anzahl der Benutzer oder Systeme die auf die Daten zugreifen.


Bildquelle: http://www.zetta.net



Box veröffentlicht mit OneCloud einen iPad App Katalog für die Mobile Enterprise Cloud

Der Cloud Storage Anbieter Box.com hat eine neue App für das iPad veröffentlicht, in der die bekanntesten mobilen Anwendungen die mit dem Cloud Storage Service zusammenarbeiten unter einem Dach vereinigt werden. Das Ziel ist die enge Integration dieser Anwendungen mit Box, wodurch alle Daten dieser Apps automatisch in der Box Cloud gespeichert werden. Box fokussiert sich damit insbesondere auf mobile Anwender aus Unternehmen.

"Box OneCloud" vereinigt zunächst nur iOS Applikationen, da es sich nach Aussage des Unternehmens, hierbei um die bekanntesten Anwendungen für Unternehmen handelt. Klickt ein Nutzer auf den Link der Anwendung innerhalb der OneCloud Sammlung, wird er automatisch in den iTunes AppStore geleitet, wo er die entsprechende Anwendung herunterladen und installieren kann.

Box OneCloud unterstützt mehr als 30 sogenannte Productivity Apps für iOS, mit denen Nutzer mobil arbeiten können, darunter Anwendungen wie Quickoffice, Adobe EchoSign, Nuance PaperPort Notes und PDF Expert. Dabei wurde der App Katalog speziell für Anwender aus Unternehmen zusammengestellt.

Anfang Mai soll Box OneCloud dann ebenfalls Anwendungen für Android in einem Katalog vereinigen. Sobald entsprechende mobile Windows Apps verfügbar sind, wird Box zudem auch in diesem Bereich aktiv werden.



TeamDrive: Dropbox für Unternehmen

Viele (deutsche) Unternehmen scheuen die Nutzung von Dropbox aus sicherheits- und datenschutzrechtlichen Bedenken. Dennoch besteht das Interesse, von überall aus auf die Unternehmensdaten zugreifen zu können und verteilt zu kollaborieren.

Wer Dropbox meiden möchte, für den kann TeamDrive aus Hamburg eine mögliche Lösung bieten. TeamDrive stellt einen Cloud Storage inkl. Kollaborations- und Synchronisationsfunktionen bereit, der sich neben privaten Nutzern verstärkt auf Unternehmen konzentriert. Das zeigen die Funktionen rund um den Service.

Teamdrive ist Dropbox für Unternehmen

Synchronisation über mehrere Betriebssysteme

Wie andere moderne Cloud Storage Angebote ermöglicht auch TeamDrive die Synchronisation aller Daten über mehrere Betriebssysteme hinweg, darunter Windows, Mac und Linux. Das bedeutet, dass das Hinzufügen einer Datei oder das Ändern an einer Datei automatisch mit allen Betriebssystemen abgeglichen wird, die den TeamDrive Verbund angehören. Mobile Clients für Android und iPhone/ iPad haben die finalen Tests durchlaufen und warten auf die Freigabe im Apple App Store. Diese wird für den März erwartet.

TeamDrive synchronisiert zwischen mehreren Betriebssystemen

Kollaboration und Rechteverwaltung

Der eigentliche Benefit von TeamDrive gegenüber Dropbox besteht allerdings beim Thema Zusammenarbeit und hier in Punkto Rechteverwaltung. Selbstverständlich bietet Dropbox die Möglichkeit Daten via Freigaben zu teilen. Aber diese Funktion ist wahrlich nicht geeignet für die Nutzung im Unternehmen.

So ermöglicht TeamDrive bspw. das Erstellen von Arbeitsgruppen. Dabei stellt ein zu sychronisierender Ordner eine einzelne Arbeitsgruppe dar. Das Einladen bzw. Hinzufügen weiterer Gruppenmitglieder funktioniert, wie von Dropbox bekannt, per E-Mail Adresse. Bei der Rechteverwaltung unterscheidet TeamDrive dann zwischen vier Status, die einem Gruppenmitglied zugeordnet werden können. Download only, bedeutet, dass ein Gruppenmitglied Daten lediglich herunterladen aber nicht hochladen darf. Read/Write ermöglicht dem Mitglied das vollständige Bearbeiten von Dateien. Als Superuser darf ein Benutzer Dateien bearbeiten und weitere Gruppenmitglieder einladen sowie als Administrator Gruppenmitglieder und Dateien vollständig vom Server löschen.

Neben der Rechteverwaltung verfügt TeamDrive zudem über eine Versionsverwaltung, mit der Änderungen an Dokumenten und Dateien von anderen Gruppenmitgliedern nachvollzogen werden können. Zudem kann auf ältere Versionsstände der Dokumente zugegriffen werden.

TeamDrive verfügt über eine integrierte Versionsverwaltung

Sicherheit, Verschlüsselung und Datenschutzgütesiegel des ULD

TeamDrive verschlüsselt die Daten vor der Übertragung vom lokalen Rechner zum Server mit dem AES-256 Algorithmus. Zudem wird für jeden Ordner ein eigener AES-256 symmetrischer Schlüssel erzeugt.

Darüber hinaus wurde TeamDrive vom Unabhängigen Landeszentrum für Datenschutz Schleswig-Holstein (ULD), u.a. bekannt durch Thilo Weichert, überprüft und mit dem Datenschutzgütesiegel ausgezeichnet. Im Rahmen der Rezertifizierung 2011 und der Nutzung der Amazon Cloud hat das ULD folgende Aussage getroffen:

TeamDrive hat alle möglichen Maßnahmen aus technischer und vertraglicher Sicht getroffen um personenbezogene Daten gegen unberechtigten Zugriff zu schützen. Aufgrund der besonderen rechtlichen Situation bei der Nutzung des Internets und der Amazon-Cloud kann zurzeit aber nicht ausgeschlossen werden, dass US-Sicherheitsbehörden theoretisch Zugriff auf personenbezogene Daten zur Laufzeit des Systems erhalten könnten. Dies betrifft jedoch allenfalls Ihre Anmeldedaten wie Nutzername und Email-Adresse.

Speicherorte

TeamDrive kann in zwei unterschiedlichen Varianten genutzt werden. Die Erste besteht in der typischen Nutzung als Cloud Storage Service via TeamDrive Cloud, wo die Daten auf den Servern (Amazon S3) von TeamDrive gespeichert werden.

Die zweite Variante ist der Einsatz eines TeamDrive Servers im eigenen Rechenzentrum. Dazu steht zum einen der TeamDrive Personal Server, für kleine Unternehmen sowie der TeamDrive Enterprise Server für Großunternehmen bereit.

Kosten

TeamDrive bietet drei unterschiedliche Angebote: TeamDrive Free (kostenlos), TeamDrive Personal (29,99 EUR pro Jahr) und TeamDrive Professional (5,99 EUR pro Monat bzw. 59,99 EUR pro Jahr). Bei allen sind standardmäßig 2 GB kostenloser Speicherplatz beinhaltet. Wer mehr haben möchte muss zusätzlich zahlen.

So kostet eine Speicherplatzerweiterung um

  • 10 GB = 5,99 EUR pro Monat bzw. 59,99 EUR pro Jahr
  • 25 GB = 14,95 EUR pro Monat bzw. 149,50 EUR pro Jahr
  • 50 GB = 29,90 EUR pro Monat bzw. 299,00 EUR pro Jahr

Fazit

Ein Blick auf die Funktionen zeigt, dass TeamDrive für den Unternehmenseinsatz gedacht ist. Neben den typischen Dropbox Funktionen beinhaltet der Dienst zudem Möglichkeiten zur Versionskontrolle und vor allem der Rechteverwaltung, die für Unternehmen unerlässlich sind. Zudem wurde TeamDrive mit dem Datenschutzgütesiegel des ULD ausgezeichnet, dass derzeit die größte Aussagekraft von allen auf dem Markt befindlichen Gütesiegeln in Bezug auf den Datenschutz hat.



Dropbox bietet nun eine Lösung für Unternehmen

Dropbox hat mit seiner neuen Lösung "Dropbox for Teams" seine Infrastruktur nun auch für kleine und mittelständische Unternehmen geöffnet.

Mit "Dropbox for Teams" erhalten Unternehmen die Möglichkeit mit 5 Benutzern 1 TB Speicherplatz für 795 Dollar pro Jahr zu nutzen. Jeder weitere Benutzer kostet 125 Dollar zusätzlich, wodurch der zu nutzende Speicherplatz mit 200 Gigabyte vergrößert wird.

Nachdem Dropbox erkannt hat, dass über 1 Millionen Unternehmen die Lösung nutzen, haben sie sich entschlossen nun eine Unternehmenslösung anzubieten, so Sujay Jaswa Vize Präsident Business Development bei Dropbox.

Um ihren Kunden ein Upgrade auf "Dropbox for Teams" schmackhaft zu machen, bietet Dropbox dazu weitere Dienstleistungen wie eine zentralisierte Abrechnung und Telefon-Support.

Dropbox hat 45 Millionen Nutzer und konkurriert im Cloud-Storage Bereich mit Unternehmen wie Google Docs, Apple icloud und Box.net.



Cloud Computing ist ein Transformationsprozess der Unternehmens-IT

Für Unternehmen kann es durchaus attraktiv werden, in Zukunft selbst als Cloud (Service) Provider aufzutreten. Genau dann, wenn sie sich im Laufe der Evaluation doch für den Einsatz einer Private Cloud im eigenen Rechenzentrum entschieden haben. Wir erinnern uns: Eine Private Cloud bedarf Unmengen an physikalischen Ressourcen um den Wunsch nach Flexibilität und quasi unendlichen virtuellen Ressourcen zu befriedigen. Heißt im Umkehrschluß daher für Private Cloud freundliche Unternehmen: Investieren, das eigene Rechenzentrum umbauen und cloudfähig zu machen. Der dabei entstehende „Überschuss“ an Ressourcen kann bspw. anderen Unternehmen angeboten werden. Aber auch ohne die eigene Private Cloud ist der Weg zum Cloud Service Provider ohne weiteres möglich. Speziell dann, wenn das Unternehmen aus dem Bereich der klassischen Anwendungsentwicklung kommt und nun auf SaaS als Vertriebsmodell setzt. Hier reicht z.B. die Nutzung einer Public Cloud, um auf dieser Infrastruktur die eigenen Services auszuliefern.

Soll es allerdings dazu kommen, müssen jedoch zunächst viele Veränderungen innerhalb der IT-Infrastruktur aber auch strukturelle Änderungen in der Organisation und in den Köpfen der Beteiligten stattfinden. Das fängt bereits damit an, dass ein Unternehmen, das Cloud Services anbieten möchte, selbst Cloud Computing nutzen muss. Nicht nur um die Glaubwürdigkeit zu unterstreichen, sondern ebenfalls, um die notwendige Expertise mit dem Umgang von Cloud Computing zu erlernen und aufzubauen.

Um den Transformationsprozess zu starten benötigt es natürlich keine Private Cloud, im Gegenteil. Aber auf jedenfall detaillierte Analysen und das Verständnis für den bisherigen Einsatz der IT im Unternehmen und das Identifizieren möglicher Ansätze die Aufzeigen, wie Cloud Computing hier gezielt eingesetzt werden kann. Erst dann kann eine Entscheidung für oder gegen Cloud Computing getroffen werden.

Unternehmen, deren Geschäftsmodell in erster Linie darin besteht Softwareapplikationen nach Bedarf zu entwickeln und ggf. die Daten für die Kunden zu hosten, bietet Cloud Computing ein enormes Potential und hat einen entscheidenen Einfluss auf die IT, den Softwareentwicklungsprozess sowie die interne Zusammenarbeit innerhalb des Projektteams und in Richtung der Fachabteilungen.

Ein Fallbeispiel

Um die im letzten Abschnitt genannte Situation zu vertiefen, werde ich im Folgenden ein reales Szenario aus der Praxis (anonym) beschreiben und hierfür einen möglichen Ansatz für den Einsatz von Cloud Computing aufzeigen.

Das Unternehmen entwickelt auf Basis von Projektgeschäften Java Anwendungen, wobei die Kundenanzahl pro Projekt und Geschäftsfeld variiert. So existieren Projekte mit maximal einem Kunden und Projekte mit mehr als 10. Dieses Beispiel beschreibt ein Projekt mit ca. 12 Kunden, wobei die Kunden alle dieselben Anforderungen an die Software besitzen und daher alle mit ein und derselben Anwendung arbeiten können. Die größte Herausforderung besteht, abgesehen von der fachlichen Komplexität, in der sorgfältigen Trennung der Daten der jeweiligen Kunden.

Die Daten aller Kunden sind auf den Servern des Unternehmens gespeichert und werden mittels Java Clients abgerufen. Bei den Client Anwendungen handelt es sich um Swing GUIs, die für die Ansicht und die Eingabe der Daten dienen. Parallel wurde auf Wunsch der Kunden im Laufe der Zeit eine Web Anwendung entwickelt, die lediglich für den Lesezugriff genutzt werden darf. Die Grundlage der Web Anwendung ist eine Art Swing Übersetzer, um den Code der Swing GUI auch im Web auf eine einfache Weise weiterzuverwenden.

Probleme

Die aktuellen Probleme bestehen zunächst in der Trennung der Projektrepositories zwischen der Fachabteilung und dem Entwicklungsteam. Die Fachabteilung verwaltet die Business Cases auf Basis eines Microsoft SharePoint. Das Entwicklungsteam nutzt das Open Source Versionsverwaltungssystem Subversion. Im ersten Moment klingt das nicht nach einem Problem. Die Fachabteilung speichert und überarbeitet die Business Cases auf ihrem SharePoint. Das Entwicklungsteam kopiert die fertigen Business Cases anschließend manuell in das eigene Subversion Repository. Das hört sich im ersten Moment nicht nach einem Problem an. Allerdings kommt es dadruch häufiger vor, dass die Fachabteilung weitere Änderungen an den Business Cases vornimmt und vergisst das Entwicklungsteam darüber zu informieren. Dadurch werden bestimmte Anforderungen von der Fachabteilung softwaretechnische nicht umgesetzt, da das Entwicklungsteam von den Änderungen keine Kenntnisse besitzt. Es wird daher auf unterschiedlichen Versionsständen entwickelt.

Ein weiteres Problem besteht in dem Deployment der Anwendungen in Richtung des Kunden. Der Prozess von dem vorab Test der Anwendung, über den Build bis hin zur eigentlichen Auslieferung dauert (inkl. Automatisierung) bis zu einer Stunde. Hinzu kommt, dass für die Java Clients und die Web Applikation zwar auf den selben Programmcode zurückgegriffen wird, auf Grund des Swing Übersetzers jedoch immer wieder manuelle anpassungen vorgenommen werden müssen.

Darüber hinaus sind lokale Java Anwendungen nicht mehr zeitgemäß und Web Applikationen werden die Zukunft bestimmen.

Ein weiteres Problem besteht mit dem internen IT-Dienstleister, der das unternehmenseigene Rechenzentrum verwaltet und für die Bereitstellung der für das Projekt benötigten Produktivsysteme und Testsysteme verantwortlich ist. Die genauen Probleme bestehen hier in den Kosten sowie der langsamen Bereitstellung der Server und der Wartung.

Ein möglicher Lösungsansatz

Der Lösungsansatz is sehr generisch und kann im Prinzip von jedem Unternehmen, das noch klassisch Software entwickelt adaptiert werden.

Die Problematik mit dem Repository kann bspw. durch die Nutzung einer SaaS Cloud Office Suite wie z.B. Google Apps oder Office 365 gelöst werden. Abgesehen von der tatsächlichen Umsetzung muss aber zunächst bei allen Beteiligten erkannt werden, dass ein zentraler Ansatz, also ein gemeinsames Repository für die Fachabteilung als auch für das Entwicklungsteam notwendig ist, um in Zukunft auf denselben Versionsständen zu arbeiten.

Für das Deployment bzw. der gesamten Anwendungsentwicklung sollte ein vollständig neuer Ansatz verfolgt werden. Was hier benötigt wird, ist eine Cloud Developement Platform. Auf dieser wird zugleich auf Basis von PaaS die Software entwickelt, um im Anschluss den Kunden mittels SaaS die Software bereitszustellen.

Zudem haben beide Lösungsansätze (Cloud Repository, Cloud Developement Platform) den Vorteil, dass damit ebenfalls die verteilte Entwicklung von Software von unterschiedlichen Standorten aus sehr bequem und flexibel stattfinden kann.

Ausgehend davon, dass sich das Unternehmen für den Einsatz einer eigenen Private Cloud entscheidet, würde der Einsatz einer internen Hybrid Cloud am meisten Sinn machen. Eine interne Hybrid Cloud deswegen, da für die Softwareentwicklung sowie dem Dokumenten- und Informationsaustausch eine Private Cloud benötigt wird und für die Bereitstellung der Software per SaaS nur eine Public Cloud mit öffentlichen Zugriff eingesetzt werden sollte. Für diesen Fall kann sich der interne IT-Dienstleister ebenfalls überlegen, eine externe Entwicklungsplattform auf Basis von PaaS öffentlich anzubieten, um damit seine Infrastruktur besser auszulasten.

Der interne IT-Dienstleister kann natürlich auch umgangen werden und das Projekt bzw. das Unternehmen bedient sich direkt bei einem Cloud Anbieter. In diesem Fall ist es aber zunächst selbst für das Deployment der Serversysteme zuständig.

Fazit

Bei diesem Beispiel handelt es sich tatsächlich um ein echtes Fallbeispiel aus der Praxis. Wie man sieht, ist der Umstieg von der klassischen Softwareentwicklung hin zum Deployment von SaaS Anwendungen nicht trivial und mit vielen Hürden verbunden. Hier sind ganz neue Ansätze gefragt, die viele Bereiche eines Unternehmens und zwischen Unternehmen beeinflussen. Es handelt sich hier nur um einen möglichen, nicht bis ins Detail betrachteten, Lösungsansatz. Ein Vollständiger (inkl. exakter Problembeschreibung und Lösung) würde ohne weiteres ein Buch füllen.

Was hier allerdings sehr deutlich wird ist, dass sich ein Unternehmen in diesem Fall verändern muss. Alle Beteiligten müssen daran mitwirken und das Unternehmen muss im Prinzip um 180° gedreht werden. Denn die Art wie Software entwickelt wird hat sich verändert, was auch Auswirkungen auf den gesamten Softwareentwicklungsprozess hat. Dabei sollte niemals vergessen werden, dass es sich um keine triviale Aufgabe handelt, eine Software verteilt, skalierbar, hochverfügbar, usw. zu entwickeln.



Cloud Computing ist die Chance für Unternehmen ihre Insellösungen aufzuräumen

Es gibt viele Anwendungsbereiche, mit denen Cloud Computing einem Unternehmen helfen kann agiler, effizienter, kostentransparenter usw. zu arbeiten und sich gegenüber dem Mitbewerb den einen oder anderen Vorteil zu verschaffen. Dafür stehen mit Cloud Services à la SaaS, PaaS und IaaS bereits viele interessante Lösungen bereit.

Für die reinen Cloud Computing Nutzer muss daher zunächst exakt evaluiert werden, wo Cloud Computing tatsächlich helfen kann. Heißt also sich einen Marktüberblick zu verschaffen und schauen: Was gibt es, was kann ich für mich gebrauchen und inwieweit ist der Service kompatible und integrierbar. Denn es gibt durchaus Bereiche, wo Cloud Computing keinen Sinn macht. Die gesamte Infrastruktur per IaaS in die Cloud zu verlagern kann so bereits das Ende bedeuten - nicht technischer, aber finanzieller Natur. Also, nicht alles macht Sinn, aber es gibt dennoch viele Bereiche wo Cloud Computing wirklich nützlich ist. Nehmen wir SaaS oder PaaS. Office Anwendungen und CRM Systeme werden von jedem Berater als erstes genannt. Logisch, ist auch einfach zu identifizieren und sehr naheliegend. ;) PaaS Angebote sind ebenfalls sehr attraktiv. Speziell wenn bspw. mal kurz eine cloudfähige PHP oder Java Anwendung getestet werden soll oder ein Startup seine Ideen kostengünstig umsetzen möchte.

Schwieriger wird es allerdings, wenn mehr als nur Office und CRM in die Cloud bewegt werden sollen. Viele Unternehmen sind mit proprietären Eigenentwicklungen unterwegs die für die Cloud neu entwickelt werden müssen oder die einzelnen Systeme sind so ineinander integriert, dass der Aufwand einfach zu hoch wäre. Vielleicht haben an dieser Stelle genau die Unternehmen den entscheidenden Vorteil, die noch über eine große Anzahl von Insellösungen (einzelne Systeme die z.B. nicht kompatible zueinander sind) verfügen. Insellösungen sind von Beratern grundsätzlich verpönt und führen zu ein enormes Maß an Beratungsbedarf und $$$! ;) Bitte nicht falsch verstehen! Ich bin ebenso der Ansicht, dass IT-Systeme nur dann harmonisch miteinander zusammenarbeiten, wenn die Schnittstellen klar definiert und eine vollständige Integration vorgenommen wurde.

Dennoch: Unternehmen mit Insellösungen haben es nun einfacher ein Einzelsystem dieser Insellösung gegen einen Cloud Service auszutauschen, um darüber sukzessive ein vollständig integriertes (Gesamt)-System von mehreren Cloud Services zu erhalten.