Google NEXT 2018 – Die Cloud-Konferenz von Google für Europa

  • Google NEXT ist einer der großen Cloud Shows in Europa
  • Wie aus einer Consumer Company ein Enterprise Player wird
  • Welche Fragen sollten sich Unternehmen stellen, die über Google in ihrem Unternehmen nachdenken?

Google hat den europäischen Enterprise Markt im Visier

Diese Woche fand in London die Google NEXT Konferenz statt. Mit ca. 7.000 Teilnehmern ist der europäische Counterpart der Google NEXT, die jedes Jahr in San Francisco stattfindet, nicht viel kleiner. Neben der ebenfalls jährlichen Google IO, die sich an Entwickler richtet, ist die Google NEXT der wichtigste Event im Kalender des Cloud Giganten.

Schon fast üblich für die Hyperscaler, Google, Microsoft oder Amazon, ist ein reines Feuerwerk von Announcements an ihren Events. Crisp Research war vor Ort, um im Gespräch mit Google-Executives und Produktverantwortlichen herauszufiltern, was wirklich für Kunden in Deutschland relevant ist. Dabei ist nicht zu übersehen, dass Google sehr stark auf den Enterprise-Markt zielt. Weder die Google Compute Platform (GCP) noch die “Office” GSuite haben noch viel mit dem Consumer-Markt zu tun. Auch wenn die Skaleneffekte der Rechenzentren und Netzwerke sicher vom Consumer-Markt profitieren, fokussieren sich die Announcements doch darauf, die Google Infrastruktur und die Cloud-Native Softwareentwicklung im “Google-Stack” attraktiv für Unternehmen zu machen. Im Detail sind folgende Ankündigungen bemerkenswert:

Immer regionalere und steuerbarere Datenhaltung: Obwohl Cloud Services im Idealbild global und immer hochverfügbar sind, haben Enterprise-Kunden natürlich traditionell - auch geprägt durch schlechte Erfahrungen mit den ersten Clouds - immer zwei Fragen: Wo liegen die Daten tatsächlich, um letztlich ein gutes Gefühl zu haben, dass Enterprise Anwendungen auch Disaster in einzelnen Cloud Rechenzentren überleben? Und zweitens, wie groß sind die Latenzen mit denen man rechnen muss? Natürlich bringen Globalisierung und Konsolidierung der Hyperscaler die Kosten runter. Dennoch dürfen Daten nicht zu weit voneinander entfernt liegen, um in wenigen Millisekunden in den Anwendungen und damit beim Kunden zu sein. Diese zwei Announcements zeigen, dass Google hier eine gute Balance gefunden hat.

  • BigQuery, das Data-Warehouse für sehr große Datenbestände von Google, ist bereits in der EU verfügbar. Heute kommt noch eine Location in London dazu und Frankfurt ist als nächste Verfügbarkeit angekündigt. Beeindruckende Kundenreferenzen, zum Beispiel von Twitter, zeigen, wie man heute kostengünstig mit 300 Peta-Byte Datenvolumen umgehen kann.
  • Dual- und Multi-Region Optionen für Storage Dienste. Das Beta-Announcement ermöglicht für Storage Services selbst zu entscheiden wo Google die Daten speichert und repliziert. Während bisher viele Kunden aus Deutschland ihre Daten einfach in die “Frankfurt Region” gelegt haben und es Google überlassen haben dies in den drei Zonen dieser Region zu verteilen, bietet die neue Option deutlich mehr Kontrolle. Insbesondere für international verteilte Firmen kann man so sicherstellen, dass in den meisten Fällen ein Daten-Replika näher beim Anwender liegt.

  • GSuite, Google’s Office Productivity Suite, speichert wo man möchte. Mit der Neuerung lassen sich jetzt einzelne Benutzer eines Unternehmens auf Organisations-Einheiten mappen, die dann ihre Daten in einer bestimmten Region ablegen. Obwohl die ganze Firma (Google-Domain) nahtlos zusammenarbeitet und ein einheitliches “Google Drive” sieht, liegen die Daten also nahe in der Region, in der die entsprechenden Nutzer hauptsächlich arbeiten. Damit bekommt man nicht nur die Compliance, sondern nochmal mehr Performance hin. Zudem arbeiten die Google Docs, Slides und Spreadsheets ja schon immer als Apps und nicht als File-Editoren, wie bei Microsoft. Es werden also nie ganze Dateien, sondern immer nur die kleinen Änderungen übertragen. Neben der erheblich intensiveren Kollaboration von GSuite ist die Region-Verwaltung ein weiterer Vorteil gegenüber Office 365.

Quelle: Google

Netzwerk und Security-Tooling - Die wahren Hyperscaler-Stärken. Wie das Business Modell der Hyperscaler schon nahe legt, versucht man möglichst viele Kunden mit möglichst gleichen Diensten aus einer möglichst gemeinsam genutzten Infrastruktur mit so wenig Menschen wie irgendwie nötig zu bedienen. Dass die Skaleneffekte auf den geteilten Infrastrukturen nur richtig funktionieren, wenn man ein außerordentlich gutes Netzwerk hat, liegt auf der Hand. Google ist heute neben den Telcos und Microsoft einer der größten Betreiber internationaler Netze. Um diese Compute- und Network-Infrastruktur mit möglichst wenig Menschen zu betreiben, hat Google schon sehr lange an Automatisierungs- und Security-Tools gearbeitet. Nun werden die Security Tools zunehmend für Unternehmen mit Google’s charakteristischen einfachen Bedienung verfügbar:

  • Hybrid Cloud-Computing ist nun auch bei Google in aller Munde. Da kommt ein neuer Netzwerk-NAT Service gerade richtig. Kombiniert mit dem Container-Management Kubernetes und auch mit den neuen ISTIO Toolset lässt sich die Google Cloud als Extension des eigenen Rechenzentrums konfigurieren. Auf Google-Seite ist das alles als Software Defined Network realisiert. Auf Kundenseite braucht man ggf. Hardware und Konfigurations-Dienste, die beispielsweise Cisco bereits anbietet. Mittelfristig lassen mit solchen Topologien moderne Micro-Service Mash-Architekturen realisieren, die einzelne Dienste On-Premises und andere Dienste der gleichen Anwendung beim Hyperscaler laufen lassen.
  • Das neue GSuite Security Alert Center macht es für Enterprise Admins immer einfacher mögliche Sicherheitsprobleme zu erkennen. Machine Learning identifiziert unübliche Zugriffsmuster oder verdächtige Datenfreigaben. Parallel dazu lassen sich durch neue Organization Policies Anwendungen auf GCP schützen. Letztlich liefern sich hier Google, Microsoft und AWS einen harten Wettbewerb. Der Erfolg der Security Tools wird in Zukunft im wesentlichen durch den Lernerfolg der Machine-Learning Frameworks bestimmt sein. Google fasst das in seinem Cloud Armor Produkt zusammen.
  • Google wird Enterprise Identity Provider. Wenn SAP-Hana beim Hyperscaler läuft und die Office Tools auch da liegen, welchen Grund gäbe es dann noch die Nutzer Identität On-Premises liegen zu lassen? So bietet Google gleich zwei neue Identity Services an; einen Secure LDAP (GA) für die eigenen Mitarbeiter und einen Cloud Identity for Customers and Partners (Beta). Auch hier schließt Google mit Microsoft’s Active Directory in Azure auf. Nur dass sich mit dem Identity Service für Kunden und Partner problemlos Millionen von User Accounts abbilden lassen - was bei Microsoft die Grenzen der Technologie und des Pricings schnell sprengen würde.

Google’s Tooling wird immer vollständiger und integrierter. Inzwischen reden viele Unternehmen von DevOps, nicht nur wenn sie an ihre neuen Cloud-Native Anwendungen denken, sondern auch in Zusammenhang mit dem Management ihrer gehosteten Bestandsanwendungen. Hier gab es eine Reihe weiterer Announcements von DevOps Tooling bis API Management.

Wie passen all diese Announcement zu der Strategie von Google? Wir von Crisp Research glauben, dass es sehr gut zusammen passt. Google ist zwar als letzter der drei Hyperscaler auf den Enterprise-Zug aufgesprungen und hatte lange nicht die passenden Dienste. Auch heute hat Google noch weniger Vielfalt in seinem Angebot, verglichen mit AWS und Azure. Was Google aber macht, wird mit noch größter Skalierung und Effizienz probiert. Am Beispiel des Identity Services (Google Secure LDAP) sieht man wie das gelingt. Während Microsoft aus Kompatibilitätsgründen ein ActiveDirectory, das nie für Telco- oder Planet-Scale gedacht war, in die Cloud “hoch”-portieren musste, hat Google anders herum den Identity-Store, der eine Milliarde “Gmail Accounts” verwaltet, in die Enterprise-Cloud “herunter”-portiert und mit den nötigen Features angereichert.

Das gleiche passiert in dem erbitterten Wettkampf zwischen den Hyperscalern um “Purpose-Built” Hardware. Im Bild zu sehen ist die Entwicklung der Google Tensorflow Processing Unit (TPU). Innerhalb von nur einem Jahr wurde von Luft auf Flüssigkeitskühlung umgestellt und die Leistungsdicht mehr als verdreifacht. Letztlich bringt hauptsächlich Volumen die Effizienz und damit den Preisvorteil.

Luftgekültes Tensorflow Board, TPU V2, 2017, Bild: Crisp Research

Neues flüssigkeitsgekühltes Tensorflow Board, TPU V3, 2018, Bild: Google

Obwohl die Enterprise-Daten glaubwürdig und sauber von den Consumer-Daten getrennt sind, ist die TPU, mit der beispielsweise Deloitte oder Accenture Machine-Learning-Anwendungen auf den SAP Hana-Daten anbieten, genau die gleiche TPU, die Google Assistent für die Sprachsteuerung auf einem Consumer Android Smartphone implementiert. Ähnlich wie Dell in den 90ern mit Consumer-PC die Stückzahlen hoch gedrückt hat und dadurch zum Standard Business-PC wurde, versucht Google nun mit dem Consumer Traffic auf der gemeinsamen Compute und Netz-Infrastruktur das beste Angebot für Unternehmen zu werden.

Hinzu kommt ein besonderer Kurs, der das Risiko für Unternehmen beschränkt. Allen Hyperscalern voran, baut Google konsequent auf Open-Source und trägt massiv Opensource Frameworks wie Kubernetes oder jüngst ISTIO in den Markt. Auf der Google Compute Platform (GCP) werden diese dann als fully Managed Service angeboten. Beispielsweise lernen AWS und besonders Microsoft gerade mühsam und langsam, wie man einen “Managed Kubernetes Service” ans Laufen bringt, während Google allein für eigene Zwecke jede Woche 4 Milliarden Container provisioniert und wieder löscht. Auch wenn der Großteil davon mit dem Kubernetes Vorgängen Borg gemanagt wird, verschafft die Erfahrung im Container Management Google einen großen Vorsprung für ihr Managed Kubernetes Angebot.

Letztlich ist Google an seinem zwanzigsten Geburtstag erwachsen geworden und versteht Co-Innovations-Modelle genauso wie das traditionelle Enterprise-Ökosystem um die großen Systemintegratoren. So waren auf der Google NEXT in London auch die meisten der großen SIs mit einem Stand vertreten. Von Accenture, Deloitte, KPMG über Rackspace bis hin zum Managed Service Dinosaurier ATOS versuchen diese Managed Hybrid Cloud Service Provider zunehmend eigene Applikationen auf den Hyperscaler Stacks neben der SAP Migration anzubieten. Einige bieten bereits interessante Mash-Szenarien zwischen S4/Hana und Google AutoML mit ihrem Branchen-Know How an, da die traditionelle Businesslogik auf SAP immer noch der Unternehmenskern ist, aber das Google Machine Learning Framework deutlich weiter als das SAP eigene Leonardo Machine-Learning ist.

An diesen Fällen sieht man schön, dass die reine Compute Infrastruktur sehr vergleichbar geworden ist. Ein SAP S4 Hana kann heute entweder in SAP’s eigener Cloud, bei AWS, Azure oder Google laufen. Neben dem Preis ist für Unternehmen langfristig viel entscheidender, wie innovativ die Cloud-Native Artificial Intelligence-, Machine Learning- und IoT - Plattform-Dienste sind, mit denen die bestehenden SAP-Prozesse in der Zukunft ergänzt werden. Das ist das neue Auswahlkriterium für Public Cloud Infrastruktur - und dank Open-Source hoffentlich kein langfristiger Provider Lock-In. So profitiert mittlerweile auch Google vom Markttrend, dass CIOs beginnen, den SAP-Betrieb in die Public Cloud zu verlagern, wie eine aktuelle Crisp-Studie klar zeigt.

Google ist kein Enterprise-Brand und wird es vielleicht nie!

Für Google geht die Strategie aber nicht auf, wenn es der Alphabet Konzern nicht schafft, die Google Compute Plattform (GCP) für Unternehmen weiter weg von den Google Consumer Services zu positionieren. Das abrupte Aus für Google+ oder auch die (inzwischen behobenen) Verletzungen der Privatsphäre im Chrome Browser letzten Monat werfen einen Schatten auf das Enterprise Business. Dazu kommt das Kerngeschäft von Google aus Personen-Profilen (Werbe-)Geld zu machen. Hier muss dass Google Marketing die GCP für Unternehmen mindestens so weit positionieren, wie Microsoft die XBox aus Azure raushält. Vielleicht braucht es auch neben “Google” als Consumer Brand unter dem Alphabet-Dach einen ganz neuen Brand für die Google Enterprise Dienste der Zukunft. Mit weltweit 87% Android-Marktanteil der Smartphone Betriebssystem ist “Google” einfach eine zu dominante Consumer Marke.  

Was bedeutet das für Unternehmen in Deutschland

Obwohl die drei Hyperscaler bei ihrem Kampf um den Enterprise Markt immer vergleichbarer werden, ist Google nicht der ideale Fit für jeden. Google passt gut, wenn im Unternehmen schon Cloud-Native Workloads sind und langfristig verbleibende on-premise-Teile auch auf Containern unter Kubernetes laufen können. Einem Unternehmen, dass aber ausschließlich ein Re-Hosting von VMWare in die Public Cloud sucht, empfehlen wir eher AWS oder Azure - womöglich sogar gar keinen der Hyperscaler, sondern einen der innovativen lokalen Managed Service Provider, die exakt den gleichen VMWare Stack bei einem großen Co-Location Provider betreiben können.

Wenn ein Unternehmen, wie die Viessmann Gruppe oder Airbus mit modernen Kollaborations-Tools auch die Kultur im Unternehmen auffrischen möchte, ist GSuite der beste Schritt nach Vorne.

Für Sie auf der Google NEXT waren Stefan Ried und Max Hille von Crisp Research.

Mehr zu den Themen Cloud Google Google Next Goolge Cloud

Share on:


Über den Autor:

Principal Analyst & IoT Practice Lead

Stefan RiedDr. Stefan Ried – IoT Practice Lead, Principal Analyst – is responsible for the research and consulting activities covering IoT and modern platform architectures. Stefan Ried worked previously at Unify, a global communications and collaboration vendor as CTO. Graduated in Physics with an PhD at the Max Planck Institute, Germany, Stefan brings 20 years of experience in senior positions in software development, product management and marketing from international vendors to Crisp Research. His experience includes two software startups and major players including SAP and Software AG. Over 7 years at Forrester Research, Stefan lead the cloud platform research globally as a Vice President.