IT-Trends 2018: Die Agenda der CIOs und CTO´s

Um die Digitalisierung ihrer Unternehmen in enger Abstimmung mit dem Chief Digital Officer und den Produktverantwortlichen Executives voranzutreiben, werden sich die CIOs in 2018 - neben dem operativen Basisbetrieb der IT und Workplaces - vornehmlich um drei strategische Schwerpunktthemen kümmern:

IoT und Machine Learning

Ob Zahnbürste, Kettensäge, Küchengerät, Lichtsteuerung oder Premium-Automobil. Die Produkte der Zukunft sind „Software-Defined“, sprich ein wesentlicher Teil des Produktnutzens ergibt sich aus den software-basierten Funktionalitäten, der Sensorik und der Vernetzung der Geräte zu einer ganzheitlichen IoT-Lösung bzw. einem „Software-Defined Product“. Hardware und Materialeigenschaften treten zunehmend in den Hintergrund. Software-Entwicklung wird somit ein zentraler Aspekt der klassischen Produktentwicklung und des Product Lifecycle Managements. Dafür müssen Corporate IT und Product IT zusammenwachsen.

Bis 2020 pIant die Mehrheit der Unternehmen in Deutschland (60 Prozent) bereits jeden fünften Euro mit digitalen Produkten und Services zu erwirtschaften. In einer Welt der software-definierten und vernetzten IoT-Produkte werden somit die Geschäfts- und Preismodelle „programmierbar“. Zudem bieten sich den Unternehmen vielfältige Möglichkeiten der Monetarisierung der anfallenden Daten sowie der Personalisierung der User Experience. Das Processing und die Analyse von Datenströmen im IoT-Kontext erfordert dabei vollkommen neue Ansätze und Technologien. So wandert ein Teil der Datenverarbeitung und Analyse an die “Edge”, sprich den äußeren Teil des Netzwerkes. So müssen sich CIOs in den kommenden Jahren intensive Gedanken über Edge-zentrierte Netzwerk-Topologien, event-basierte Microservices-Architekturen und hybride Cloud- und IT-Betriebskonzepte machen. Hinzu kommt die Beschäftigung mit einer Vielfalt an IoT-zentrierten Standards und Open Source-Frameworks.

Bei der Analyse der IoT-Daten in (nahezu-) Echtzeit, spielen Machine-Learning-Verfahren und neuronale Netzwerke eine besonders wichtige Rolle. Dies gilt ebenso in anderen digitalen Use Cases wie der Mustererkennung von Bildern, Personen oder Gegenständen z.B. im Qualitätsmanagement, in der Gesundheitsvorsorge, der öffentlichen Sicherheit und auch dem Automobilsektor, Stichwort autonomes Fahren. Vor diesem Hintergrund verblüfft es nicht, dass immerhin schon jedes fünfte Unternehmen in Deutschland Machine Learning einsetzt, wenn auch nur in ausgewählten Bereichen. Bis 2020 wird die Mehrheit der deutschen Mittelstands- und Großunternehmen von der Evaluierungs- und Planungsphase in den produktiven Einsatz übergehen und Machine Learning somit zum IT-Mainstream werden.

Auch die maschinelle Verarbeitung von Sprache in digitalen Assistenten wird in mobilen Einsatzszenarien immer wichtiger. Machine-Learning-Verfahren, neuronale Netzwerke und selbstlernende Systeme („Deep Learning“) werden somit eine unerlässliche Grundlage, um große, komplexe Datenmengen in Echtzeit verarbeiten zu können. Dies gilt auch für die Kontextualisierung von Apps sowie für die Personalisierung von Cloud-Diensten. Ebenso für die autonome Steuerung von Maschinen und die Analyse von IoT-Daten im Kontext von Predictive Maintenance und Industrie 4.0. Das Zusammentreffen von ausgereiften Machine Learning-Verfahren und nahezu unlimitierter, kostengünstiger Rechenleistung in der Cloud, ermöglicht Unternehmen einen „barrierefreien“ Einstieg in das Thema und einen exponentiellen Innovationspfad.

Neben der Aufwertung und intelligenten Steuerung von Anwendungen und Geräten werden Systeme basierend auf künstlicher Intelligenz zukünftig auch immer mehr menschliche Aufgaben, Funktionen und Verantwortlichkeiten übernehmen. So können zukünftige „Cognitive Systems“ Sprache, Gesten, Mimik oder Emotionen erkennen, interpretieren und in Entscheidungen und Handlungen überführen. Auf Basis großer Datenmengen und der Funktion der Lernfähigkeit wird Ambiguität gemeistert und die Fehlerrate menschlicher Entscheidungen reduziert. Somit entsteht sukzessive eine „Cognitive Company“, in der von der Einlasskontrolle an der Pforte, über die Qualitätskontrolle in der Fertigung bis hin zum Finanzcontrolling vieles von intelligenten Softwaresystemen assistiert oder komplett autonom gesteuert wird.

Public Cloud und Digital Platform Design

Die globalen Cloud Plattformen von AWS, Azure, Google, IBM, Alibaba und Co. sind bis 2030 das Gravitationszentrum und Operating System für nahezu alle neuen digitalen Workloads und Plattformen - auch wenn im IoT-Zeitalter viel Rechenleistung und Intelligenz “on Edge” erbracht wird. Nachdem in der ersten Dekade des Cloud-Computing von 2006-2016 vor allem Startups und Internetunternehmen die Public Cloud-Plattformen genutzt haben, steht die nächste Dekade ganz im Zeichen der Transition der Enterprise-IT. Zudem avanciert die Public Cloud zum zentralen Bau- und Steuerelement für komplexe IoT-Netzwerke und Architekturen.

Gerade in Deutschland haben die Mittelständler und großen Industrieunternehmen immer noch Aufholbedarf in Sachen Public Cloud. Crisp Research sieht klare Anzeichen, dass diese Lücke sich mit großer Dynamik schließt. So plant die Mehrheit der Hidden Champions und deutschen Top-Unternehmen die nächste Generation ihrer Digital- und IoT-Plattformen auf Basis der globalen Public Clouds zu entwickeln und zu betreiben. Sprich, die Public Cloud wird zur Infrastrukturbasis des Digitalgeschäfts der deutschen Wirtschaft. Der Shift von Private Clouds in Richtung hybrider und -Multi-Cloud-Umgebungen ist in vollem Gange und wird die CIOs bis 2020 noch gut auf Trab halten.

So steigen die globalen Ausgaben für IaaS und PaaS von 34,7 Mrd USD in 2017 auf 83,2 Mrd. USD in 2020 und werden kurz darauf die 100 Mrd.-Schallgrenze knacken. Hinzu kommt die Verlagerung von reinen Infrastruktur- hin zu höherwertigen Plattform-Diensten sowie der Einsatz von Serverless Computing- und IoT-Services durch immer mehr Kunden. Diese erkaufen sich mit den neuen Platform-Services eine höhere Agilität und mehr Automation ihres Cloud-Betriebs.

Der produktive Einsatz von Machine-Learning-Verfahren erfordert zudem immense Rechenkapazität und idealerweise ein speziell dafür ausgelegtes Prozessor-Design. So bieten bereits viele Cloud- und Technologieanbieter auf Grafikkarten basierende Rechenleistung bzw. Server (GPU) an. Google und andere Internetfirmen bauen speziell für diesen Einsatzzweck eigene Prozessoren (z.B. TPU – Tensor Processing Unit, Google).

Dabei stehen die Unternehmen in den kommenden Jahren vor erheblichen Herausforderungen im Hinblick auf die Konzeption und den Betrieb ihrer digitalen Plattformen. Nur wenn die Architektur der digitalen und IoT-Plattformen strategisch klug gewählt und die passenden Cloud-Services, Technologien und Open Source-Frameworks ausgewählt und orchestriert sind, lassen sich die Plattformen später erfolgreich skalieren und erfolgreich vermarkten. Hier gilt es “Vendor Lockin” und hohe Innovationsgeschwindigkeit richtig auszutarieren. Hierzu bedarf es einer großen Expertise und Erfahrung im Aufbau solcher komplexen Cloud- und IoT-Umgebungen. Die “Stackology”, also die Kunst der richtigen Orchestrierung, wird zur Königsklasse im Digitalgeschäft. Dies gilt vor allem, wenn nicht nur Cloud-Dienste, sondern hybride IoT-Szenarien entworfen werden, bei denen Software-Intelligenz und Analytics-Power auch auf den Endgeräten und Gateways deployed werden müssen und sich eine neue Rollenverteilung von Cloud und Edge ergibt.

Enterprise Agility und New Sourcing Order

“Die IT ist zu langsam” schallt es noch immer aus vielen Board-Rooms und die Mehrheit der CIOs sieht sich mit dem Vorwurf konfrontiert, dass sich die hauseigene IT-Infrastruktur und Arbeitsplatzumgebung zu langsam an die digitalen Rahmenbedingungen anpasst. Daher werden die CIOs bis 2020 weiter intensiv damit beschäftigt sein, die Agilität der Unternehmensorganisation sowie der eigenen Corporate IT zu erhöhen. Hierzu zählt die Weiterentwicklung und konsequente Umsetzung der Digital Workplace-Strategien, über den reinen iPhone/iPad-Einsatz hinaus. Ebenso die Einführung von agilen Methoden, gerade in der Entwicklung und dem Betrieb der neuen digitalen Workloads und Cloud-Plattformen. Hier treffen ITIL-Kultur und DevOps derzeit noch in einem schmerzhaften Clash aufeinander. Die Org-Charts der IT müssen endlich “cloud-ready” und mit Leben gefüllt werden. Zudem muss die Automation des gesamten IT-Infrastrukturbetriebs deutlich erhöht werden. Derzeit gehen deutschen Unternehmen pro Jahr rund 600 Mio. Euro aufgrund mangelnder Automatisierung verloren.

Beim Aufbau erfolgreicher digitaler Plattformen und Ökosysteme spielen APIs eine elementaren Rolle, da diese die Spielregeln der Plattform definieren und die Datenströme lenken. Hier braucht es klare API-Strategien und Verantwortlichkeiten sowie einer Developer- bzw. Hacker-Mindset, der die Kultur und Arbeitsweisen von Entwicklern versteht. Nur wenn Plattformen offen gestaltet und die API entwicklerfreundlich ausgearbeitet und dokumentiert sind, werden diese Apps und Lösungen für die eigene digitale Plattform entwickeln - oder eben nicht.

Zudem wird sich bis 2020 eine Neubewertung der IT-Sourcing-Strategien und ein maßgeblicher Budget-Shift vollziehen. Während klassisches IT-Outsourcing deutlich abnimmt, wächst der Bedarf an modernen Spielformen der “Managed Public Cloud Services”, also professionellen Dienstleistungen rund um den Betrieb von Workloads auf der Public Cloud. Outsourcing verliert auch aufgrund von Software-as-a-Service immer weiter an Gewicht. Während auf Infrastruktur- und Plattform-Ebene immer mehr Ressourcen aus dem eigene Rechenzentrum in Richtung Public Cloud verlagert werden, kommt der Entwicklung eigene IoT- und Digital-Plattformen ein strategischer Stellenwert zu. Hier wird Insourcing und der Aufbau von Entwickler-Ressourcen zu einem Trend der kommenden Jahre. Der Aufbau schlagkräftiger Development-Teams, gerade im Kontext IoT und Machine Learning, wird zum strategischen Wettbewerbsvorteil - nicht nur für die It, sondern für das ganze Unternehmen. Der “War for Talents” hat also gerade erst begonnen und viele CIOs haben noch nicht wirklich realisiert, was es bedeutet, mit Google, Facebook und Zalando um die besten Köpfe im Wettbewerb zu stehen.

Welches sind die Aufsteiger und Absteiger bei den IT-Trends in 2018?

Der Absteiger des Jahres 2018 wird wohl das Thema Mixed & Virtual Reality sein. Zumindest fehlt es hier, bis auf wenige Use Cases im Unternehmensumfeld, noch an einer ernsthaften Verbreitung der Technologien und Devices in den relevanten Anwender- und Consumer-Segmenten. Man darf aber erwarten, dass das Thema nach einem kleinen Dornröschen- und Reife-Schlaf, in den kommenden Themen wieder auf der Agenda erscheint und das Interesse bei besseren Preis-/Performance-Relationen auf Hardware-Seite und mehr relevanten Anwendungen wieder Fahrt aufnimmt.

Der Aufsteiger in 2018 ist das klar das Thema “IoT Platform Design”. Die Unternehmen der deutschen Leitbranchen im Industrie-, Maschinenbau oder Automobilsektor legen gerade den Hebel um und gehen im Kontext von IoT vom Prototypen- in den Produktiv-Modus über. Während in den letzten Jahren erste IoT-Anwendungen konzipiert und eine Vielzahl von Prototypen entwickelt und getestet wurde, bauen die Unternehmen nun ganzheitliche IoT-Plattformen, auf denen zukünftig eine Vielzahl von IoT-Lösungen laufen und das Neugeschäft der Unternehmen generiert werden soll. Hierzu sind spezielle IoT-Architektur- sowie Cloud-Operations-Skills gefragt, um die komplexen IoT-Plattformen zu designen und später zu betreiben. Hinzu kommt die Technologieauswahl für die Vernetzung der Endgeräte und Edge-Netzwerke sowie die Realisierung komplexer IoT-Analytics- und Machine Learning-Verfahren. Für viele Industrieunternehmen bedeuten diese Projekte nicht nur einen strategischen Meilenstein, sondern auch die Königsklasse der Digitalisierung.

Under the Radar – Welches sind die Geheimtipps der Analysten?

Der Geheimtipp der kommenden Jahre bzw. einer der strategisch bedeutendsten Technologietrends ist sicherlich die Grundlagen- sowie angewandte Forschung im Kontext neuer Hardware- und Prozessor-Designs. So sind im Bereich des Quanten Computings der Fantasie nahezu keine Grenzen gesetzt. Bieten doch die auf quantenmechanischen Effekten basierenden Rechner, vollkommen neue Fähigkeiten in der Kryptographie, der Suche in unstrukturierten Daten sowie bei komplexen Simulationen. Hier liefern sich Google, IBM, Microsoft sowie die Geheimdienste ein Wettrennen, dessen Ausgang derzeit noch offen ist. Die elementaren Herausforderungen beim Design und der Skalierung der Quantenrechner wird dazu führen, dass die breite Einführung am Markt sicherlich noch bis Mitte der 2020er Jahre auf sich warten lässt. Allerdings können diese Rechner in speziellen Anwendungsfällen derartige Wettbewerbsvorteile generieren, dass sich für globale Konzerne eine frühzeitige Investition durchaus rechnen kann.

Crisp Research sieht in der Entwicklung des Neuromorphic Computing ein deutlich größeres Innovationspotenzial - was auch in der Breite der Unternehmens- und Anwenderlandschaft hohe Relevanz hat. Die Entwicklung von analogen Prozessoren, welche die neuronalen Strukturen des Gehirns auf Chip-Ebene nachbauen, ist deshalb so attraktiv, weil diese gerade bei den Verfahren der Mustererkennung und des Lernens - sprich Machine Learning und künstliche Intelligenz - enorme Performance-Vorteile bieten. Denn neuromorphe Chips müssen das Gehirn und Lernvorgänge nicht simulieren, sondern können diese direkt nachbilden. Hinzu kommt, dass diese neue Prozessor-Generation - ähnlich wie das menschliche Gehirn - mit einem Bruchteil der Energie zur Berechnung auskommt. Insofern bieten die Neuro-Chips für eine Vielzahl an neuen Anwendungen im Kontext von Machine Learning und AI optimale Eigenschaften. Zudem schreitet die angewandte sowie Grundlagenforschung hier rasant voran. Ein definitiv spannendes Betätigungsfeld für alle echten Innovatoren im Cloud- und IT-Infrastrukturbereich.

Top 10 IT-Trends - Liste der wichtigsten Trends 2018 aus Perspektive von Crisp Research

Mehr zu den Themen Enterprise IT IoT Machine Learning Platform Design Public Cloud

Share on:


Über den Autor:

Senior Analyst & CEO

Carlo VeltenDr. Carlo Velten ist CEO des IT-Research- und Beratungsunternehmens Crisp Research AG. Seit über 15 Jahren berät Carlo Velten als IT-Analyst namhafte Technologieunternehmen in Marketing- und Strategiefragen. Seine Schwerpunktthemen sind Cloud Strategy & Economics, Data Center Innovation und Digital Business Transformation. Zuvor leitete er 8 Jahre lang gemeinsam mit Steve Janata bei der Experton Group die „Cloud Computing & Innovation Practice“ und war Initiator des „Cloud Vendor Benchmark“. Davor war Carlo Velten verantwortlicher Senior Analyst bei der TechConsult und dort für die Themen Open Source und Web Computing verantwortlich. Dr. Carlo Velten ist Jurymitglied bei den „Best-in-Cloud-Awards“ und engagiert sich im Branchenverband BITKOM. Als Business Angel unterstützt er junge Startups und ist politisch als Vorstand des Managerkreises der Friedrich Ebert Stiftung aktiv.