Die Top-10 Technologietrends für 2017

  • Machine Learning & die „Cognitive Company“
  • Autonomous IT & Künstliche Intelligenz im Rechenzentrum
  • Software-Defined Products & IoT
  • Industry Clouds & Data Hubs
  • Renaissance of Hardware – Von GPU bis Quantenrechnerei
  • Bots & Digitale Assistenten
  • Digitale Infrastrukturen - Von Smart Cities bis zum digitalen Gesundheitswesen
  • Mixed Reality - Virtual & Holographic Computing
  • Blockchain
  • Distributed Security

Machine Learning und die „Cognitive Company“

Für eine Vielzahl an Use Cases der digitalisierten Welt sind neue Processing- und Analysetechnologien gefragt. So spielt die Mustererkennung von Bildern, Personen oder Gegenständen z.B. in der Gesundheitsvorsorge, der öffentlichen Sicherheit und auch dem Automobilsektor, Stichwort autonomes Fahren, eine immer größere Rolle. Auch die maschinelle Verarbeitung von Sprache in digitalen Assistenten wird in mobilen Einsatzszenarien immer wichtiger. Machine Learning-Verfahren, neuronale Netzwerke und selbstlernende Systeme („Deep Learning“) werden somit eine unerlässliche Grundlage, um große, komplexe Datenmengen in Echtzeit verarbeiten zu können. Dies gilt auch für die Kontextualisierung von Apps sowie für die Personalisierung von Cloud-Diensten und der Online Shopping-Experience. Ebenso für die autonome Steuerung von Maschinen und die Analyse von IoT-Daten im Kontext von Predictive Maintenance und Industrie 4.0. Das Zusammentreffen von ausgereiften Machine Learning-Verfahren und nahezu unlimitierter, kostengünstiger Rechenleistung in der Cloud, ermöglicht Unternehmen einen „barrierefreien“ Einstieg in das Thema und einen exponentiellen Innovationspfad.

Neben der Aufwertung und intelligenten Steuerung von Anwendungen und Geräten werden Systeme basierend auf künstlicher Intelligenz zukünftig auch immer mehr menschliche Aufgaben, Funktionen und Verantwortlichkeiten übernehmen. So können zukünftige „Cognitive Systems“ Sprache, Gesten, Mimik oder Emotionen erkennen, interpretieren und in Entscheidungen und Handlungen überführen. Auf Basis großer Datenmengen und der Funktion der Lernfähigkeit wird Ambiguität gemeistert und die Fehlerrate menschlicher Entscheidungen reduziert. Somit entsteht sukzessive eine „Cognitive Company“, in der von der Einlasskontrolle an der Pforte, über die Qualitätskontrolle in der Fertigung bis hin zum Finanzcontrolling vieles von intelligenten Softwaresystemen assistiert oder komplett autonom gesteuert wird.

Mehr zu dem Thema finden Sie hier.

Autonomous IT und künstliche Intelligenz im Rechenzentrum

Die Innovationsdynamik im Kontext von Machine Learning und künstlicher Intelligenz macht auch vor dem Rechenzentrum und dem Management der IT-Infrastruktur nicht halt. Während in den letzten Jahren seitens der Unternehmen schon große Schritte in Richtung Automatisierung der IT-Infrastruktur gemacht wurden, steht nun ein echter Innovationssprung bevor. Denn mittels Verfahren des Machine Learning und vor allem des Deep Learning können hunderte oder tausende unterschiedlicher Variablen und Messgrößen, die den Betrieb eines Rechenzentrums determinieren, automatisiert ausgewertet und Muster zur Optimierung mittels der neuronalen Netzwerke identifiziert werden. So lassen sich die komplexen Beziehungen zwischen den Server- und Storage-Komponenten, Netzwerktechnik, Cooling-Equipment und externen Faktoren, wie Außentemperatur, Luftfeuchtigkeit etc., nicht nur messen und steuern. Auf Basis eines selbstlernenden Systems bzw. Algorithmus können die Systeme nun in Richtung eines Gleichgewichts ausgesteuert werden, das einerseits den Energieverbrauch (PuE) sowie andererseits die Auslastung der Systeme optimal ausbalanciert.

Zudem ergeben sich durch Hyperconverged Systems sowie Cloud Computing große Potenziale zur weiteren Automatisierung des Infrastruktur-Betriebs. So lassen sich auf den globalen Cloud-Plattformen Infrastrukturen (Server, Storage, Network und weiter Plattform-Dienste) mittlerweile nicht nur per Knopfdruck bzw. API-Call provisionieren, sondern auch automatisiert nach vorgegebenen Regeln konfigurieren und skalieren. Im Zeitalter des „Infrastructure-as-Code“ werden IT-Infrastrukturen über standardisierte APIs programmier- und weitgehend automatisierbar. Vor dem Hintergrund der immer komplexeren IT-Infrastrukturen, die im Kontext agiler und Microservices-basierter Architekturen entstehen und immer kürzere Innovations- und Releasezyklen mit sich bringen, ist die Automatisierung der zugrundeliegenden IT-Infrastruktur und des IT-Betriebs eine absolute Notwendigkeit und ein wichtiges Designkriterium einer echten und agilen „Digital Infrastructure Platform“, die als Betriebsplattform der neuen digitalen Produkte und Geschäftsmodelle dienen kann. Viele der Cloud-Provider bieten mit ihren Angeboten des „Serverless Computing“ einen weiteren Schritt in diese Richtung, in dem der Infrastrukturbetrieb für bestimmte Event-driven Workloads komplett seitens des Providers übernommen sowie vollständig automatisiert und autonom skaliert wird. Der Kunde übergibt nur noch den Anwendungscode bzw. die Business-Logik – den Rest übernimmt die Cloud-Plattform selbständig.

Der Charakter der zukünftigen „Digital Infrastructure Platforms“ – egal ob On-Premise oder in der Cloud – lässt sich somit als regelbasiert, selbstlernend und selbstheilend beschreiben. Daher müssen sich CIOs und IT-Infrastruktur-Verantwortliche mit der Frage beschäftigen, wie sie sukzessive die Verantwortung für ihre Infrastrukturen in Richtung autonomer Management- und Monitoring-Systeme übergeben und wie dieser Transformationsprozess auf technologischer und organisatorischer Ebene zu gestalten ist. Auf jeden Fall werden neue Skills und Rollen im Rechenzentrum benötigt, um die Welten der heutigen IT-Infrastruktur und der künstlichen Intelligenz erfolgreich miteinander zu verbinden.

Mehr zu dem Thema finden Sie hier.

IoT und Software-Defined Products

Ob Zahnbürste, Kettensäge, Küchengerät oder Premium-Automobil. Die Produkte der Zukunft sind „Software-Defined“, sprich ein wesentlicher Teil des Produktnutzens ergibt sich aus den software-basierten Funktionalitäten, Sensorik und der Vernetzung der Geräte zu einer ganzheitlichen IoT-Lösung bzw. einem „Software-Defined Product“. Hardware und Materialeigenschaften treten in den Hintergrund. Software-Entwicklung wird somit ein zentraler Aspekt der klassischen Produktentwicklung und des Produkt Lifecycle Managements. Dafür müssen Corporate IT und Product IT zusammenwachsen. In einer Welt der software-definierten, sensor-basierten und vernetzten Produkte werden auch die Geschäfts- und Preismodelle „programmierbar“. Diese werden zukünftig serviceorientiert, kontextbasiert und personalisiert ausgestaltet und individuelle, nutzungsabhängige Abrechnungs- und Pricing-Mechanismen in Echtzeit ermöglichen. Dabei nimmt der Grad der Autonomie der vernetzten Produkte mit dem Einsatz künstlicher Intelligenz immer weiter zu.

Industry Clouds & Data Hubs

Traditionelle Industrie- und Technologiekonzerne arbeiten derzeit mit Hochdruck daran, ihre Organisationen und Geschäftsmodelle fit für das digitale Zeitalter zu machen. Der Fokus richtet sich hierbei vor allem auf die Themen IoT bzw. Industrial Internet (Industrie 4.0) und die neuen datenbasierten Services und Geschäftsmodelle rund um Smart Cities, Connected Buildings, Predictive Maintenance und autonomer Verkehr. Und das aus einem guten Grund. Schließlich birgt die Vernetzung und Automatisierung von Fertigungsanlagen, Infrastrukturen, Verkehrssystemen und Logistikketten enorme Effizienzsteigerungen und Flexibilisierungsmöglichkeiten.

In Rahmen dieser Transformationen zeigt sich ein deutlicher Trend hin zu mehr Industrie- bzw. branchenfokussierten Cloud-Umgebungen und Plattformen. Allen voran GE gilt hier mit seiner Predix PaaS-basierten IoT-Platform als Vorreiter im Markt. Aber auch andere Industriegrößen wie Bosch, die in 2017 ihre Bosch IoT-Cloud offiziell veröffentlichen werden, zeigen in welche Richtung sich der Cloud- und IoT-Markt bewegen wird. Ähnliches ist von Branchenriesen aus anderen Industrien, z.B. Volkswagen oder Ford (Automotive Clouds), zu erwarten. Die Industry Clouds der globalen Industriekonzerne bergen ein enormes Potenzial, da GE, Bosch & Co. in weit verzweigte und langjährig etablierte Partner- und Lieferantennetzwerken eingebettet sind. Die, für das digitale Geschäft, so wichtigen „Ökosysteme“ sind schon existent und müssen nur richtig aktiviert und entwickelt werden. Denn derzeit befinden sich viele der mittelständischen Zulieferer und Partner noch im „digitalen Dornröschenschlaf“. „Industry Clouds“ werden zukünftig neben den horizontalen bzw. generischen Cloud-Plattformen von AWS, Microsoft & Co. eine wichtige Säule der IoT-Lösungen und Prozesse sein und als „Data Hub“ agieren, auf denen branchenspezifische Datenbestände aggregiert, gemeinsam genutzt und kommerzialisiert werden. Vertrauen, branchenbezogene Standards und Sicherheit spielen hier eine gleichwertige Rolle neben Skalierbarkeit und Innovationsgeschwindigkeit.

Mehr zu dem Thema finden Sie hier.

Renaissance der Hardware – Von GPU bis Quantenrechnerei

Nachdem die erste Dekade des Cloud-Computing (von 2006-2016) ganz im Zeichen der Virtualisierung der Rechen- und Speicherleistung stand, zeichnet sich für die nächsten 10 Jahre eine Rückkehr der Hardware ab. Bislang bauten Unternehmen ihre Cloud-Umgebungen auf Basis virtueller Umgebungen (Server, Storage, Netzwerk) sowie höherwertigen Plattformdiensten (PaaS) auf. Da aber die Packungsdichte auf den Schaltkreisen handelsüblicher Prozessoren in den kommenden 10 Jahren die Grenze von 5 – 10 Nanometern erreichen wird, stößt man beim Chip-Design an atomare - sprich physikalische Grenzen. Im Bereich von unter 5 Nanometern lassen sich elektrische Ladungen nicht mehr kontrollieren. Um dem Moore´schen Gesetz weiter Gültigkeit zu verleihen und auch weiterhin kosteneffiziente Fortschritte bei der Rechenleistung zu machen, müssen die Technologieanbieter neue Prozessor-Architekturen und Hardware-Konzepte entwickeln. Diese reichen von vertikal bzw. mehrlagig strukturierten Chips bis hin zu ersten Generationen des Quantencomputing. CIOs sollten davon ausgehen, dass zukünftig wieder deutlich mehr unterschiedliche Prozessor- und Servertypen zu unterstützen und zu administrieren sind. Die Zeiten eines einheitlich auf X86-Basis konsolidierten Rechenzentrums neigen sich dem Ende zu. Hierfür sollte man sich strategisch ausrichten und entsprechende Skills aufbauen.

So werden die CIOs und IT-Infrastrukturentscheider schon in den nächsten Jahren mit ganz konkreten Anforderungen konfrontiert sein, die neue Hardware-Konzepte – auch im Cloud-Kontext – erfordern. Der produktive Einsatz von Machine Learning-Verfahren beispielsweise, erfordert meist immense Rechenkapazität und idealerweise ein speziell dafür ausgelegtes Prozessor-Design. So bieten bereits viele Cloud- und Technologieanbieter auf Grafikkarten basierende Rechenleistung bzw. Server (GPU) an. Google und andere Internetfirmen bauen speziell für diesen Einsatzzweck eigene Prozessoren (z.B. TPU – Tensor Processing Unit, Google).

Hinzu kommt, dass in verschiedenen Use Cases eine dedizierte Hardware gegenüber virtuellen Maschinen, immer noch ihre Vorteile haben kann (Performance, Kosteneffizienz). So stellt IBM/Softlayer schon seit Jahren auch „Bare-Metal“-Server innerhalb von 2-4 Stunden weltweit über seine Cloud-Plattform bereit. Diese sogenannten „Hardware-Clouds“ werden in den nächsten Jahren einen deutlichen Zuspruch erfahren und werden derzeit von den Cloud-Anbietern mit Hochdruck weiterentwickelt. Microsoft geht derzeit noch einen Schritt weiter und bietet Administratoren und Entwicklern auf Basis programmierbarer Chips, sogenannter FPGAs (Field Programmable Gate Array), deutlich mehr Freiheiten und die Möglichkeit, ihre Anwendungen auf Ebene der Mikroprozessoren zu entwickeln und abzustimmen.

Ebenso halten im Kontext von IoT-Szenarien und Edge Computing neue Hardware- und Prozessor-Plattformen in den Unternehmen Einzug, die es seitens der IT zu unterstützen gilt (ARM, Arduino etc.). Der Betrieb einer Flotte von mehreren zehntausend vernetzten IoT-Geräten (z.B. Smart Home, vernetzte Anlagen und Maschinen) stellt dabei Infrastruktur- sowie Sicherheits-technisch vollkommen neue Herausforderungen.

Digitale Assistenten und Bots

Durch die Innovationssprünge im Bereich der künstlichen Intelligenz und insbesondere der Spracherkennung und -Verarbeitung, eröffnen sich in Bezug auf die Entwicklung digitaler Assistenzsysteme vollkommen neue Möglichkeiten. So werden die digitalen Assistenten und Bots in den kommenden Jahren massenmarkttauglich, da diese in Smartphones standardmäßig integriert sind und so Milliarden von Nutzen zur Verfügung stehen. Dies ist für deren Weiterentwicklung elementar, denn für die weitere Optimierung der Algorithmen zur Spracherkennung braucht es vor allem Trainingsdaten von möglichst vielen Nutzern.

Das disruptive Potenzial von digitalen Assistenten liegt darin, dass diese nicht nur ein sprachbasiertes User Interface bieten, das die Ein- / Ausgabe via Webanwendung oder mobiler App überflüssig macht, sondern vor allem die Möglichkeit zur automatisierten Ausführung von konkreten Aufgaben. So lassen sich Terminkoordination, eCommerce-Transaktionen, Support-Anfragen oder die Bedienung der eigenen Smart Home-Lösung bequem über einen digitalen Assistenten per Sprach- oder Chat-Befehl erledigen. Dies spart Zeit und schafft ein enormes Potenzial zur Automatisierung der zugrundeliegenden Prozesse – vorausgesetzt, diese sind bereits standardisiert und lassen sich per API anbinden. Durch die Verknüpfung unterschiedlicher externer Dienste via API und die Möglichkeit zur freien Programmierung entsprechender Bot-Routinen und Events, entstehen derzeit hoch kreative und mächtige Ökosysteme. Auch trägt eine neue Generation von Bot-bezogener Hardware zur weiteren Verbreitung der Technologien bei, da diese nun in jedem Wohnzimmer, Küche oder Büro präsent und „always-on“ geschaltet sind. Die Hemmschwelle, das eigene Smartphone zu zücken, um den Assistenten zu aktivieren, entfällt zunehmend und macht die digitalen Assistenten zum alltäglichen Begleiter im privaten wie beruflichen Kontext.

Mehr zu diesem Thema finden Sie hier.

Digitale Infrastrukturen - Von Smart Cities bis zum digitalen Gesundheitswesen

Der digitale Mehrwert vernetzter Produkte kann sich nur voll entfalten, sofern diese in ein größeres Ökosystem bzw. eine Infrastruktur eingebettet sind. Nur wenn die öffentliche sowie private Infrastruktur in Form von Kommunikationsnetzen, Verkehrsleitsystemen, öffentlichem Nahverkehr, öffentlichen Gebäuden oder medizinischer Versorgung entsprechend vernetzt ist und Standards schafft, können innovative digitale Produkte und Dienste angedockt und für den Anwender transparent gemacht und integriert bereitgestellt werden. Die nächste Stufe der digitalen Transformation können die Unternehmen nur erklimmen, sofern Staat und Unternehmen gemeinsam eine möglichst einheitliche, auf Standards basierende digitale Infrastruktur schaffen. Diese kann Innovationsanreize setzen, indem Entwicklungs- und Integrationskosten reduziert, Daten in Form von „Open Data“ allen zur Verfügung stehen und einheitliche, rechtskonforme Nutzungs- und Kommerzialisierungsmechanismen für Partner und Firmen geschaffen werden. So entstehen beispielsweise neue Apps im Gesundheitswesen, der Bildung und dem Nahverkehr, die dann auch skalieren. Denn nur wenn sich die staatlichen Infrastrukturen der Digitalisierung öffnen, lassen sich Märkte für die Innovationspartner profitabel erschließen. Diese Aufgabe können Startups und IT-Unternehmen nicht alleine bewerkstelligen.

Mixed Reality - Virtual & Holographic Computing

In 2017 werden Virtual- und Augmented Reality-Technologien den Durchbruch im Unternehmensumfeld schaffen, da nun einerseits die technologische Reife der Hardware gegeben ist und andererseits genügend Anwendungen im Unternehmensumfeld existieren. Zudem bilden sich rund um die Plattformen herum digitale Ökosysteme von Partnerunternehmen, die branchenbezogene Lösungen und virtuelle Modelle entwickeln.

Im Gesundheitswesen ergeben sich viele Einsatzmöglichkeiten, von der Behandlung von Angststörungen bis Rehabilitation im Kontext von Gehirnschäden. Im Journalismus können die Technologien einen realistischen Einblick und ein Miterleben von Nachrichten ermöglichen („Immersion Journalism“). Das realistische Rekonstruieren von Tatorten und kriminellen Abläufen im Rahmen von Strafverfahren zählt ebenso zu den möglichen Use Cases wie der Einsatz von Augmented Reality bei der Schaffung eines neuen Einkaufserlebnisses. In der Industrie spielen vor allem der Einsatz von VR in vernetzten IoT- und Wartungsszenarien eine Rolle, um beispielsweise Servicetechnikern die Installation, Wartung und Instandhaltung von Maschinen und Anlagen zu erleichtern. So können relevante Produktinformationen, defekte Teile und Lieferbestände direkt vor das Auge des Technikers gebracht werden, ohne, dass er sich von seinem Arbeitsplatz entfernen muss. Auch im Bereich des Corporate Training werden VR-Technologien vollkommen neue und kosteneffiziente Möglichkeiten schaffen, um Mitarbeiter in der Bedienung komplexer Maschinen und Systeme zu schulen.

Blockchain

Seit im Jahr 2009 mit Bitcoin eine der derzeit populärsten Kryptowährungen auf Blockchain-Basis vorgestellt wurde, haben sich die Technologie und ihre Anwendungsmöglichkeiten sehr dynamisch weiterentwickelt und ausgeweitet. So existieren mittlerweile nicht nur über 600 verschiedene Kryptowährungen, die die Blockchain zur Speicherung von Transaktionen und Übertragung von Währungseinheiten nutzen, sondern eine Vielzahl von spannenden Use Cases, wie z.B. der Zugang zu physischen Gegenständen durch Management von Schlüsseln für Mietautos, Schließfächer, Wohnungen oder Hotels. Oder die nicht veränderbare Dokumentation von Daten für Dritte, wie z. B. Handelspapiere, GPS-Daten, Genomdaten, Krankenakten oder Produktionsdaten sowie der Nachweis von Urheber- oder Markenrechten. Auch schon realisiert werden finanzielle Instrumente wie Handelspapiere, Anleihen und Derivate sowie der Abschluss und die Abwicklung von Treuhandverträge.

Die Blockchain-Technologie ist als eine Art von verteiltem Grundbuch bzw. Register (engl. Ledger) zu verstehen, in dem Transaktionen sequentiell in Blöcke gruppiert, miteinander verkettet und verschlüsselt werden. Sie schafft somit einen „Trust-Layer“, der es verschiedenen nicht bekannten Akteuren ermöglicht, ohne Intermediäre (Börsen, Banken, Notare etc.) Transaktionen und Verträge („Smart Contracts“) abzuschließen. Hierin besteht ein disruptives Potenzial und die Möglichkeit in vielen Branchen die Transaktionskosten deutlich abzusenken. Aus der Perspektive von Crisp Research sind vor allem die Finanzindustrie, Supply Chains, das Gesundheitswesen und IoT-Anwendungen von der Innovationskraft der Blockchain betroffen.

Mehr zu dem Thema finden Sie hier.

Distributed Security

Sicherheit der digitalen Prozesse, der Daten sowie der Firmenkommunikation wird für immer mehr Unternehmen zur Top-Priorität. Dabei gilt es, sich auf neue und vor allem mehr Angriffsvektoren einzustellen. Neben klassischer Wirtschaftsspionage, die auf das Intellectual Property abzielt, müssen Unternehmen sich verstärkt auf Angriffe durch organisierte Kriminalität sowie im Einzelfall auf staatsgelenkte Cyberangriffe einstellen. So wird aktuell auch in Deutschland eine Vielzahl von Unternehmen mittels gezielter DDoS-Attacken erpresst. Zudem gilt es für CIOs und CISOs, sich darauf einzustellen, dass IT-Sicherheit und Datenschutz im mobilen und Cloud-Zeitalter nicht mehr nach den klassischen Verteidigungsstrategien funktionieren kann. Wenn tausende Mitarbeiter weltweit unterwegs und in hunderten von Unternehmenslokationen verteilt und über das Internet und Mobilfunknetze angebunden sind, ist eine IT-Sicherheitsstrategie mit globaler Reichweite gefordert.

Mit einem steigenden Vernetzungsgrad der eigenen Produkte im Kontext der Digitalisierung und IoT-Szenarien korreliert auch ein höherer Verletzungsgrad der Unternehmen. Gerade vernetzte, mobile Geräte (IoT) stellen ein hohes Sicherheitsrisiko und einen der neuen Angriffsvektoren dar. Hier gilt es besonders hohe Maßstäbe hinsichtlich der Absicherung von Steuerungsfunktionen und Daten anzulegen. Auch müssen die Unternehmen und ihre Sicherheitsverantwortlichen sich auf die Novellierung der Europäischen Datenschutzverordnung einstellen, die im Jahr 2018 in Kraft tritt (GDPR- General Data Protection Regulation). Diese erfordert von den Unternehmen die Fähigkeit, jederzeit Transparenz und Handlungsmacht über alle kunden- und personenrelevanten Daten zu haben und beispielsweise nachweisen zu können, dass bestimmte Datensätze konzernweit und über Dienstleistergrenzen hinweg gelöscht oder geändert wurden. Eine Aufgabe, welcher die Unternehmen nur mit einer weiteren Automatisierung ihrer IT-Infrastruktur und ihres Datenmanagement Herr werden können.

Mehr zu den Themen Autonomous IT Blockchain Bots Cognitive Company Data Hubs Deep Learning Digitale Infrastrukturen GPU Industrie 4.0 Industry Clouds IoT künstliche Intelligenz Machine Learning

Share on:


Über den Autor:

Senior Analyst & CEO

Carlo VeltenDr. Carlo Velten ist CEO des IT-Research- und Beratungsunternehmens Crisp Research AG. Seit über 15 Jahren berät Carlo Velten als IT-Analyst namhafte Technologieunternehmen in Marketing- und Strategiefragen. Seine Schwerpunktthemen sind Cloud Strategy & Economics, Data Center Innovation und Digital Business Transformation. Zuvor leitete er 8 Jahre lang gemeinsam mit Steve Janata bei der Experton Group die „Cloud Computing & Innovation Practice“ und war Initiator des „Cloud Vendor Benchmark“. Davor war Carlo Velten verantwortlicher Senior Analyst bei der TechConsult und dort für die Themen Open Source und Web Computing verantwortlich. Dr. Carlo Velten ist Jurymitglied bei den „Best-in-Cloud-Awards“ und engagiert sich im Branchenverband BITKOM. Als Business Angel unterstützt er junge Startups und ist politisch als Vorstand des Managerkreises der Friedrich Ebert Stiftung aktiv.