Künstliche Intelligenz und echte Profite – Machine Learning auf dem Weg in den Mainstream

Lange waren Machine Learning-Verfahren nur etwas für echte Geeks und verrückte Statistik-Wissenschaftler. Doch seit zwei Jahren hat sich das Blatt gewendet und Künstliche Intelligenz ist das Top-Thema der digitalen Elite und der Venture Capitalists im Silicon Valley. Was ist der Grund für das Comeback? Und welchen Einfluss wird das Thema Machine Learning für die IT- und Digitalisierungsstrategien der Unternehmen in den kommenden 2-5 Jahren haben?

Google, Facebook & Microsoft – Mehr als 10 Mrd. USD FuE-Ausgaben für Künstliche Intelligenz in 2015

Treiber der Investitionswelle in den letzten Jahren waren die großen Internet- und Cloud-konzerne. Allen voran Google, Facebook, Microsoft und IBM. Diese investierten allein im Jahr 2015 mehr als 10 Milliarden USD in Forschung und Entwicklung im Bereich der künstlichen Intelligenz. Der Grund liegt auf der Hand. So bieten neue Verfahren im Bereich von Machine Learning, Deep Learning oder auch der kognitiven Systeme nicht nur die Basis für neue Services und Geschäftsmodelle, wie z.B. intelligente Assistenten á la Siri und Google Now oder auch Industrie-Lösungen im Gesundheitsbereich. Sondern vor allem einen direkten ROI, wenn sich mittels optimierter Verfahren und Algorithmen die Service-Performance sowie die User Experience der eigenen Internet- und Suchdienste optimieren lässt. Die optimierte Vermarktung von Werbeplätze oder die schnellere Berechnung relevanter Suchergebnisse liefern einen direkten Business Value für Google, Facebook oder Microsoft - und zwar in Milliardenhöhe.

Künstliche Intelligenz ist somit kein Hype- und Marketing-Trend für die Internetkonzerne, sondern eine der wesentlichen Stellschrauben für deren zukünftige Wettbewerbsstärke und Profitabilität. Dabei kommt Google, Facebook und Microsoft eines zu Gute – der Zugriff auf riesige Mengen an Kunden- und Log-Daten, die die Grundlage zur Modellbildung und Training der neuen Algorithmen und lernenden Systeme („Deep Learning“) sind. Ein Innovationsvorsprung, den nur wenige der anderen Akteure vorweisen können.

Digitale Transformation – Wegbereiter der künstlichen Intelligenz in den IT-Mainstream

Nach Jahren in der akademischen Nische erlebt das Thema „Künstliche Intelligenz“ eine neue Innovations- und Wachstumsphase. Und dies nicht nur für eine Hand voll globaler Internetfirmen. Die maßgeblichen Gründe sind:

  • Unbegrenzte / kostengünstige Rechenleistung (Cloud)
  • Verfügbarkeit riesiger Datenmengen als Grundlage der Modellentwicklung und des Trainings (Big Data)
  • Investitionen in Verbesserung der Verfahren, Tools und Frameworks (siehe oben)

Aber vor allem entsteht eine Vielzahl an neuen Use Cases sowie die Notwendigkeit, die im Rahmen von Big Data anfallenden Datenmengen zu beherrschen und kosteneffizient zu verarbeiten und zu analysieren. Und dies gilt für nahezu alle Branchen und Unternehmen, die im Kontext der digitalen Transformation aufgebrochen sind, ihre Geschäftsprozesse, Kundenbeziehungen und Business Modelle umbauen.

Als konkrete Beispiele für den Einsatz von Machine Learning und Cognitive Computing im Unternehmenskontext lassen sich anführen:

  • Betrugserkennung bei Transaktionen
  • Spamerkennung
  • Personalisierung von Inhalten und Apps
  • Dokumentenklassifizierung
  • Prognose der Kundenabwanderung oder Conversion Rates im eCommerce
  • Automatisierte Lösungsempfehlung für den Kundendienst
  • Sentiment-Analysen (z.B. positive / negative Meinungen oder Äußerungen)
  • E-Mail-Klassifizierung
  • Diagnosesysteme z.B. in der Krebsdiagnostik
  • Erkennung von Objekten im Kontext „Autonomes Fahren“

Um IT- und Digitalisierungsentscheidern eine erste Orientierung hinsichtlich des Einsatzes der verschiedenen Verfahren nach Branchen zu bieten, hat Crisp Research auf Basis einer Vielzahl an Fallstudien folgendes Use Case-Raster entwickelt. Darüber hinaus zeigt der Beitrag von Kollege Björn Böttcher beispielhaft, welche Einsatzmöglichkeiten sich im Kontext der Medizin bzw. in Krankenhäusern ergeben.

1

Vertikalisierung und Produktisierung – Trends in der künstlichen Intelligenz bis 2020

Auch wenn das Einsatzspektrum von künstlicher Intelligenz vor dem Hintergrund der Digitalisierung sehr breit ist und ebenso eine Vielzahl an Technologien zu betrachten sind, lassen sich folgende strategische Trends herauskristallisieren:

  • Vertikalisierung: Je konkreter die KI-Verfahren und -Lösungen auf den Einsatz in einer speziellen Branche mit ihren individuellen Strukturen, Modellen, Datensätzen und Herausforderungen fokussiert werden, desto größer der Innovationserfolg und Business Value. Daher ist von einer starken „Vertikalisierung“ der KI-Lösungen im Sinne von „Industry Solutions“ zu erwarten. Hierauf sollten sich Technologie- und Transformation Provider einstellen.
  • Produktisierung: Viele der Industry Solutions oder auch einzelne KI- und Machine Learning-Verfahren werden zukünftig als „Machine Learning-as-a-Service“ angeboten. Aus Verfahren und Modellen werden somit nutzungsabhängige und service-basierte Geschäftsmodelle. Hier sind vor allem die großen Public Cloud Provider führend, die auf ihren Plattformen über genügend Rechenleistung und eine globale Skalierbarkeit verfügen.
  • Algorithm Design: Die Entwicklung und das Training von Modellen und Algorithmen entwickelt sich in den kommenden Jahren zu einem stark wachsenden Markt- und Dienstleistungs-Segment. Hier haben auch kleinere Dienstleister eine Chance, da hier nicht die Mannstärke und Unternehmensgröße, sondern Spezialisierung und Skills die zentralen Auswahlkriterien auf Kundenseite sind.
  • Bots: Die Entwicklung und der Einsatz von autonomen Agenten, „Bots“ und mobilen Apps mit Spracherkennung nehmen dynamisch zu. Was als Assistenz-Systeme im Consumer-Segment begonnen hat (Apple Siri, Google Now, Microsoft Cortana), erhält zukünftig immer mehr Relevanz im Business-Kontext. Von der Buchung einer Dienstreise bis zur Unterstützung von Aussendienstmitarbeitern fächert sich der Einsatz intelligenter Assistenten mit Integration in die digitalen Geschäftsprozesse immer weiter auf.
  • API-Economy: Mit dem Zugriff auf weltweit über 15.000 APIs sind der Nutzung externer Datenströme nahezu keine Grenzen gesetzt. Von der automatisierten Auswertung von Satelliten-Bildern, über die Analyse von Videostreams aus Sicherheitskameras im öffentlichen Raum mittels Gesichtserkennung bis hin zur Prognose von Stauinformationen. Alles Einsatzmöglichkeiten für Machine-Learning-Verfahren, bei denen eigene und fremde Datenströme analysiert und zu neuen Diensten verschmolzen werden.
  • ML-Appliances & ML Hardware: Mit der Vorstellung seiner “Tensor Processing Unit” hat Google kürzlich einen eigenen Chip vorgestellt, der die Performance und die Effizienz bei der Durchführung von Machine Learning-Verfahren erheblich verbessern soll. Parallel dazu konzipieren die großen Cloud-Provider spezifische Hardware-Set-Ups in ihren Rechenzentren, um Machine Learning-Operationen auf möglichst effizienten Infrastrukturen („as-a-Service“) anbieten zu können. Die Hardware-Anbieter werden wohl mit eigenen Machine-Learning Appliances nachziehen, was für Industriekunden sicherlich attraktiv sein kann, die ihre heiligsten Daten nicht zum „Number Crunching“ auf externe Plattformen verschieben wollen.

Empfehlung an den CIO - Machine Learning als Königsdisziplin der Digitalisierung

Nach aktuellen Prognosen von Crisp Research werden sich die Ausgaben für Infrastruktur, Software & Plattformen, Algorithmen-Design und verbundene Dienstleistungen von rund € 1,96 Mrd. in 2015 auf rund € 15 Mrd. im Jahr 2020 nahezu verzehnfachen. Die detaillierten Prognosen nach Branchen, Use Cases und Technologien veröffentlicht Crisp Research in Kürze in einem speziellen Report. (LINK: COMING SOON)

CIOs und Digitalisierungsverantwortliche sollten sich darauf gefasst machen, dass nicht nur unternehmensintern diese Art von Skills nachgefragt werden, sondern auch dass diese in den kommenden Jahren ein knappes Gut sein werden. Denn die Anzahl an Machine-Learning-Spezialisten ist begrenzt. Und die Schnittmenge derjenigen, die auch noch Business-Verständnis mitbringen umso kleiner.

Daher empfiehlt Crisp Research:

  • Machine Learning-Experten anheuern und/oder ausbilden
  • Kooperationen mit Universitäten und Startups eingehen (hier arbeiten viele Nachwuchstalente mit gutem statistischen Backgound)
  • Eigene Big Data-Experten im Thema „Machine Learning“ weiterbilden (Vorträge, Workshops etc.)
  • PoCs durchführen, um erste eigene Erfahrungen zu sammeln
  • Intensive Diskussion mit Digitalisierungs- und Business Entscheidern, um relevante Use Cases frühzeitig zu identifizieren (Erfolg im Machine Learning brauchen Anlaufphase, um a) Skills aufzubauen, b) Daten zu organisieren und c) die Modelle und Verfahren zu optimieren)

 

Mehr zu den Themen Analytics Big Data Bots Cloud Cognitive Computing Deep Learning Digital Transformation Machine Learning

Share on:


Über den Autor:

Senior Analyst & CEO

Carlo VeltenDr. Carlo Velten ist CEO des IT-Research- und Beratungsunternehmens Crisp Research AG. Seit über 15 Jahren berät Carlo Velten als IT-Analyst namhafte Technologieunternehmen in Marketing- und Strategiefragen. Seine Schwerpunktthemen sind Cloud Strategy & Economics, Data Center Innovation und Digital Business Transformation. Zuvor leitete er 8 Jahre lang gemeinsam mit Steve Janata bei der Experton Group die „Cloud Computing & Innovation Practice“ und war Initiator des „Cloud Vendor Benchmark“. Davor war Carlo Velten verantwortlicher Senior Analyst bei der TechConsult und dort für die Themen Open Source und Web Computing verantwortlich. Dr. Carlo Velten ist Jurymitglied bei den „Best-in-Cloud-Awards“ und engagiert sich im Branchenverband BITKOM. Als Business Angel unterstützt er junge Startups und ist politisch als Vorstand des Managerkreises der Friedrich Ebert Stiftung aktiv.

One Response to “Künstliche Intelligenz und echte Profite – Machine Learning auf dem Weg in den Mainstream”