Wie mobile neuronale Netze das nächste Level der User Experience einläuten

  • Schon bald wird die Mehrzahl der mobilen Endgeräte eigene AI-Chips verbaut haben. Damit werden völlig neue Möglichkeiten der künstlichen Intelligenz für den Nutzer erschlossen.
  • Deep Learning & neuronale Netze sind ein echter Trendbegriff, der nun auch auf die Smartphone- und Mobility-Welt umschlägt - doch nicht überall liegt auch eine Truhe voll Gold am Ende des Weges.
  • Neuronale Netze können für die richtigen Anwendungsgebiete im Mobility- und Smartphone-Umfeld eine Reihe von Verbesserungen für Unternehmen und ihre Kunden bringen - wie können die Unternehmen den ersten Schritt machen?
  • Bis zur echten Replikation des menschlichen Gehirns und einer annähernden General AI werden vermutlich noch viele Jahre vergehen, doch selbst einige Zwischenstufen können hilfreich für die zukünftige Digital User Experience sein.

Artificial Intelligence, neuronale Netze oder Deep Learning sind alles Begriffe, die derzeit an Trend-Status wohl kaum zu überbieten sind. Alle wollen über diese Themen sprechen und sich selbst als aktiver Gestalter auf dem Weg zur “General AI” wiederfinden. Dabei geht häufig unter, dass es Modelle zur künstlichen Intelligenz und neuronalen Netzen schon seit mehreren Jahrzehnten gab und zumindest der Grundgedanke immer noch der gleiche ist. Denn es geht darum, mit Maschinen bzw. IT-Systemen zu versuchen, logische Verknüpfungen von Informationen analog zum menschlichen Gehirn nachzubilden. Neuronale Netze sind somit ein Anwendungsgebiet von Artificial Intelligence, bei dem möglichst viele Datenpunkte zusammengebracht werden müssen, um das menschliche Gehirn zu replizieren. Die neuronalen Netze zeichnen sich dadurch aus, dass sie über verschiedene Komplexitätsebenen hinweg Verknüpfungen erstellen können und somit eine Logik bilden, die aus vielen kleinen Datenpunkten über mehrere Komplexitätsgrade Dinge wie Sprache, Objekte, Personen etc. erkennt und daraus möglicherweise eine Ableitung oder Interaktion umsetzen kann. Nachdem Ende der 90er Jahre etwa die Bemühungen um neuronale Netze aufgrund begrenzter Datenmengen und Einsatzszenarien etwas abgenommen haben, erlebt das Thema im Zeitalter von Cloud Computing, Big Data und Hadoop und damit einer riesigen wachsenden Zahl von Daten einen ernsten Neuanfang. Denn das Replizieren des menschlichen Gehirns funktioniert jetzt potentiell noch besser und vollständiger, da mittlerweile fast nur die Rechenpower die Möglichkeiten limitiert. Trotzdem ist es noch ein weiter Weg, bis aus den theoretischen Möglichkeiten praktische Mehrwerte werden. So lange Autos noch gegen Wände fahren und Fußgänger übersehen oder Alexa und Co. noch einfache Fragen nicht beantworten können, scheint der Weg zur General AI doch noch sehr weit.

AI & neuronale Netze heute - mehr Daten, mehr Kanäle

Was die heutige Form von AI und neuronalen Netzen von der damaligen unterscheidet, ist zunächst einmal die Anzahl von Daten und der abzudeckende Komplexitätsgrad. Durch die steigende Zahl der Daten und die verbesserte Rechnerleistung können neuronale Netze noch viel detailliertere Komplexitätsgrade erreichen und somit ihre Genauigkeit im Hinblick auf den Einsatzbereich deutlich verbessern. Gleichzeitig steigt auch der Geltungsbereich der neuronalen Netze, da für viele verschiedene Anwendungsgebiete viele Daten und somit mögliche Verknüpfungen zu einer Regel existieren.

Hilfreich für die Entwicklung ist auch, dass für AI keine überdimensionalen Supercomputer an Forschungseinrichtungen oder in Mega-Companies stehen müssen, sondern dass dank Edge Computing kleine neuronale Netze auf mobile Endgeräte kommen können. Das bedeutet, dass die trainierte Logik zu einem Aufgabengebiet schon direkt auf dem Smartphone existieren kann und somit kürzere Übertragungswege und Latenzen existieren. Zusätzlich werden durch die Vernetzung mobiler Geräte, die alle auch ein Teil eines höherwertigen neuronalen Netzes sind, immer mehr Daten gesammelt, um die Komplexitätsgrade weiter auszubauen und die Genauigkeit von Ergebnissen weiter zu erhöhen.

Die meisten Hardware-Hersteller für Smartphones arbeiten derzeit daran, spezielle AI-Chips zusätzlich zum eigentlichen CPU-Chip auf die Geräte zu bringen. Für das Jahr 2022 gehen die Hersteller wie allen voran Samsung, Google oder Apple davon aus, dass vier von fünf Geräten (“über 80 Prozent”) mit einem entsprechenden Chip ausgerüstet sind. Wann diese Chips allerdings in der Lage sind, eine wirklich große Datenmenge zu verarbeiten und wirklich komplexe, große AI-Prozesse umzusetzen , ist damit aber noch nicht gesagt. Zusätzlich gibt es auch AI-Plattformen wie TensorFlow von Google. TensorFlow ist eine Art Open Source-Programmbibliothek für AI und Machine Learning-Anwendungen. Hier ist Google besonders engagiert, wenn es darum geht, die Nutzung auf mobilen Endgeräten bzw. in mobilen Apps zu optimieren. Die jüngste Vorstellung von TensorFlow Lite adressiert vor allem die Komprimierung und Verkleinerung der neuronalen Netze und damit schnellere Rechenprozesse und systemfreundlichere Apps. Auch hier bleibt Google aber noch viele Ergebnisse schuldig und zeigt lediglich an einzelnen Beispielen und in der Theorie, was alles möglich wäre.

Deswegen ist es auch notwendig, die Unternehmen in mancherlei Euphorie zu bremsen. Nicht jede Idee, die aufkommt, ist wirklich ein AI- oder Deep Learning Case wert. Die vermeintlich geringen Einstiegshürden täuschen immer noch über den tatsächlichen Aufwand hinweg, Anwendungen auf neuronalen Netzen zu betreiben (Sicherheit, Datenschutz, Pflege, GUI / Frontend und tatsächlicher Benefit für die Nutzer müssen beachtet werden). Daher sollten die Unternehmen Mehrwert und Potential der Cases in jedem Falle prüfen und den ROI kritisch hinterfragen.

Use Cases für mobile neuronale Netze - Everyone will be a part of it!

Trotzdem oder gerade weil die Unternehmen sich somit auf echte Use Cases und Verbesserungen fokussieren, ist die zukünftige Erwartung an mobile neuronale Netze besonders groß. Mehr Rechenpower auf den Geräten, ein größeres Engagement auf Nutzerseite und genauere Analyseverfahren versprechen viele neue Mobile AI Use Cases, die schon bald vom visionären Stadium in den Alltag übergehen könnten.

Eine grundlegende Basis beziehungsweise ein Referenz-Use Case ist vor allem die Bilderkennung. Was Google bereits erfolgreich im Web präsentiert hat, funktioniert analog auch auf den mobilen Endgeräten. Das Vorbild beziehungsweise die Vorgehensweise der Bilderkennung findet sich auch in vielen weiteren Use Cases wieder. Je mehr Daten (wie z.B. Bilder) erfasst werden und anhand von Mustern über den Identifikationsalgorithmus laufen, desto mehr Datenpunkte können in das neuronale Netz einfließen. Die Identifikation wird immer genauer, schneller und weitreichender.

Somit werden noch viele weitere spannende und teilweise schon bekannte Use Cases dank mobiler AI und neuronaler Netze noch besser entwickelt:

Quelle: MarketWatch

  • Digital Assistants: Digitale Assistenten gelten derzeit in der allgemeinen Wahrnehmung als das Flagschiff der künstlichen Intelligenz. Und trotzdem sind sie eigentlich noch ziemlich beschränkt in ihren Möglichkeiten. Im Vergleich zu den Fähigkeiten vor einigen Jahren sind die Assistenten schon bemerkenswerte Gesprächspartner und Besserwisser geworden. Allerdings - und das bestätigen auch aktuelle Studien - haben sie noch längst nicht ihr Potential ausgeschöpft. Denn viele Fragen können die Assistenten noch nicht beantworten, andere beantworten sie gerne auch mal falsch. Je mehr Trainingsmöglichkeiten durch mobile neuronale Netze existieren, desto “klüger” werden Google Assistant, Cortana, Siri und Alexa. Das macht es dann auch für Unternehmen interessant, diese als Kundeninteraktionskanal in die Strategie einzubinden, weil man endlich etwas ernstes mit ihnen anfangen könnte.
  • Natural Language Understanding (NLU): Nah dran an den digitalen Assistenten ist auch das natürliche Sprachverständnis. Auf digitalen Assistenten oder Chatbots ist der Use Case nicht per se mobil, aber durch die verstärkte mobile Nutzung können mobile neuronale Netze auch hier helfen, die Genauigkeit zu optimieren. So kann auf gleiche Weise auch das Sprachverständnis der Assistenten geschult und die Interaktion zwischen Mensch und Bot zukünftig verbessert werden.
  • Emotion Recognition: Einen Schritt weiter geht die Idee, mit Hilfe von Bilderkennung auch Emotionen abzulesen. Anhand der Mimik, Körperhaltung und visuell erkennbaren Ausstrahlung einzelner Personen, auch im Vergleich zu anderen Lebenssituationen, könnten die Systeme theoretisch die Stimmung einer Person erkennen. Für viele Menschen wäre die Form der künstlichen Empathie sicherlich schon ein Fortschritt. Für die Nutzung in Bots oder auch für die Platzierung von Produkten (Achtung: Datenschutz- & Ethik-Fragen!) könnte es aber ebenso dienlich sein.
  • Gesundheitserkennung: Emotionen können in einer weiteren Komplexitätsstufe auch gesundheitliche Verfassungen sein. Viele Krankheiten lassen sich auch heute schon durch optische Merkmale bestimmen. Sind Systeme in der Lage, visuelle Merkmale und Gesundheitszustände zu erfassen, eignet sich dies ebenso gut. So können möglicherweise auch Diagnosen und Gesundheitshistorien anhand von Erfahrungswerten aus den neuronalen Netzen erfasst werden. Das könnte beispielsweise bei Rettungseinsätzen wichtig sein, bei denen der Patient sich nicht mehr selbst mitteilen kann.
  • Personal User / Shopping / Marketing Experience: Ein ganz praktischer Use Case für viele Unternehmen ist es, die zahlreichen Daten und Erkenntnisse aus den neuronalen Netzen zu nutzen, um noch genauer die Bedürfnisse der Kunden in verschiedenen Kontexten zu kennen. Eine proaktive und akkurate Ansprache der Kunden nutzt im Optimalfall beiden Parteien - den Anbietern und Konsumenten. Es gilt zu definieren, welche Situationen welche Kauf- und Konsumbedürfnisse auslösen. Mit diesem Wissen, was hochgradig individualisiert und deshalb auch dezentral gesichert sein muss, haben die Unternehmen alle Hebel in der Hand, dem Kunden die richtige Entscheidung abzunehmen.
  • Device Management & Security: Etwas weiter in den Hintergrund des Alltags und der täglichen, anfassbaren Anwendungsgebiete gehen mobile neuronale Netze für Device Management und Security. Zum einen gehört dazu der Klassiker im Sinne der Bedrohungserkennung auf Basis von AI. Zum anderen geht es aber auch hier stark darum, Nutzerverhalten und Anomalien zu entdecken und gleichzeitig möglichst viele Schutzmechanismen zu automatisieren. Schon heute können Management-Systeme Anomalien erfassen und Alerts für Sperrungen oder Einschränkungen der Nutzung machen. Langfristig werden diese Prognosen noch genauer, personalisierter und schlussendlich die Sicherheit mobiler Endgeräte und Daten noch höher.

Von der Inselbegabung der Systeme zur General AI?

Wohin soll das alles führen? Im Prinzip sind die Veränderungen, die durch mobile neuronale Netze daherkommen, relativ gleichartig. Mehr Daten, mehr Geräte und mehr Teilnehmer im Netz trainieren die Systeme und dadurch können Mustererkennungen und die Erfassung von Situationen genauer und detaillierter werden. Das findet bislang aber vor allem auf der Use Case-Ebene für ganz bestimmte Anwendungsfälle statt.

Als Zielbild spricht man auch von der Vision des Age of Assistance. Die Überlegung soll sich wegentwickeln von einzelnen Use Cases und den Nutzer und seine Interaktionen als Ganzes betrachten. Eine gesamte Technologie (vermutlich das Smartphone) dient dann als Assistent. Unternehmen, die Teil dieses Age of Assistance sind, können selbst pro aktiv auf ihre Kunden zugehen, kennen den nächsten Schritt und verstehen auf eine künstliche empathische Weise, was einzelne Menschen gerade denken, ohne dass sie es unmittelbar artikulieren müssen.

Durch mobile neuronale Netze, die eine exponentiell größere Reichweite haben als viele bisherigen Systeme, ist der Weg zur General AI, wo ein System alle Fragen der Welt beantworten kann, etwas besser geebnet wurden. Dieser Weg ist aber dennoch weit, braucht weitaus mehr Teilnehmer an der Entwicklung, noch viel mehr Daten und weitere Standards, die es bis heute nur im Anfangsstadium gibt.

Die Unternehmen sind angehalten, sich selbst als einen Teil dieses neuronalen Netzes zu verstehen. Mit eigenen Apps und Einsatzszenarien, die sorgfältig auf Mehrwerte und ROIs geprüft werden müssen, können sie selbst einen aktiven Part übernehmen. Schon heute in den eigenen Branchen die wichtigen Use Cases zu identifizieren, Skills und Know-how zu AI, Machine Learning und den neuen Frameworks und Plattformen ins Haus zu holen und die eigene Datenstrategie sorgfältig zu überarbeiten, sind die ersten Schritte, um als Anbieter im Age of Assistance entscheidende Vorteile gegen die Mitbewerber zu haben.

Mehr zu den Themen AI Artificial Intelligence Big Data Cloud Computing Deep Learning Edge Computing General AI Hadoop Neuronale Netze NLU

Share on:


Über den Autor:

Senior Analyst & Mobile Practice Lead

Maximilian HilleMaximilian Hille ist Senior Analyst und Practice Lead für Mobility, Collaboration und User Experience des Research und Beratungsunternehmens Crisp Research AG. Maximilian Hille ist verantwortlich für die Marktfoschungsinitiativen und Beratungsinitiativen insbesondere in den Bereichen Digital Workplace und Mobile Business.
Zuvor war er Research Manager in der „Cloud Computing & Innovation Practice“ der Experton Group AG.
Seine Schwerpunktthemen sind Digital Workplace Design, digitale Geschäftsmodelle, Unified User Experience, Mobile Backend & Development Plattformen, Mobile Management & Security, Mobile Web Experience, mobile Technologien, Mixed Reality, Chatbots, digitale Sprachassistenten und Collaboration.
Maximilian Hille war Jurymitglied bei den Global Mobile Awards 2016, 2017 und 2018.