Tag: Big Data


Auf die Daten, fertig, los! Business Model Design mit Machine Learning

 

  • Zahlreiche Daten(quellen) geben den Startschuss zur Quantifizierung des digitalen Geschäfts mittels Sensorik, Datenbanken und Machine Learning.
  • Die Hälfte der deutschen Unternehmen (50 Prozent) beschäftigt sich aktiv mit Machine Learning, um von den Technologien zur intelligenten und automatisierten Datenanalyse und Verarbeitung zu profitieren.
  • Die Studie “Machine Learning in deutschen Unternehmen”  wurde von Crisp Research im Auftrag von The unbelievable Machine Company GmbH (*um) und DellEMC erstellt und liefert in einer zweiten Auflage fundierte Einblicke zu Betrieb und Anwendung von Künstlicher Intelligenz im Unternehmensalltag.

Continue reading “Auf die Daten, fertig, los! Business Model Design mit Machine Learning” »



Deutsche “Startup-Szene” funktioniert auch außerhalb von Berlin und München

  • Die “Hinterland of Things” Konferenz zeigt, wie man eine Startup-Szene fernab der Metropolen stimuliert.
  • Mit Hilfe der Bertelsmann-Stiftung konnte die Founders Foundation in Ostwestfalen-Lippe ideale Bedingungen für Startups schaffen.
  • Was können die anderen Regionen Deutschlands daraus lernen?

Continue reading “Deutsche “Startup-Szene” funktioniert auch außerhalb von Berlin und München” »



Mit Daten und Analytics zum digitalen Geschäftsmodell – Der erfolgreiche Weg in die Datenökonomie

  • Von Data Science zum Data Business - Unternehmen beginnen nach der Dekade des Datensammelns (“Big Data”) nun mit der Umsetzung digitaler und datenbasierter Geschäftsmodelle.
  • Datenwirtschaft als Big Business - Crisp Research vermisst die globale “Data Economy”. Im Jahr 2018 werden weltweit schon mehr als 225 Mrd. USD an Umsätzen mit datenbasierten Services und Produkten generiert.
  • Strategiepapier und Webinar zusammen mit Tableau Software unterstützt Entscheider bei der Umsetzung erfolgreicher Datenstrategien.

Continue reading “Mit Daten und Analytics zum digitalen Geschäftsmodell – Der erfolgreiche Weg in die Datenökonomie” »



Wie mobile neuronale Netze das nächste Level der User Experience einläuten

  • Schon bald wird die Mehrzahl der mobilen Endgeräte eigene AI-Chips verbaut haben. Damit werden völlig neue Möglichkeiten der künstlichen Intelligenz für den Nutzer erschlossen.
  • Deep Learning & neuronale Netze sind ein echter Trendbegriff, der nun auch auf die Smartphone- und Mobility-Welt umschlägt - doch nicht überall liegt auch eine Truhe voll Gold am Ende des Weges.
  • Neuronale Netze können für die richtigen Anwendungsgebiete im Mobility- und Smartphone-Umfeld eine Reihe von Verbesserungen für Unternehmen und ihre Kunden bringen - wie können die Unternehmen den ersten Schritt machen?
  • Bis zur echten Replikation des menschlichen Gehirns und einer annähernden General AI werden vermutlich noch viele Jahre vergehen, doch selbst einige Zwischenstufen können hilfreich für die zukünftige Digital User Experience sein.

Continue reading “Wie mobile neuronale Netze das nächste Level der User Experience einläuten” »



Innovationen durch Daten: Eine Daten-Kernkompetenz ist wichtiger als ein neuer Chief AI Officer

Die aufkeimende Flut von IoT-Lösungen auf elektronischer Ebene bietet nicht nur die Möglichkeit mehrere Geräte miteinander zu vernetzen, sondern auch die Pflicht über die Datenströme der Lösungen entsprechend nachzudenken. Diese Auseinandersetzung mit den Daten sollte bereits im Vorfeld angestoßen werden und Teil der Lösung von Tag eins an sein. Die Herkunft der Daten sollte dabei zwar genauestens geprüft und protokolliert werden, jedoch ist die Quelle an sich nicht so relevant, wie der Wert der Daten selbst. Daher ist es möglich verschiedene Szenarien in Betracht zu ziehen, wenn man über die Erzeugung eines neuen Dienstes oder Produkts nachdenkt. Auf der einen Seite gibt es im Unternehmen bereits etliche Daten, die ggf. nur neu aufbereitet werden müssen. Dann wiederum gibt es Daten, die erst mit dem Produkt selbst und der Nutzung erzeugt werden. Und ferner gibt es noch Daten, die vielleicht nicht im eigenen Besitz liegen und auch nicht Kern des eigenen Geschäftsmodells sind, dennoch aber ein wichtiger Bestandteil des Produktes sein sollen. Diese Daten werden dann erworben oder zumindest die Nutzungsrechte (Lizenz) für diese.

Continue reading “Innovationen durch Daten: Eine Daten-Kernkompetenz ist wichtiger als ein neuer Chief AI Officer” »



Machine Learning in der Industrie

Machine Learning in der Industrie - Wie Verfahren der künstlichen Intelligenz zum elementaren Digitalisierungsbaustein der globalen Industriekonzerne werden

Mit der zunehmenden Digitalisierung steigt auch in der Industrie der wertschöpfende Anteil der IT. Mit dem Einzug des Internet der Dinge werden immer mehr Daten produziert, die gesammelt, analysiert und nutzbar gemacht werden wollen. Industrieunternehmen werden immer mehr zu IT- und Software-Unternehmen. Wer nicht mitmacht, wird abgehängt. Mit steigender Datenmenge und fortgeschrittener Automatisierung nehmen Machine Learning und Künstliche Intelligenz immer mehr Einzug in die Industrie. Continue reading “Machine Learning in der Industrie” »



Die Machine Learning Akquisitionen der Big Five – Smarte Produkte werden Standard

Nicht erst seit heute ist Machine Learning ein heißes Thema. Die Anwendungsmöglichkeiten sind vielfältig und reichen von der Bilderkennung über Predictive Analytics bis hin zu Computer Vision. Im Zeitraum von 2015 bis Mitte 2016 gab es über 120 Akquisitionen im Bereich Machine Learning. Crisp Research hat mal genauer hingeschaut und beleuchtet in diesem Analyst View vergangene und aktuelle Trends. Continue reading “Die Machine Learning Akquisitionen der Big Five – Smarte Produkte werden Standard” »



Big Data in Bio-Science – Was Crispr für die IT-Welt bedeutet

Crispr steht in diesem Fall nicht für Crisp Research, sondern für „Clustered Regularly Interspaced Short Palindromic Repeats“, was wiederum der Fachbegriff für sich wiederholende DNA-Abschnitte ist. Die durch die beiden Forscherinnen Emmanuelle Charpentier und Jennifer Doudna in 2012 vorgestellte Crispr-CAS-Methode ist innerhalb kürzester Zeit eine der weltweit wichtigsten Innovationen zur Veränderung von Erbgut geworden. Das Verfahren liefert eine simple, effiziente und kostengünstige Möglichkeit zur Durchführung von gezielten Genveränderungen. Continue reading “Big Data in Bio-Science – Was Crispr für die IT-Welt bedeutet” »



Öffentliche Datensätze – Warum freie Daten wichtig für die digitale Entwicklung sind

Öffentlich verfügbare Datensätze sind eine Rarität. Nun, sie waren es zumindest für eine sehr lange Zeit. Oftmals suchte ich nach passenden Daten für die Vorlesung, um den Studenten den Sinn und die Bedeutung von Cloud, Machine Learning und Big Data besser vermitteln zu können. Doch lange Zeit war nicht viel zu holen, außer in den Datensätzen aus den USA. Dies hat sich geändert und zwar sehr drastisch. Dadurch brach eine Innovationswelle aus, welche bis heute am Beschleunigen ist. Continue reading “Öffentliche Datensätze – Warum freie Daten wichtig für die digitale Entwicklung sind” »



Künstliche Intelligenz und echte Profite – Machine Learning auf dem Weg in den Mainstream

Lange waren Machine Learning-Verfahren nur etwas für echte Geeks und verrückte Statistik-Wissenschaftler. Doch seit zwei Jahren hat sich das Blatt gewendet und Künstliche Intelligenz ist das Top-Thema der digitalen Elite und der Venture Capitalists im Silicon Valley. Was ist der Grund für das Comeback? Und welchen Einfluss wird das Thema Machine Learning für die IT- und Digitalisierungsstrategien der Unternehmen in den kommenden 2-5 Jahren haben?

Continue reading “Künstliche Intelligenz und echte Profite – Machine Learning auf dem Weg in den Mainstream” »



Hybride Hadoop Strategien – Big Data macht den Spagat

Das Thema Big Data hat in den letzten Jahren viele Entscheider massiv getrieben. Cloudera, Hortonworks, MapR & Co. zogen in die Rechenzentren vieler deutscher Unternehmen ein und befüllen die Datalakes der Unternehmen. Parallel dazu werden immer mehr Cloud-Infrastrukturen genutzt, um neue Dienste zur erstellen und so entstehen auch in der Cloud zum Teil Datalakes. Die Frage ist, wie man effektiv und sinnvoll diese hybriden Welten verbinden kann und welche Einsatzszenarien einen Mehrwert und nicht nur mehr Aufwand bringen.

Continue reading “Hybride Hadoop Strategien – Big Data macht den Spagat” »



Machine Learning aus der Cloud – Was halten die Versprechen?

Ob Predictive Analytics, die Informationsgewinnung aus neuen BigData-Quellen oder das Durchsuchen alter Bestandsdaten, überall werden Machine Learing-Algorithmen eingesetzt. Dass Verfahren aus dem Bereich des Machine Learning immer mehr an Bedeutung gewinnen, zeigt u.a. die aktuelle Ankündigung von Nvidia.

Continue reading “Machine Learning aus der Cloud – Was halten die Versprechen?” »



Krieg in der IoT-Kommunikation – Telekommunikationsprovider aus dem Spiel?

Internet of Things (IoT) braucht Kommunikation. Ohne ein entsprechend effizientes Kommunikationsmedium bleiben Dinge eben einfach nur Dinge. Sicherlich haben Sie weiterhin die Möglichkeit ihre bisherigen Aufgaben zu erfüllen, jedoch ohne eine Vernetzung mit anderen Dingen. Daher stellt sich die Frage auf welche Art und Weise die Kommunikation der vielen, vielen Dinge in Zukunft sichergestellt werden kann. Welcher Standard wird sich etablieren? Apple stelle mit dem HomeKit auf der WWDC (Worldwide Developer Conference) im Juni 2014 keine revolutionäre neue Technologie vor, sondern vielmehr eine Art und Weise, viele unterschiedliche Technologien zu vereinen, um eine einheitliche Zugriffsmöglichkeit auf seine SmartHome Geräte zu haben. Dies zeigt bereits, dass es momentan viele unterschiedliche Anbieter mit den unterschiedlichsten Produkten, Protokollen, Netzwerken und Schnittstellen gibt. Bei der Kommunikation scheint es besonders verschwommen zu sein.

Continue reading “Krieg in der IoT-Kommunikation – Telekommunikationsprovider aus dem Spiel?” »



Crisp Vendor Universe: Alle relevanten IoT-Backend-Anbieter für den deutschen Markt auf einem Blick

Mit dem Internet of Things (IoT) hat der nächste Megatrend Deutschland erreicht. Nach Cloud, Big Data, Mobile und Social ist die Agenda deutscher CIOs und CTOs nun um ein weiteres Thema reicher geworden. Nicht nur in den Medien und auf Konferenzen geht es um die Vernetzung von Menschen, Haushaltsgeräten, Autos und Industrieanlagen. Als Teil ihrer Digitalisierungsstrategie planen immer mehr Unternehmen die Entwicklung IoT-basierter Produkte und Lösungen, um ihre Prozesse zu optimieren und neue datenbasierte Geschäftsmodelle zu erschließen. Continue reading “Crisp Vendor Universe: Alle relevanten IoT-Backend-Anbieter für den deutschen Markt auf einem Blick” »



Nationaler IT Gipfel 2015 – Chancen und Verantwortung in der Digitalisierung

Die 9. Auflage des Nationalen IT Gipfels brachte auch in diesem Jahr die Top-Entscheider aus Politik und Wirtschaft zusammen, um die Wachstums- und Innovationspotenziale der IT-Branche in Deutschland zu diskutieren. Neben Kanzlerin Angela Merkel und Wirtschaftsminister Sigmar Gabriel, waren eine Reihe an Vertretern aus den Bundesministerien und Fraktionen sowie die Konzernlenker der in Deutschland ansässigen ITK-Unternehmen zu Gast. Continue reading “Nationaler IT Gipfel 2015 – Chancen und Verantwortung in der Digitalisierung” »



Heisenberg und Big Data – Oder erkenntnistheoretische Betrachtungen zu Big Data

Zu Beginn ein kurzer Exkurs in die Physik der letzten Jahrhunderte:

Zum Ende des 18.ten Jahrhunderts waren einige Wissenschaftler berauscht vom wissenschaftlichen Fortschritt der Meinung, sie könnten alle Probleme dieser Welt lösen. Pierre Laplace, ein frz. Mathematiker, der sich durch die Vervollständigung der newtonschen Himmelsmechanik, der Wahrscheinlichkeit- und Spieltheorie verdient gemacht hat und ein konsequenter Vertreter des sog. Determinismus war, vertrat z.B. gegenüber Napoleon die Ansicht, dass man nur genügend Gleichungen aufstellen müsse, um alle Probleme der Welt hinreichend beschreiben und lösen zu können. Da Laplace keine Rechenmaschinen zur Verfügung hatte, brauchte er den Beweis seiner Behauptung nicht antreten, was ihm nach heutiger Kenntnis und dem Vorhandensein enormer Rechenleistungen auch nicht gelungen wäre. Continue reading “Heisenberg und Big Data – Oder erkenntnistheoretische Betrachtungen zu Big Data” »



Vertrauen ist gut, Kontrolle ist besser! Die neue Generation von Analytics-, Visualisierungs- und Monitoring-Tools ist da

Daten sind das neue Gold - wird gerne proklamiert. Doch große Datenmengen stellen nicht nur IT-Infrastrukturen, sondern vor allem den Mensch als Entscheider vor große Probleme. Nur wenn sich die Datenlawine aus Sensoren, Applikationen und IT-Systemen ohne große Probleme analysieren und visualisieren lässt, können Daten Mehrwert generieren und für bessere Entscheidungen sorgen. Eine neue Generation von Tools und Services steht dafür bereit. Continue reading “Vertrauen ist gut, Kontrolle ist besser! Die neue Generation von Analytics-, Visualisierungs- und Monitoring-Tools ist da” »



Neuer BITKOM Big Data-Leitfaden mit über 40 Praxisbeispielen veröffentlicht

Der BITKOM Branchenverband hat den neuen Big Data-Leitfaden für Fach- und Führungskräfte veröffentlicht. Der Fokus liegt hierbei auf 40 Praxisbeispielen zum Thema "Big Data und Geschäftsmodell-Innovationen". So werden überzeugende Hinweise dafür geliefert, wie der Einsatz von Big Data bei Anwendern Möglichkeiten für Geschäftsmodell-Innovationen eröffnet. Entscheider aus dem Mittelstand können aus den Praxisbeispielen Impulse und Anregungen erhalten, in ihren Unternehmen das innovative Potenzial von Big Data zu heben. Continue reading “Neuer BITKOM Big Data-Leitfaden mit über 40 Praxisbeispielen veröffentlicht” »



Datability – Mehr als ein Cebit-Motto

Wer hätte es gedacht! Datability - ein neuer Technologie-Trendbegriff. Und das „Made in Germany“. So viel Kreativität hat man den Cebit-Machern gar nicht mehr zugetraut. Nach Jahren abnehmender Besucherzahlen und dem Rückzug einiger großer Anbieter. Aber das Thema „Datability“ und dessen mediale Resonanz schon weit vor der Cebit zeigen, dass Deutschland als IT- und Innovationsstandort wieder gefragt ist und substanziell zu den Entwicklungen in den neuen Wachstumsbereichen Big Data, Analytics & Cloud beiträgt. Continue reading “Datability – Mehr als ein Cebit-Motto” »



Disruptive Welt der IT: Neue Technologien verändern ständig den Status quo der Unternehmen #tsy13

Zero Distance klingt im ersten Moment wie eine dieser neumodischen Marketingphrasen, mit denen uns Anbieter tagtäglich erzählen, wie sie die Welt verbessern wollen. Nun, es handelt sich dabei auch um genau eine von diesen Marketingphrasen. Aber eine, in der viel Wahrheit steckt. Betrachtet man die Use Cases, die auf dem T-Systems Symposium 2013 gezeigt wurden und viele weitere weltweit, dann wird deutlich, was für Potentiale uns die moderne Informationstechnologie ermöglicht. Die Cloud bzw. Cloud Computing sind dabei nur ein Mittel zum Zweck und dienen als Enabler für neue Geschäftsmodelle und helfen bei der Veränderung unserer Welt.

Wer nicht handelt der stirbt aus!

Fakt ist, dass traditionelle Unternehmen dem Untergang geweiht sind, wenn sie sich nicht verändern. An alten Werten festzuhalten ist nicht immer die beste Strategie – insbesondere im Zeitalter des Digital Business. Startups tauchen wie aus dem nichts auf und überrennen Marktführer in ihrem Bereich, die gar keine Chance haben so schnell zu reagieren. Es ist der Vorteil der grünen Wiese, den die Startups ausnutzen und sich nicht mit lästigen Altlasten in der IT und anderweitigen Bereichen auseinandersetzen müssen. Aber es gibt auch die Unternehmen, die schon eine geraume Zeit erfolgreich auf dem Markt verweilen und die Zeichen der Zeit erkannt haben. Neue Technologien und Konzepte haben immer irgendeinen Einfluss auf das Business. Einige Unternehmen haben es verstanden sich neu zu erfinden und Cloud Computing, Big Data, Mobile und Collaboration gewinnbringend für die eigene Zwecke zu nutzen, um sich dadurch zu verändern. Andere hingegen können oder wollen es nicht verstehen und bleiben lieber ihrem Status quo treu.

Hey Bauer, wo bleibt der Bulle?

Es ist immer wieder erstaunlich in welchen Bereichen der Industrie die Informationstechnologie einen massiven Einfluss nimmt und dabei für mehr Effizienz sorgt. Nehmen wir das Beispiel der Landwirtschaft. Konkreter das Paarungsverhalten der Kühe. Das ist wichtig, denn eine Kuh gibt nur dann Milch, wenn sie gekalbt hat. Es ist für den Bauer daher von besonderem Interesse, das hier alles reibungslos abläuft.

Die Lösung: Ist eine Kuh brünstig, macht sie währenddessen typische Kopfbewegungen. Daher bekommt jede Kuh ein Halsband inkl. einem Mobilfunkchip. Der Bauer erhält darüber die Information, dass er den Bullen startklar machen kann. Auch beim Kalben hilft die Lösung. Dazu überträgt das Tool die Werte eines Thermometers mit integrierter SIM Karte. Etwa 48 Stunden vor der Geburt verändert sich die Körpertemperatur der Kuh. Der Bauer erhält zwei Stunden vor der Geburt eine SMS, um rechtzeitig vor Ort zu sein.

IT-Abteilungen müssen proaktiver werden

IT-Abteilungen sind und waren schon immer die Prügelknaben im Unternehmen. Zu recht? Nun, einige ja, andere wiederum nicht. Aber sind es die IT-Abteilungen alleine, die für die Transformation des Business zuständig sind? Jein. In erster Linie ist die Geschäftsführung für die Ausrichtung der Unternehmensstrategie verantwortlich. Sie muss sagen, welchen Weg das Unternehmen gehen soll, schließlich hat sie die Visionen. Das große Aber besteht allerdings in der Art wie die IT-Abteilung sich in diesem Kontext verhält. Ist sie einfach nur die unterstützende Kraft, die je nach Bedarf auf die Wünsche der Geschäftsführung und der Kollegen reagiert oder agiert sie lieber proaktiv?

Angriff ist die beste Verteidigung. IT-Abteilungen sollten heute am technischen und innovativen Puls der Zeit sitzen und über die Veränderungen im Markt informiert sein. Über eine ständige interne oder externe Markt- und Trendforschung müssen sie wissen, was auf sie und ggf. auf ihr Unternehmen zukommt und darauf schnellstmöglich und proaktiv reagieren, um nicht zu viel Zeit zu verlieren und im besten Fall einen Wettbewerbsvorteil zu schaffen. Je nach Trend müssen sie nicht auf jeden Zug aufspringen, aber sie sollten sich damit zumindest auseinandersetzen und verstanden haben, welcher Einfluss dadurch entsteht und ob sie oder ihr Unternehmen davon betroffen sind. Wenn sie Potential für neue Geschäftsmodelle erkennen, sollten sie diese in die Geschäftsführung tragen, die auch verstehen muss, dass IT heute Enabler und nicht nur Instandhalter ist. Das bedeutet, dass die IT-Abteilung im Unternehmen heute einen viel größeren Stellenwert hat als noch vor zehn Jahren.

Hierzu muss die Geschäftsführung der IT-Abteilung jedoch unter die Arme greifen und die IT-Abteilung von ihren Routineaufgaben befreien. In etwa 80 Prozent der IT-Ausgaben werden heute in den IT-Betrieb investiert und das nur, um die Dinge am Laufen zu erhalten. Es handelt sich also um Investitionen in den Status quo, die zu keinen Innovationen führen. Hingegen werden lediglich nur 20 Prozent der Ausgaben in Verbesserungen oder Weiterentwicklungen investiert. Dieses Verhältnis muss sich drehen, und die Geschäftsführung zusammen mit dem CIO haben die Aufgabe, diesen Wandel vorzunehmen, damit ein Unternehmen auch in Zukunft innovativ und wettbewerbsfähig bleibt.

Hören Sie auf den Status quo zu umarmen.