Big Data in Bio-Science – Was Crispr für die IT-Welt bedeutet

Crispr steht in diesem Fall nicht für Crisp Research, sondern für „Clustered Regularly Interspaced Short Palindromic Repeats“, was wiederum der Fachbegriff für sich wiederholende DNA-Abschnitte ist. Die durch die beiden Forscherinnen Emmanuelle Charpentier und Jennifer Doudna in 2012 vorgestellte Crispr-CAS-Methode ist innerhalb kürzester Zeit eine der weltweit wichtigsten Innovationen zur Veränderung von Erbgut geworden. Das Verfahren liefert eine simple, effiziente und kostengünstige Möglichkeit zur Durchführung von gezielten Genveränderungen.

Damit haben sich Charpentier und Doudna nicht nur als heiße Aspiranten für den Nobelpreis qualifiziert, sondern die Basis für einen neuen Investment- und Innovationshype in der Biogenetik gelegt. Beide sind als Co-Founder und Scientific Advisor an Gen-Startups beteiligt, die in den letzten 24 Monaten hunderte von Millionen USD an Venture Capital eingesammelt haben. Neben den großen VC-Fonds sind auch Facebook-Gründer Shawn Parker, Bill Gates und andere Silicon Valley-Größen als Investoren der neuesten Gentechnik-Innovation dabei. Doch was bedeutet dies für die IT?

Crispr – Wenn Gentechnik zum Mainstream wird

Die Einfachheit und Präzision des entwickelten Verfahrens, das von verschiedenen Firmen und Laboren weltweit lizensiert wird, begründet einen neuen Boom in der Biogenetik und wird aller Voraussicht nach die Genom-Sequenzierung in Kürze massenmarktfähig und erschwinglich machen. Auch wenn in Deutschland die ethische Debatte eine Reihe von Einsatzmöglichkeiten entweder verbietet oder erschwert, wird in anderen Ländern schon heute an einer neuen Generation an genveränderten Organismen gearbeitet. Von Nutzpflanzen bis hin zu genveränderten, nicht lebensfähigen Embryonen in China eröffnet die Technik ein extrem weites Anwendungsfeld.

Es erscheint absehbar, dass die Genomentschlüsselung im Kontext der Schwangerschaftsdiagnostik, als auch bei der Entwicklung neuer Therapien oder der Kreation von Nutzpflanzen und Lebensmitteln zukünftig eine zentrale Rolle spielen wird. Treiber sind die vermögenden und alternden Bevölkerungsschichten der Industrieländer sowie die staatlichen Forschungslabore in China und Indien, die in der Technologie ein Instrument zur Existenzsicherung und Versorgung ihrer riesigen Bevölkerung sehen, die zukünftig immer schwerer zu ernähren ist. Da hier der Wunsch der Megareichen nach Unsterblichkeit und der Welthunger eine Allianz bilden, werden die ethischen Bedenken einiger weniger bei der Entwicklung der kommenden 10 Jahre nicht ins Gewicht fallen. Hierauf sollten sich insbesondere deutsche Politiker und Entscheider einstellen.

Genomsequenzierung für 1.000 Euro – Die Parallelen zu Moore´s Law

Im Hinblick auf die IT und die Digitalisierung des Gesundheitswesens, die global langsam Formen annimmt, fällt folgender Aspekt ins Gewicht: Mit dem radikalen Preisverfall bei der Genomsequenzierung in den letzten 10 Jahren und neuen Verfahren à la Crispr-CAS werden Genanalysen nicht nur für einzelne wohlhabende Patienten, sondern in skalierbarer Form für Millionen Menschen möglich und finanzierbar.

CarloB1

Quelle: National Human Genome Research Institute (NHGRI), Mai 2016

Während das in den 90er Jahren gestartete „Humane Genome Project“ zur Entschlüsselung des menschlichen Genoms rund 2,7 Milliarden USD Forschungsgelder verschlang und 20 Jahre benötigte, sind heute Genanalysen für Einzelpatienten für unter 1.000 Euro möglich und am Markt verfügbar! Dagegen nimmt sich Moore´s Law wie eine Schnecke aus. Zumal Moore`s Law gerade an seine Grenzen gelangt, während diese in der Genetik noch lange nicht in Sicht sind.

Big Data und Machine Learning – Explosion von Gen-Daten steht kurz bevor

Mittlerweile existieren rund 2.500 Anlagen zur Hochgeschwindigkeitssequenzierung und es bieten weltweit über 1.000 Labore und Unternehmen Genomsequenzierung und -Analyse als professionelle Dienstleistung an. Der Markt für entsprechendes Equipment wächst seit Jahren dynamisch. Doch was bedeutet der Boom in der Biogenetik für die IT?

Die CIOs von Gesundheitsunternehmen und Versicherern müssen sich darauf einstellen zukünftig noch viel größere Datenmengen zu speichern und zu verwalten. Denn bei der Genomentschlüsselung werden jeweils 3 Milliarden Basenpaare sequenziert und ausgewertet und dabei redundant (bis zu 30x) abgespeichert. Zwar lassen sich die Daten im Rahmen der Analyse auch reduzieren. Darauf wird man zukünftig aber nur selten setzen können, da man aus Gründen der Qualitätssicherung die kompletten Daten sichern muss. Denn unbekannte Zusammenhänge zwischen einzelnen Genen lassen sich in den abgespeckten Analysedaten nicht mehr nachvollziehen und erkennen. Hinzu kommt, dass gerade in der vollumfänglichen Analyse und im Vergleich mit einer Vielzahl anderer Gendatensätze die handlungs- und therapierelevanten Muster zu Tage treten, auf die es Forscher und Mediziner abgesehen haben.

Im vergangenen Jahrzehnt hat sich das Volumen an gesammelten Genomdaten laut der Forscher am NHGRI alle 6 Monate verdoppelt. Mit den fallenden Preisen und den neuen Einsatzgebieten in Kontext von Tieren und Nutzpflanzen wird sich das Volumen an Gendaten in Kürze im Bereich von Exabyte bewegen.

Doch was tun mit all den Daten? Um Muster, Zusammenhänge und Innovationsansätze für neue Medikamente und Therapien zu erkennen, werden zukünftig vor allem Verfahren der künstlichen Intelligenz und des Machine Learning eingesetzt. Und hier sind die großen Internetfirmen á la Facebook, Google, Microsoft und AWS die Vorreiter. Deren Gründer und CEOs sind auch die maßgeblichen Investoren in der neuen Gentechnik-Generation. Aber auch IBM spielt mit ihrem Cognitive Computing genannten Ansatz in dieser Liga mit.

Die großen Versicherungs- und Pharmaunternehmen müssen sich schleunigst darum kümmern, eigene Kompetenzen im Bereich Machine Learning aufzubauen oder strategische Kooperationen eingehen. Auch die Storage- und Sicherheitskonzepte müssen überdacht werden, denn die eigenen Gendaten wollen die Patienten oder große Agrarfirmen nicht in fremden Händen sehen.

100 Jahre und es geht noch weiter – Genetik und Bioinformatik als zentraler Treiber des Cloud- und Big Data-Marktes der nächsten 20 Jahre

Es zeichnet sich klar ab, dass Crispr-CAS und verwandte Gentechnik-Innovationen zu den disruptiven Kräften und sogenannten „Breakthroughs“ der kommenden 20 Jahre zählen werden. Die Sammlung und Analyse von Gendaten wird zu den bestimmenden Innovationsfeldern im Hinblick auf die Entwicklung neuer Analyse-, Computing-und Storage-Technologien. Der Fokus bei der weiteren Evolution von Big Data wird nicht mehr bei Twitter & Co, sondern bei Unternehmen liegen, die in großem Stile wissenschaftliche Daten verarbeiten. CIOs haben zwar gerade erst gelernt sich in Richtung der digitalen Startups zu orientieren. Doch vielleicht muss man sich schon jetzt umorientieren und eher in der Wissenschaft nach den echten Innovationen suchen. Denn parallel zur Raumfahrt werden auch noch weitere Disziplinen wie z.B. Astronomie, Telemetrie oder Materialforschung für einen neuen Datenschub sorgen. Für die globalen Cloud-Provider sind dies maßgebliche Treiber der Nachfrage nach CPU-Power und Speicherkapazität. AWS, Microsoft & Co. sollten sich daher freuen und hier weiter in die nächste Generation an Cloud-Kunden investieren.

Anmerkung:
Einen sehr lesenswerten Beitrag aus der Perspektive eines 100-Jährigen hat
Ulrich Woelk in der aktuellen Ausgabe der Zeit verfasst. Eine gute Übersicht zu den relevanten Forschungsinstituten zum Thema Big Data liefert der gerade erst erschiene Report „Germany - Excellence in Big Data“, an dem Crisp Research aktiv mitgearbeitet hat.

Mehr zu den Themen Analytics Big Data Bots Cloud Cognitive Computing CrispR Deep Learning Digital Transformation Gentechnik Machine Learning

Share on:


Über den Autor:

Senior Analyst & CEO

Carlo VeltenDr. Carlo Velten ist CEO des IT-Research- und Beratungsunternehmens Crisp Research AG. Seit über 15 Jahren berät Carlo Velten als IT-Analyst namhafte Technologieunternehmen in Marketing- und Strategiefragen. Seine Schwerpunktthemen sind Cloud Strategy & Economics, Data Center Innovation und Digital Business Transformation. Zuvor leitete er 8 Jahre lang gemeinsam mit Steve Janata bei der Experton Group die „Cloud Computing & Innovation Practice“ und war Initiator des „Cloud Vendor Benchmark“. Davor war Carlo Velten verantwortlicher Senior Analyst bei der TechConsult und dort für die Themen Open Source und Web Computing verantwortlich. Dr. Carlo Velten ist Jurymitglied bei den „Best-in-Cloud-Awards“ und engagiert sich im Branchenverband BITKOM. Als Business Angel unterstützt er junge Startups und ist politisch als Vorstand des Managerkreises der Friedrich Ebert Stiftung aktiv.