IT-Trends-Blog

IT-Trends-Blog

Opinions expressed on this blog reflect the writer’s views and not the position of the Capgemini Group

IT-Trends: Die Zukunft des Data Lakes gehört der Pfütze

Kategorie: Digitale Trends

Alle Welt redet von Data Lakes. Möglichst viele Daten sollen in einem großen See zusammenfließen, um sie schnell und einfach analysieren zu können. Obwohl so ein Data Lake viele Vorteile hat, glaube ich, dass die Zukunft eher der Datenpfütze gehört, dem kleinen Biotop vor Ort, das nur eine begrenzte Menge an Informationen speichert. Wie ich diese Prognose begründe und warum CIOs sie sich zu Herzen nehmen sollten, erkläre ich Ihnen in diesem Beitrag.

Viele Unternehmensbereiche profitieren bereits von Data Lakes und ihren Investitionen in die entsprechenden Methoden, Technologien und die Mitarbeiter. Die Analysen geben Aufschluss über viele Fragen, die früher Raum für Spekulationen boten. Warum produziert das eine Werk mehr Ausschuss als das andere? Woher rührt die geringere Lebensdauer von Maschine A im Vergleich zu Maschine B desselben Typs? Welche neuen Geschäftsmodelle lassen sich mit den Analysen und Daten entwickeln?

Um solche Fragen beantworten zu können, sammeln Unternehmen immer mehr Daten. Generiert werden sie von den zunehmend digitalen Geschäftsprozessen und Sensoren. Das Ergebnis: Die Datenmenge steigt rapide. Das ist prinzipiell gut! Je  mehr Daten desto größer die Entscheidungssicherheit. Sie zu speichern ist in der Regel technisch auch kein Problem. Zunehmend schwieriger gestaltet sich allerdings der Transport jener Daten in den großen See.

Datentransfer ist ein Hindernisrennen

Da wäre zum Beispiel der Datenschutz. Viele Daten müssen vor dem Transfer in ein anderes Land anonymisiert werden, andere dürfen die Grenze erst gar nicht passieren. Welche das genau sind, ist von Land zu Land unterschiedlich. Während die Situation in Europa noch relativ übersichtlich ist, wird es bei Daten aus Ländern wie China oder Russland kompliziert. Wer blickt da noch durch?

Darüber hinaus benötigen Unternehmen für die Datenübertragung sichere Leitungskapazitäten, die Kosten verursachen. Wenn Daten weite Wege zwischen Sensor und Hauptrechner zurücklegen müssen, kann es sein, dass Anwendungen nicht wunschgemäß funktionieren, weil die Latenzzeiten zu lang sind. Außerdem erschweren unterschiedlich lange Übertragungswege Echtzeitanalysen mit Daten aus verschiedenen Regionen. Das kann zu falschen Schlüssen führen.

Und als wären das nicht schon genug Probleme, wird meiner Meinung nach der Tag kommen, an dem die Mengen einfach zu groß werden, um sie zu transferieren. Deshalb glaube ich, dass die Datenpfütze ein gutes Konzept ist: Jede Niederlassung einer Organisation speichert und analysiert ihre Daten vor Ort und überträgt lediglich die Ergebnisse an die Zentrale. Frei nach dem Hadoop-Motto: „Moving the processing to the data“. Die jeweilige Datenmenge ist wesentlich kleiner und leichter und das Maskierungs- und Anonymisierungsproblem erübrigt sich ebenfalls. Und es sind sehr detaillierte Analysen möglich, da die Mitarbeiter alle Informationen nutzen können, die zur Verfügung stehen.

Governance und einheitliches Datenmodell schaffen die Basis für konzernweite Analysen

Damit aber überhaupt handlungsrelevante Informationen entstehen können, braucht es eine entsprechende Governance, um Abschottung zu vermeiden, sowie ein einheitliches Datenmodell. CIOs sollten sich also Gedanken über einen Standard machen, den alle Niederlassungen nutzen. Eine gewisse Heterogenität wird sich trotzdem nicht vermeiden lassen, weil beispielsweise nicht jedes Land mit demselben Roboter- oder Sensormodell arbeitet. Das ist aber nicht weiter schlimm, solange das Datenmodell einen einheitlichen Kern hat.

Die Algorithmen für konzernweite Analysen entwickeln bei diesem Ansatz die Mitarbeiter der Konzernzentrale anhand von Beispieldaten. Die Ergebnisse zeigen dann beispielsweise, dass Fertigungsmethode A in warmen Klimazonen der Methode B überlegen ist, wenn es um die Produktion von Ausschuss geht. Oder dass die Vernetzung bestimmter Informationen aus unterschiedlichen Regionen die Grundlage für ein neues Geschäftsmodel bietet.

Jetzt haben Sie so viele Argumente gehört, die für die verteilte Speicherung von Daten sprechen. Haben Sie Ihre Meinung verändert? Oder Ihre Strategie? Diskutieren Sie mit mir, mich interessiert was Sie dazu denken!

 

Über den Autor

Fabian Schladitz
Fabian Schladitz
Als Senior Berater im Bereich Big Data Analytics unterstütze ich Kunden in verschiedenen Phasen des Entwicklung von Big Data Projekten – von der Strategie über die Organisation bis hin zur Umsetzung. Gleichzeitig leite ich die Unit Big Data Analytics und entwickle die Mitarbeiter sowie unser Leistungsportfolio in diesem Themengebiet.

Kommentar hinterlassen

Ihre E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind mit einem * gekennzeichnet.