IT-Trends-Blog

IT-Trends-Blog

Opinions expressed on this blog reflect the writer’s views and not the position of the Capgemini Group

5 Vorteile von Daten-Virtualisierung

Kategorie: Trends des Monats
Die Verwendung von agilen Entwicklungsmethodiken im Umfeld von Business Intelligence (BI) ist heute sehr verbreitet, trotzdem scheitern immer wieder genau solche BI-Projekte. Obwohl ein iterativer Ansatz, bei dem die kontinuierliche Arbeit und Entwicklung in Teilschritten passiert, der richtige Weg ist, kennen vielen IT-Experten die Erfolgsfaktoren Agiler BI* noch nicht. Wie sehen diese aus?

Der erste wichtige Faktor sind die immer besser werdenden Frontend-Tools. Wie bereits in einem früheren Beitrag deutlich wird, ist Visualisierung gerade im Bereich von Big Data einer der Schlüsselfaktoren.

Aber auch auf einer zweiten Ebene gibt es technische Entwicklungen, die einen agilen Ansatz im Umfeld von BI besser ermöglichen: Self Service BI. Durch immer mehr Datenquellen, die auch für die Fachabteilungen relevant sind, kann gerade der Aufbau einer Data-Warehouse-Umgebung sehr zeitintensiv werden. Der Grund: Es müssen jeweils die Konnektoren hergestellt und entsprechende Datentransformationen erstellt werden.

Im Gegensatz dazu ermöglicht Self Service BI ein deutlich schnelleres agiles Vorgehen. Verschiedenste Datenquellen, von Excel über Datenbanken bis hin zu Web-Services lassen sich sehr einfach anbinden. Dieses „self-provisioning“ der Daten ermöglicht es den Fachanwendern, sehr flexibel auf neue Anforderungen zu reagieren. Neue Auswertungen von Messwerten von Maschinen können zum Beispiel für eine explorative Analyse einfach durch verschiedenste Exportformate angebunden werden. Außerdem lassen sich diese neuen Daten mit den bereits verknüpften Daten kombinieren. Dadurch "virtualisiert" man die Daten im Rahmen der Datenakquisition innerhalb des BI-Tools. Diese Virtualisierung schafft eine Art virtuelles Datenrepository, auf dem innerhalb der BI-Tools gearbeitet werden kann.

Diese Möglichkeiten bieten eine Vielzahl von Vorteilen:

1. Es lassen sich ohne größere Einbeziehung der Unternehmens-IT neue Datenquellen anbinden und einen Blick darauf werfen. Weiterhin lassen sich so schon Erkenntnisse über die Datenqualität gewinnen und Integrationsoptionen zu den vorhanden Daten können evaluiert werden
2. Die Daten müssen nicht erst über zeitaufwendige Extraktionsmechanismen aus den Quellsystemen extrahiert werden.
3. Die Entwicklung kann in sehr kurzen Iterationsschritten erfolgen, da zeitaufwändige Implementierungen von ETL-Strecken im ersten Schritt entfallen können.
4. Durch kurze Iterationsschritte können sehr schnell neue Ergebnisse erzielt werden, wodurch sowohl schnellere Resultate, als auch eine höhere Akzeptanz erreicht werden können.
5. Da die grundsätzliche Anbindung neuer Datenquellen über Self-Service-BI-Tools wenig Aufwand erfordert, ist auch ein Trial-and-Error-Ansatz denkbar. Auf diese Weise können die Anforderungen des Fachbereichs sehr schnell und mit einer hinreichenden Tiefe hinterfragt, gestaltet und konkretisiert werden.

Datenvirtualisierung ist ein wichtiger technologischer Ansatz zur Unterstützung agiler BI. So können schnell neue Datentöpfe (neben klassischen Datenbanken und Flatfiles  natürlich auch neue Big Data-Architekturen wie ein Business Data Lake) angebunden, entsprechende Auswertungen erstellt und somit zügig neue Erkenntnisse gewonnen werden. Durch die Integration von InMemory-Engines in die BI-Tools sind diese Auswertungen auch sehr schnell. Doch das Thema Datenvirtualisierung findet man nicht nur bei den BI-Frontends. Es ist auch bei Datenbankmanagementsystemen zu finden. So bieten die verschiedenen Hersteller von Datenbanken Möglichkeiten, externe Daten als "virtuelle Tabelle" einfach einzubinden.

Aus meiner Erfahrung  lässt sich sagen, dass ein wesentlicher Erfolgsfaktor für die agile Entwicklung von BI-Projekten die Datenvirtualisierung ist. Denn durch sie können die sehr zeit- und entwicklungsintensiven Schritte des Aufbaus einer DataWarehouse-Architektur mit den entsprechenden Ladeläufen der ETL-Werkzeuge zum Teil kurzzeitig umgangen, in vielen Fällen aber massiv beschleunigt werden. Dies hat die iterative Entwicklung erst ermöglicht, wodurch ein breiter Einsatz von agilen Methoden erst möglich wurde.

Doch nicht nur technische Faktoren bestimmen den Erfolg von agiler BI. Auch viele Faktoren im Bereich von Organisation und Prozessen sind sehr wichtig und entscheiden darüber, ob BI-Projekte erfolgreich agil durchgeführt werden können. Was sind in Ihren Augen die ausschlaggebenden Faktoren? Ich freue mich auf einen persönlichen Austausch mit Ihnen.
 
*Im agilen BI werden die verschiedenen Schritte einer BI-Architektur (ETL, DWH, Business Layer, Frontend) in einem iterativen Ansatz durchgeführt. So bietet es sich zum Beispiel an, erst einen Teil der Datenquellen anzubinden, dafür die entsprechende ETL-Strecke aufzubauen, den Business Layer zu erstellen und dies entsprechend zu visualisieren. So bekommen die Endanwender schnell Rückmeldung über ihre Anforderungen und können in den Entwicklungsprozess eingreifen und so die Lösung aktiv mitgestalten. In einen klassischen Ansatz würden die Anwender erst sehr spät die Ergebnisse sehen. Änderungen, die auch die Datenbasis betreffen, würden somit sehr zeit- und ressourcenintensiv werden

Über den Autor

Arne Rossmann

Kommentar hinterlassen

Ihre E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind mit einem * gekennzeichnet.