Das Data Warehouse kommt in die Mottenkiste

Business Intelligence wird in acht Jahren nahezu unbegrenzte Analysemöglichkeiten eröffnen. Über Mobile BI wird dann niemand mehr sprechen, das ist eigentlich heute schon Schnee von gestern. Mark Zimmermann von Infomotion blickt für ZDNet in die Zukunft.

Die Business-Intelligence-Welt hat ein neues Schlagwort: Mobile BI. Man fragt sich jedoch warum. Denn bereits heutzutage ist die mobile Verfügbarkeit von Informationen längst keine Innovation mehr, sondern eine Selbstverständlichkeit. Letztlich geht es darum, dass BI-Analysen von überall auf mobilen Endgeräten abgerufen werden können. Schon heute lassen sich Informationen auf alle nur erdenklichen Darstellungsarten und auf fast allen verfügbaren Medien zeigen.

Mark Zimmermann, der Autor dieses Gastbeitrags für ZDNet, ist Geschäftsführer des Frankfurter Beratungsunternehmens Infomotion (Bild: Infomotion).

Die eigentliche Revolution in Sachen BI sieht anders aus. Data Warehouses werden in Zukunft durch Echtzeit-BI-Datenplattformen abgelöst, welche sich durch den Einfluss der Endanwender evolutionär weiterentwickeln. Diese durchgängigen und ganzheitlichen Real-Time-Hubs bedienen sich eines zentralen Metadatenmanagements sowie eines automatisierten Historienspeichers und erfordern daher nur einen sehr geringen programmatischen Aufwand.

So werden aus Fachanwendern künftig Teilzeit-BI-Modeller und aus BI-Entwicklern Metadatendesigner. Die Weiterentwicklung der BI-Werkzeuge wird dazu führen, dass Zukunftsanalysen oder Vorausberechnungen zum Standard gehören. Es wird kaum noch Restriktionen geben, welche Zahlen sich zueinander in Relation setzen lassen.

Inhaltlich ist dann alles möglich. Neben neuen Chartformen und einer größeren Dynamik in der Darstellung, wird vor allem die Vereinfachung analytischer Vorgänge stark vorangeschritten sein. Auch Data Mining wird dann auf Basis simpler Fragen ohne Modellbildung stattfinden.

Schritt für Schritt von Reporting-Tools zu In-Memory-Computing

Diese zukünftigen Entwicklungen lassen sich aus dem aktuellen Status Quo und der technischen BI-Vergangenheit ablesen. Blickt man auf die Anfänge von BI vor zirka fünfzehn Jahren, zieht sich die konsequente Weiterentwicklung der Technik und der Analysemöglichkeiten wie ein roter Faden durch die Jahre: Suchten Unternehmen zunächst nach Möglichkeiten, heterogene Datenquellen zu bändigen, um fachliche Abfragen durchzuführen, so sind BI-Plattformen heute vom Anzapfen der Datenquelle bis hin zum Report stark durchgängig und ganzheitlich aufgebaut. Metadaten werden strukturiert gespeichert und zur Qualitätssicherung eingesetzt. Die Infrastrukturen sind mitgewachsen und auf große Datenmengen und intensive Analysen ausgelegt.

Ende des letzten Jahrtausends wurden BI-Lösungen erstmals um Werkzeuge wie Standard Reporting Tools und Möglichkeiten zu Ad-hoc-Abfragen ergänzt. Die Visualisierung wurde damals erweitert und dynamisiert; der Grad der Endbenutzerorientierung deutlich angehoben.

Im Bereich der Datenbewirtschaftung reiften Anwendungen zur Unterstützung von Entwicklung, Dokumentation und Wartung des Ladeprozesses (ETL-Werkzeuge). Heute ist auch die notwendige Performance der IT-Lösungen verfügbar, um komplexe Analysen durchzuführen. Dies wird durch neue Ideen für den Hardwareeinsatz ermöglicht: Beispielsweise werden beim In-Memory-Computing große Teile der Daten oder auch der gesamte Datenbestand in den Hauptspeicher verlagert. Lastintensive Aufgaben werden in die Hardware verschoben und mit Softwarekomponenten gekoppelt; diese so genannten Appliances führen zur deutlichen Beschleunigung von BI-Aufgaben.

Ein weiterer aktueller Ansatz ist die Verteilung der Aufgaben auf verschiedene Knoten, wie das beispielsweise bei Hadoop der Fall ist. Dank solcher Lösungsansätze wird die Bearbeitung beziehungsweise Analyse extrem großer Datenmengen – heute als Big Data bezeichnet – überhaupt erst möglich. Dabei werden diese Technologien mit Methoden kombiniert, die es erlauben, Daten ohne strukturierte Vorbearbeitung integriert zu analysieren. Bereits heute zeichnen sich erste Ansätze virtueller Data Warehouses ab, bei denen die Daten nicht länger materialisiert vorliegen, sondern erst beim Abfragezeitpunkt aus den Quellen zusammengetragen werden.

BI 4.0 wird noch schneller große Datenmengen verarbeiten können

Den Analysten von Gartner zufolge stehen Themen wie Analytics und Business Intelligence auf der Technologie-Agenda von CIOs für das Jahr 2012 ganz oben. Bereits 2011 soll der weltweite Markt für Business Intelligence, Analytics und Performance Management Software (PMS) den Analysten zufolge die 12-Milliarden-Dollar-Grenze überschritten haben.

Aktuelle BI-Technologien werden sich bis 2020 so weiterentwickelt haben, dass sie integrierte Abfragen hoch performant direkt aus den Quellen ermöglichen, da auch sehr große Datenmengen durch dedizierte BI-Architekturen schnell verarbeitet werden können. Appliances und In-Memory-Systematiken sorgen für eine noch schnellere Verarbeitung der Daten bei der Zusammenführung und Analyse.

Neue Vernetzungstechnologien erhöhen die Geschwindigkeiten beim Datentransport, auch beim Zugriff auf heterogene Quellen. Obwohl das Volumen der zu analysierenden Daten deutlich steigt, wird dies durch eine stärkere Selektion in der Quelle und eine deutlich geringere Speicherung von Informationen im BI-System abgefangen.

Metadatenmanagement im Zentrum moderner BI

Zukünftig greift das BI-System anhand zentral gespeicherter Metadaten zur Laufzeit auf verteilte Datenquellen zu und führt diese zusammen; historische Informationen werden automatisiert abgelegt und bereitgestellt. Das bisher notwendige und sehr mühsame Übersetzen der im Rahmen der Analyse gesammelten Informationen in ETL-Prozesse wird entfallen.

Somit ergibt sich ein deutlich verändertes Vorgehen beim Aufbau von BI-Systemen: Auch wenn die anfänglichen Arbeiten beim Projektaufbau gleich bleiben, werden die heute üblichen Wiederholungen (sogenannte Iterationen) zur Erweiterung des Datenbestandes zum Tagesgeschäft der Analysten gehören. Dadurch entwickelt sich der BI-Hub evolutionär und stetig.

Intelligente „BI-Agenten“ erleichtern künftig die Arbeit, weil sie eigenständig entscheiden, an welcher Stelle Daten innerhalb des BI-Systems abgelegt werden müssen, um für Abfragen verfügbar zu sein. Dies ist beispielsweise für die temporale Datenhaltung (auch Historisierung genannt) von Informationen, die Performance-Steigerung (Daten Cache) oder die Verfügbarkeit von Online-Quellen unerlässlich.

Darüber hinaus werden BI-Tools in der Zukunft vollständig in Applikationen und Portale eingebunden sein. Neue Funktionen erleichtern heute schon das Data Mining in sozialen Netzwerken, auch Social Mining genannt. Dabei versuchen Unternehmen mithilfe von BI-Lösungen Informationen, Trends und Stimmungen bei Facebook, Twitter und anderen Netzwerken einzufangen.

Technisch ist hier schon heute sehr viel möglich, jedoch ist es spannend zu beobachten, wie sich Unternehmen zum Thema Datenschutz verhalten werden. Eines ist jedenfalls klar: BI der Zukunft wird inhaltlich völlig neue und wesentlich simplere Analyseoptionen in unglaublich kurzer Abfragezeit für Unternehmen bereithalten. Dabei wird es keine Rolle mehr spielen, mit welchem Endgerät die Informationen abgerufen werden.

AUTOR

Mark Zimmermann...

… ist Geschäftsführer der Infomotion GmbH, eines Beratungsunternehmens für Business-Intelligence-Lösungen, Corporate Performance Management, Data Warehouse und Reporting mit Hauptsitz in Frankfurt am Main. Kunden sind unter anderem Energieversorger, Kapitalanlagegesellschaften, Retail-Banken und Firmen wie die Deutsche Post, Viessmann und Adidas.

Themenseiten: Big Data, Business Intelligence

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

4 Kommentare zu Das Data Warehouse kommt in die Mottenkiste

Kommentar hinzufügen
  • Am 26. September 2012 um 15:45 von MS

    Das klingt in etwa so, als wenn wir alle demnächst, anstelle von Autos mit Verbrennungsmotoren, Elektrofahrzeuge mit durchschnittlich 1000kWH fahren könnten. Und damit es uns noch mehr Freude bereitet, lassen wir gleich noch die ganzen Verkehrsregeln inkl. Ampeln weg. Ich fürchte ich weis wo das hinführt…

  • Am 4. September 2012 um 8:52 von blubblub

    Buzzword Dropping vom feinsten. NoSQL wurde allerdings vergessen, wahrscheinlich weil zu technisch.

    • Am 6. November 2013 um 14:52 von giordano

      Als ich das las, dachte ich, das sei ein Sokal-hoax (siehe unter Sokal-Affäre). Ich befürchte, dass das ernst gemeint war.

  • Am 20. August 2012 um 13:45 von Sven Dahmen

    Die hier skizzierte Entwicklung ist hoch problematisch: hier wird ein (weiterer) hoch relevanter -da entscheidungsunterstützender- Faktor „entfachlicht“. Auf die Probleme bei der Generierung !valider! Modelle mit einer Aufweichung/Verzicht der Modellbildung zu reagieren, mag zwar „trendy“ sein und „die Zahlen sehen ja so schön aus“, der Nutzen bleibt aber sicher auf der Strecke.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *