Big Data: Vorteile datenfokussierter Entscheidungen für Unternehmen

Varonis hat im vergangenen Jahr ein Whitepaper mit dem Titel „Mastering the Information Explosion“ veröffentlicht. Darin wird untersucht, wie schnell Informationsmengen wachsen und wie sich die Volumenzunahme durch neue Formen der Zusammenarbeit in Firmen noch beschleunigt. Es wird auch gezeigt, dass manuelle Methoden, um Daten zu verwalten und zu schützen, unzureichend sind. Das Unternehmen vertritt in dem Papier den Standpunkt, dass es für ein effektives Datenhandling nötig ist, sich die Bedeutung von Metadaten durch intelligente Automatisierung zunutze zu machen.

Zwölf Monate später sagen Industrieexperten, dass die gleiche Art von Automatisierung für mehr als nur gutes Handling und Management nötig ist. Um sich die Macht von „Big Data“ zunutze zu machen, müssten Organisationen Analysen durchführen und Aktivitätsmuster herausfinden, wie und wann diese enormen Datenmengen benutzt werden, wer sie verwendet, in welcher Reihenfolge sie aufgerufen werden und was sie beinhalten. In seinem Bericht „Big Data is Only the Beginning“ stellt Gartner fest: „Extreme Herausforderungen bei der Informationsverwaltung werden die Schwierigkeiten beim Informationsaustausch verschärfen und die Forderung nach einer übergreifenden Metadatenverwaltung in Unternehmen schüren.“

Was bedeutet es, sich die Datenflut zunutze zu machen?


Arne Jacobsen, Autor dieses Gastbeitrags für ZDNet, ist Director Deutschland, Österreich und Schweiz beim Data-Governance-Spezialist Varonis Systems (Bild: Varonis).

Die Analytik großer Datenbestände hat bereits ganze Branchen auf den Kopf gestellt. Zum Beispiel hat das High Frequency Trading( HTF), der Hochfrequenzhandel, die Investitionsdynamik von Institutionen völlig verändert. Im HFT werden Handelstransaktionen innerhalb von Mikrosekunden auf der Grundlage riesiger Informationsmengen durchgeführt, die binnen Sekunden nach ihrem Eintreffen verarbeitet werden.

Inzwischen laufen um die 70 Prozent aller Handelsaktivitäten als HFT ab, das jetzt für viele Firmen von entscheidender Bedeutung ist. HFT ist mittlerweile hocheffektiv geworden und Behörden haben Taktiken ermittelt, die eingesetzt werden könnten, um einen unlauteren Vorteil zu erlangen. Und es wird über Erkenntnisse der Aufsichjtsbehörden SEC und CFTC diskutiert, dass HFT während des „Flash Crash“ am 6. Mai 2010 zur Volatilität beigetragen habe. Unabhängig davon, ob ein Zusammenhang besteht, lohnt es sich zu bedenken, dass die Analysen großer Datenmengen, wenn man sie in falscher Weise nutzt, zu einer Welle von schnell getroffenen, falschen Entscheidungen führen können.

Eine kurze Websuche bezüglich „Big Data Analysis“ ergibt fast drei Millionen Resultate mit Links auf Artikel, die den potenziellen und gegenwärtigen Erfolg des Ansatzes auf vielen Gebieten und Ebenen diskutieren – von der Astrophysik über das Gesundheit- und Finanzwesen oder die Öffentliche Ordnung bis hin zum Einzelhandel. Unter Führungskräften ist viel Begeisterung dafür zu spüren.

Außerdem fordern sie mit einer gewissen Dringlichkeit, die Technologie zu nutzen, um die Wettbewerbsfähigkeit ihrer Organisation sicherzustellen: In Gartners Executive Advisory: CEO and Senior Executive Survey, 2011; Detail Report schildern die Autoren, dass „datenbasierte Entscheidungsfindung“ von leitenden Mitarbeitern als der Beitrag der Technologie gesehen wird, der dem Unternehmen den größten strategischen Wert bringt.

Analyse von großen Datenbeständen und strukturierte Daten

Die Analyse großer Datenbestände hat sich bisher meist auf gespeicherte Informationen konzentriert, für die es viele Metadaten zu analysieren gibt. Hierzu gehören beispielsweise Websites mit ausgedehnten Protokollaktivitäten und strukturierte Datensammlungen (Datenbanken), wo Transaktionen leicht aufzuzeichnen und zu analysieren sind. In Situationen, in denen Metadaten verfügbar sind, betrifft die Herausforderung in erster Linie Volumen und Technik: Die Frage ist, wie man große Informationsmengen schnell genug verarbeitet und effektiv analysiert, um Annahmen zu überprüfen, Fragen schnell zu beantworten, Veränderungen zu erkennen und Muster zu verstehen.

Gartner führt jedoch aus, dass „Geschäftsleute und Technologen feststellen, dass ein noch größerer potenzieller Wert darin liegt, andere Arten von Daten auszuwerten, sowohl solche, die es momentan im Unternehmen gibt, als auch einige neue Arten von Daten. Viele Organisationen haben Daten über Jahre aufbewahrt und niemals versucht, sie zu analysieren oder nach Mustern zu suchen, einfach weil das Verlangen in der Geschäftswelt danach nicht vorhanden war.“

Beispiele für solche Daten sind Tabellen, Präsentationen, Bilder, Audiodateien, Videodateien, Entwürfe und Zeichnungen. Sie liegen meist in unstrukturierten Datensammlungen vor. In unstrukturierten Datenlagern gibt es oft nicht viele Metadaten zu analysieren. Gewöhnlich werden keine Aktivitäten aufgezeichnet, es gibt keine eindeutige Verbindung zu den Urhebern und Eigentümern der Daten und kein Verzeichnis darüber, was in den Daten enthalten ist. Ironischerweise verhält es sich tatsächlich so mit den zahlenmäßig meisten und vom Volumen her größten Datenbeständen: Verschiedene Untersuchungen zeigen, dass über 80 Prozent der Daten in Unternehmen in unstrukturierten Datensammlungen liegen.

Unstrukturierte Daten für die Analyse großer Datenmengen instrumentalisieren

Im Whitepaper „Mastering the Information Explosion“ vergleicht Varonis die digitale Revolution mit der Transportrevolution: So wie man bei mehr Autos und Flugzeugen mehr Ampeln und Luftfahrtkontrollen benötigte, braucht man auch bei mehr Datenbeständen und höherer Datenverflechtung automatisierte Kontrollen um sicherzustellen, dass Daten korrekt zugänglich sind und korrekt verwendet werden.

Ohne automatisierte Kontrollen hat es sich für Organisationen als unmöglich erwiesen, die Eigentümer von Daten zu identifizieren und ihre Aktivitäten aufzuzeichnen, Berechtigungen zu überprüfen, Rechte zu verwalten und das Prinzip der geringsten Rechte anzuwenden, den Datenzugang zu kontrollieren, Missbrauch zu erkennen und veraltete Daten zu identifizieren. Automatisierte Datenhandlingkontrollen funktionieren jetzt wie Verkehrsampeln in einer großen Stadt – wenn man sie ausschaltet, muss jeder sehr langsam fahren – oder es kommt zu Zusammenstößen.

Die Parallelen gehen noch weiter: Die Bewegungen von Kraftfahrzeugen und Flugzeugen werden maßstabsgetreu aufgezeichnet und analysiert. So können wir unsere Autos mit Echtzeit-GPS steuern, Gesetzeshüter können Raser durch einen Blick auf automatisierte Mautaufzeichnungen schnappen, und die Flugverkehrsleitung kann den Luftraum besser nutzen. Auch die Fahrzeuge selbst sind ausgeklügelter: Sie liefern mehr Informationen über den Zustand all ihrer Teile und über ihren Gesamtzustand, so dass Sicherheit und Effizienz zunehmen.

In Pattern-Based Strategy: Getting Value From Big Data schreibt Gartner: „Unternehmensleiter räumen der Technologie hohe Priorität ein, wenn es darum geht, der Organisation wichtige Daten zu liefern, so dass bessere Entscheidungen auf der Grundlage von Tatsachen anstatt aufgrund von Vermutungen getroffen werden können.“

So wie jetzt eine Metadatentechnologie für Organisationen nötig ist, um Daten, die in unstrukturierten und halb strukturierten Datensammlungen liegen zu verwalten, werden Organisationen auch sehen, dass die Analyse von Metadaten unbedingt notwendig ist. Nur so ist es möglich, den maximalen Nutzen aus den Daten zu ziehen, ihren Wert einzuschätzen, Datensätze zu identifizieren, eine Verbindung zu Nutzern, Projekten und Eigentümern herzustellen, nachzuvollziehen, wie und wann diese ihre Daten nutzen, wo sie gespeichert sein sollten und wie man sie nutzen kann, um effektiver zusammenzuarbeiten.

Diese Metadatenintelligenz und dieser Informationsnutzen lassen sich verwenden, um Geschäftsvorgänge in viele Richtungen voranzutreiben. Damit können etwa Arbeitsabläufe verbessert, verschiedenartige Teams zusammengeschaltet und neue Aktivitätsmuster entdeckt werden.

Die gute Nachricht ist, dass Organisationen nicht ihre Datenspeicherplattformen oder ihre Arbeitsabläufe umstellen müssen, um sich diese Intelligenz zunutze zu machen. Sie müssen jedoch die bestehenden Datenspeicher, die sie bereits nutzen, instrumentalisieren und die Metadatentechnologie nutzen, um diese Metadaten zu normalisieren, zusammenzuschließen und zu analysieren.

AUTOR

Arne Jacobsen ...

ist Director Deutschland, Österreich, Schweiz beim Data-Governance-Spezialist Varonis Systems. Das Unternehmen bietet Lösungen für die Automatisierung der Datenverwaltung in Firmen an.

ZDNet.de Redaktion

Recent Posts

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

6 Stunden ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

10 Stunden ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

11 Stunden ago

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

11 Stunden ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

12 Stunden ago

Netzwerk-Portfolio für das KI-Zeitalter

Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…

14 Stunden ago