Um sich auf dem Markt zu behaupten und eine nachhaltige, resiliente Marktposition zu erlangen, ist es für Unternehmen zunehmend erforderlich, alle verfügbaren Daten zu nutzen, um die Entscheidungsfindung zu optimieren. Fortschritte beim Erreichen dieses Ziels, können nur auf künstliche Intelligenz (KI) und Datenkompetenz basieren. CIOs auf der ganzen Welt versuchen, das Problem zu lösen, wenn sie Projekte zur digitalen Umgestaltung starten. Zweiundsiebzig Prozent von ihnen, die für den aktuellen MIT Technology Review Insights-Bericht befragt wurden „CIO vision 2025 Bridging the gap between BI and AI“ befragt wurden, betonen, dass Datenmanagement-Probleme ihren zukünftigen Erfolg bei KI gefährden werden. Daher wird die Mehrheit der befragten Unternehmen in den nächsten drei Jahren in die Vereinheitlichung ihrer Datenplattform für Analytik und KI investieren, um die Einführung von KI voranzutreiben. Mehr als zwei Drittel der Befragten (68 %) – und fast alle CIOs (99 %) – halten dies für entscheidend für den Erfolg ihrer Datenstrategie.
Wenn also die Einführung von KI so wichtig ist, um Data Maturity und somit das Wachstum eines Unternehmens zu stärken, warum tun sich dann viele Unternehmen immer noch schwer? In diesem Beitrag gehe ich darauf ein, was die “Data Maturity Curve” ist und wie Unternehmen der Kurve voraus sein können, um wettbewerbsfähig zu bleiben.
Lassen Sie uns zunächst einen Schritt zurückgehen. Was verstehen wir eigentlich unter „Data Maturity“? Wenn wir über Data Maturity sprechen, geht es darum, wie gut eine Organisation ihre Daten verwaltet, analysiert und für fortgeschrittene Prognosen verwendet. Ziel ist also wörtlich, einen reifen Umgang mit Daten zu erreichen und damit zur Effizienz des Unternehmens beizutragen. Mit modernen Business Intelligence (BI)-Tools soll dabei nicht nur die Vergangenheit anhand von Data Analytics aufgearbeitet, sondern auch eine Prognose für künftige Entwicklungen getroffen werden.
Der Prozess hin zur Datenreife lässt sich in verschiedene Stufen einteilen. Sie zeigen auf, wie gut Daten in einem Unternehmen bereits jetzt verwaltet und für verschiedene Geschäftsziele verwendet werden. Bei Unternehmen mit geringer Datenreife wird das Potenzial der Daten nicht ausgeschöpft, denn sie werden dann nur oberflächlich betrachtet. Es fehlt an einem Bewusstsein für die Möglichkeiten der integrierten Datennutzung, weshalb Daten nicht umfassend verwendet und Prozesse nicht optimiert werden. Unter Umständen liegen die Daten in voneinander getrennten Systemen vor, wodurch sie nicht für eine übergreifende Datenanalyse verwendet werden können. Datenberichte werden zu oft noch manuell erstellt, wodurch effiziente und innovativen Prognosen nicht möglich sind. Unternehmen, die einen fortschrittlichen Umgang mit ihren Daten etabliert haben, nutzen KI und Data Science-Verfahren, um ihre Prozesse zu optimieren und Prognosen für verschiedene Szenarien zu erstellen. Durch die intelligente Nutzung der Daten stehen diesen Unternehmen wertvolle Informationen zur Verfügung, die wesentlich zum Erreichen der Geschäftsziele beitragen.
Die „Data Maturity Curve“ visualisiert den Prozess hin zu einem reifen Umgang mit Daten. Mit der Datenreife wächst exponentiell der Wettbewerbsvorteil, der jeder Organisation durch fortgeschrittene Verwendung ihrer Daten entsteht. Die Kurve unterteilt den Status der Datenreife in die Analyse der Vergangenheit, die Erstellung von fundierten Prognosen, bis hin zu automatisierten Handlungsempfehlungen und Entscheidungen. Von deskriptiven über prädiktive bis hin zu kognitiven Verfahren hängt es von individuellen Anforderungen ab, bei welcher Phase einzelne Unternehmen anfangen müssen, an ihrer Datenreife zu arbeiten.
Die meisten Unternehmen befinden sich auf beiden Seiten der Kurve und unterhalten zwei unterschiedliche Stacks und Silos. Sie haben immer noch Mühe, in großem Maßstab erfolgreich zu sein. Ein wesentlicher Faktor ist die technologische Kluft zwischen zwei inkompatiblen Architekturen, die ihnen im Weg steht. Auf der einen Seite stehen Data Warehouses und BI-Tools für Analysten, auf der anderen Seite Data Lakes und KI-Technologien für Data Scientists. Das Ergebnis sind unzusammenhängende und doppelte Datensilos, inkompatible Sicherheits- und Governance-Modelle und eine unvollständige Unterstützung von Anwendungsfällen.
Das Erreichen der Datenreife liegt in der Einführung einer Data Lakehouse-Architektur, die die Möglichkeiten großer Unternehmen sowie kleiner und mittlerer Unternehmen auf dem Markt erheblich verbessern kann. Eine Lakehouse-Architektur kombiniert die besten Eigenschaften von Data Warehouses und Data Lakes, um eine einzige Lösung für alle wichtigen Daten-Workloads zu bieten und Anwendungsfälle von Streaming Analytics bis hin zu BI, Data Science und AI zu unterstützen. Die Brücke ist geschlagen.
Einer der wichtigsten Faktoren für das Erreichen von Datenreife ist nicht nur die Investition in die richtige Datenarchitektur, sondern auch der Aufbau einer soliden Datenkultur. Dies kann erreicht werden, indem die drei wichtigsten Maßnahmen berücksichtigt werden: Menschen, Prozesse und Technologie. Aus der Sicht der Mitarbeiter muss jede Person im Unternehmen zur richtigen Zeit den richtigen Zugang zu den richtigen Daten haben. Außerdem lernen mehr und mehr Mitarbeitende, wie sie mit Daten arbeiten und diese für sich nutzen können. Aus der Prozessperspektive erfordert dies eine Überprüfung der internen Prozesse und Governance-Modelle. Darüber hinaus müssen Unternehmen Rahmenbedingungen schaffen, die eine einheitliche Anwendung von Prinzipien ermöglichen, bei denen Daten eine zentrale Rolle bei der Umsetzung dieser Prozesse spielen. Die Mitarbeiter müssen die Möglichkeit haben, Feedback zu geben, um die Art und Weise, wie neue Daten erstellt und gesammelt werden, zu verbessern. Der letzte Teil sollte sich auf die Technologie konzentrieren. Bei dieser Technologie sollte es sich um eine einfache, offene und zukunftssichere Plattform handeln, wie ein Lakehouse, die es jedem in der Organisation ermöglicht, Daten so zu nutzen, wie es das Projekt erfordert.
Das oben beschriebene Reifegradmodell ist nur ein Aspekt, warum Unternehmen ein Data Lakehouse brauchen. Der Großteil der Unternehmen befindet sich auf beiden Seiten der Kurve mit massiven Integrationsproblemen, was dazu führt, dass sie in Silos enden. Entscheidend für die Optimierung der Datenreife ist die Konvergenz von Datenanalyse und ML. Tech-Unternehmen wie Amazon, Google, Facebook, Netflix, Apple und Microsoft, aber auch Nicht-Tech-Unternehmen wie Rolls Royce bis hin zu Einzelhändlern wie Wallgreens haben ihre Innovationen maßgeblich durch Datenanalyse und KI vorangetrieben. Die Möglichkeiten, welche sich aus dem fortschrittlichen Einsatz von Daten ergeben, werden inzwischen für ein breiteres Spektrum an Unternehmen und Branchen immer entscheidender für den nachhaltigen Markterfolg.
Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.
Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…