Die Marktsituation ist volatil und wird immer komplexer. Es ist zusehends schwierig, verlässliche Business-Entscheidungen zu treffen. Im Kern ging es um die Herausforderung, eine stabile Basis für strategische Weichenstellungen zu finden, statt sich rein auf das sprichwörtliche Bauchgefühl zu verlassen. Spätestens seit Anbruch der vierten industriellen Revolution boten sich hierfür die eigenen Daten an, über die Unternehmen bereits verfügen und in exponentiell wachsendem Umfang neu generieren. Stichwort: Datenbasiert entscheiden. Hierfür ist es wichtig, die vorhandenen Informationen entsprechend aufzubereiten, damit sie zu einem soliden Fundament für unternehmerisches Handeln werden. Und exakt dieses Gebiet ist die Achillesferse vieler Unternehmen.
Der Mehrheit der Unternehmen mangelt es am Know-How zur Datenaufbereitung
Zu diesem Ergebnis kam eine Studie des Business Application Research Center (BARC), für die über 695 Business-Intelligence-Experten aus verschiedenen Branchen weltweit befragt wurden. 53 Prozent gaben an, dass auf Seiten der unternehmerischen Entscheidungsträger zu wenig Wissen vorhanden ist, welche Daten für anstehende Entscheidungen überhaupt benötigt werden und dementsprechend aufbereitet werden müssen. Unter den Befragten in der DACH-Region sind es sogar 58 Prozent. Dies ist mit Abstand die größte Herausforderung, die es in diesem Bereich gibt.
Wenn sich nun Unternehmen dazu entschließen, datenbasiert zu entscheiden, dann ist es vor diesem Hintergrund also von entscheidender Bedeutung, dass die Business-Stakeholder klar definieren, welche Daten sie konkret benötigen. Dies sollte im Rahmen der Definition eines passenden Prozesses als eigener Workflow unbedingt abgebildet sein. Denn so erhalten der Data Analyst und der Data Engineer eine solide Arbeitsgrundlage und wissen, welche Daten sie sammeln und aufbereiten sollen. Sind die zu bearbeitenden Datensätze sehr umfangreich, empfiehlt es sich, vorher einen Data Strategist sowie einen Data Architect mit einzubinden, die in Abstimmung mit den Business-Stakeholdern den eigentlichen Sammlungs- und Aufbereitungsprozess planen und vorstrukturieren.
Klassische Daten mit Informationen zum Kundenverhalten kombinieren
Die Schwierigkeit bei der Auswahl der benötigten Daten beseht darin, die klassischen Informationen – im Marketing beispielsweise die CRM- und Transaktionsdaten – mit den Angaben zu Verhaltensweisen, Einstellungen und Vorlieben des Kunden zusammenzubringen, etwa: Wie steht der Kunde der Marke gegenüber? Die Kombination dieser beiden Welten ist komplex, vor allem, wenn es nicht nur um Bestandskunden geht, sondern auch um potenzielle Neukunden. Sinnvoll ist daher, eine Art Datenhaus zu bauen, um Grundsatzfragen zu beantworten: Was ist der Status Quo? Welche Zielsetzung gibt es? Und: Welche Daten sind nötig, um Erfolge messen zu können?
Der erste Schritt, um eine datengetriebene Erfolgsmessung aufzusetzen, besteht in der Erstellung eines KPI-Frameworks. Darin werden wichtige Kennzahlen wie „grow revenue“ und „reduce cost“ auf die einzelnen Abteilungen heruntergebrochen. Im Anschluss daran lässt sich der Erfolg von Kampagnen messen – zum Beispiel der Versand einer E-Mail an alle Kunden, die ein Produkt im Warenkorb vergessen haben. Anhand der Reaktionen der Kunden lässt sich anschließend der konkrete Output der Aktion ermitteln und in Relation zu den Kosten setzen.
Den Business-Bezug nicht aus den Augen verlieren, Silo-Denken abschaffen
In allen Phasen der Datenaufbereitung sollten die Verantwortlichen den Leitsatz „Business drives IT“ nicht aus den Augen verlieren. Daten sollten also immer mit Blick auf konkrete Fragestellungen hin aufbereitet werden – etwa: Was ist der Ursache für eine bestimmte Geschäftsentwicklung? Dabei ist es besonders wichtig, bei der Analyse der Daten nicht in Silos zu denken, sondern auf den Bezug der Daten zueinander zu achten. Mit einem einfachen statistischen Modell, der sogenannten Korrelationsanalyse, lassen sich solche Zusammenhänge aus großen Mengen an Kundendaten ableiten. Im Marketing können das zum Beispiel Informationen über häufig besuchte Seiten und angesehene Produkte sein. Die Korrelationsanalyse setzt allerdings nicht nur Engineering-Erfahrung, sondern auch ein fundiertes Verständnis des Business-Kontexts voraus. Data Scientists und Business-Stakeholder sollten daher nicht losgelöst voneinander agieren.
Je früher das Business eingebunden wird, desto effektiver ist der Datenaufbereitungsprozess. Im Idealfall arbeiten IT-Abteilung und Business-Stakeholder in Tandem-Teams zusammen. Wichtig sind dabei regelmäßige Reviews sowie die Einhaltung des Vier-Augen-Prinzips. Denn in Daten kann schon ein falsch gesetztes Komma fatale Auswirkungen haben – zum Beispiel falsche Prognosen nach sich ziehen. Zudem sollte das Tandem-Team iterativ nach dem Prinzip „Test & Learn“ arbeiten. Das bedeutet auch, Fehler nicht als etwas Negatives zu sehen, sondern als Grundlage, um daraus zu lernen.
Den Kunden verstehen
Von besonderer Bedeutung ist zudem, dass die Datenverantwortlichen ein fundiertes Verständnis von den Kunden und der Customer Journey haben. Dabei hilft ein Kunden-zentriertes Vorgehen, indem beispielsweise bei jeder Marketing-Maßnahme über ein Mapping der entsprechenden Datenquellen vorab getestet wird, ob die Aktion bei den Kunden überhaupt erwünscht ist. Erst danach ist es sinnvoll, sich mit den entsprechenden Daten zu beschäftigen.
Oliver Rozić, Vice President Product Engineering bei Sage, kommentiert: „Eine effektive Datenaufbereitung ist mit erheblichem Aufwand verbunden. Doch er lohnt sich. Nicht nur große Unternehmen können das Potenzial ihrer Daten gewinnbringend nutzen. Auch kleinen und mittleren Firmen bietet die Datenanalyse die nötige Agilität, um schneller auf Trends zu reagieren und die richtigen Produkte auf den Markt zu bringen. Auf diese Weise können sie sich auch ohne großes Budget Wettbewerbsvorteile verschaffen.“
Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.
Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…