„Bleibt alles anders“, sang Herbert Grönemeyer vor fast 15 Jahren. Damals schüttelten viele über solch eine Gehirnverrenkung, die auch nach mehrmaligen hinhören nebulös wirkt, den Kopf. Inzwischen kann man das Oxymoron sehr treffend auf die neue Situation der Unternehmen nach dem Zusammenbruch des Finanzmarkts im September 2009 anwenden. „Bleibt alles anders“ beschreibt die Tatsache, dass sich die Rahmenbedingungen für die Unternehmen völlig geändert haben: Der Markt ist unberechenbar geworden und verlangt ein hohes Maß an Agilität.
Wer sich schnell an neue Gegebenheiten anpassen kann gewinnt, wer sich in Sicherheit wiegt verliert. „Früher haben Manager aus dem Bauch entschieden, wohin die Reise geht“, sagt Wolfgang Martin, Analyst und Inhaber Inhaber des Beratungshauses Wolfgang Martin Team. „Das hat auch immer funktioniert, weil der Markt stabil und einigermaßen berechenbar war.“ Diese Zeiten seien nun vorbei. Jetzt wissen die Manager heute nicht mehr, was morgen sein wird. Und wenn sie es doch zu wissen glauben, nützt ihnen das nichts: Belastbare Zahlen sind gefordert – ob von internen oder externen Stellen. Erfahrungswissen zählt nicht mehr. Entscheidend sind Informationen geworden.
New Normal und die Datenflut
In dieser Zeit des „New Normal“ rücken die Unternehmensdaten in den Vordergrund. Wie bekommt man die richtigen Informationen zum richtigen Zeitpunkt? Zugegeben: Diese Anforderung ist nicht neu. Das Ziel, über Daten in Echtzeit zu verfügen, gab es auch schon vor der Krise. Im Rückblick erscheint dieses Ziel allerdings eher als ein Nice-to-Have. „Die Unternehmen konnten das immer noch mit Erfahrungswissen überspielen“, sagt Martin.
Jetzt ist Echtzeit ein Must-Have. Die digitale Revolution fordert es geradezu. Mobile Anwendungen sowie iPhone und iPad bringen den Anspruch mit sich, zu jeder Zeit und an jedem Ort der Welt, die richtigen Informationen abrufen zu können. Die sozialen Medien haben die Datenflut noch einmal explodieren lassen. In den Unternehmen sind inzwischen 80 Prozent aller Daten unstrukturiert. 2010 haben die Menschen weltweit ein Zettabyte an Daten produziert. Das bedeutet: Eine gängige Festplatte für den Hausgebrauch hat mittlerweile ein Terabyte. Ein Zettabyte entspricht einer Milliarde solcher Festplatten.
Die Folge aus dieser Entwicklung zeigt sich nach Meinung führender Analysten in der starken Nachfrage beim Datenmanagement. Das Bedürfnis, Entwicklungen zu antizipieren wächst stetig. „Die Unternehmen haben gemerkt, dass ihre Business Intelligence nicht richtig funktioniert“, stellt Tim Grosser, Analyst bei BARC fest. „Sie haben erkannt, dass sie auf schlechtere Zeiten besser vorbereitet sein müssen. Dadurch wachsen die Anforderungen an die IT und die Fachbereiche.“ Das macht Druck auf die Daten. „Die Unternehmen wollen ihre Prozesse immer besser steuern“, sagt auch Frank Niemann, Director Software Markets bei Pierre Audoin Consultants (PAC). „Sie müssen immer mehr Daten verfügbar machen, quer durch alle Anwendungen.“ Compliance-Anforderungen erhöhen den Druck auf die Unternehmen zusätzlich.
Innovationsschub
Das Datenmanagement-Problem ist vielschichtig. Neben der viel zitierten Datenqualität gehören hierzu auch die Datenintegration und die Datenbanken. Gerade bei letzterem zeigt sich der Markt sehr beweglich. Hier spielen die großen Anbieter wie SAP, Oracle oder IBM nicht allein die erste Geige. Auch andere Anbieter wie Teradata, Greenplum, Vertica, Vectorwise oder der deutsche Hersteller Exasol machen gute Geschäfte. Der Grund: Die analytischen Datenbanken. Ihr Vorteil besteht vor allem in der Geschwindigkeit beim Lesen.
Analytische Datenbanken sind im Gegensatz zu relationalen nicht zeilen- sondern spaltenorientiert. Die Tabelle als Basis für relationale Datenbanken ist gekippt. Das bringt mehr Perfomance, Informationen sind schneller verfügbar. Einen Geschwindigkeitsschub haben auch die In-Memory-Technologie und die verbesserte Kommunikation zwischen Speicher und Datenbank gebracht. „Hier ist wirklich ein Durchbruch gelungen, um mit den riesigen Datenmengen umgehen zu können“, sagt Analyst Martin. Etwa wirklich Neues sind die analytischen Datenbanken allerdings nicht: Exasol hat bereits im Jahr 2000 eine hochperformante Datenbank auf den Markt gebracht. Damals wollte das aber kaum einer haben. Der Bedarf war einfach nicht da.
Schlechte Datenqualität
Datenmanagement beschäftigt nicht allein die großen Unternehmen. Auch der Mittelstand hat inzwischen erkannt, dass zur Steuerung des Geschäfts Business Intelligence notwendig ist. Was beim Mittelstand im Zuge von BI-Projekten besonders offensichtlich wird, ist der Grad der Datenqualität. „Je mehr man BI vorantreibt, desto sichtbarer wird das Datenqualitäts-Problem“, erklärt BARC-Analyst Grosser. Und das ist weit verbreitet. „Bei 90 Prozent aller Unternehmen ist die Datenqualität schlecht“, behauptet Martin.
Man könne dies an der Prozessqualität erkennen. Wenn beispielsweise in einem Webshop die Preise für ein Produkt nicht einheitlich sind, wirkt sich das direkt auf den Umsatz aus. Was wie eine Selbstverständlichkeit aussieht, ist oftmals bittere Realität. An geeigneten Werkzeugen zur Verbesserung der Datenqualität mangelt es nicht. Vielmehr ist bei der Frage, welche Zahl die richtige ist noch der alte Fingerzeig zu sehen: Die Fachabteilung schiebt die Verantwortung zur IT und die IT sieht die Verantwortung bei der Fachabteilung. Hier muss Klarheit herrschen. „Nur die Fachabteilung kann die Qualität der Daten beurteilen und die IT muss dafür sorgen, dass die Zahlen stimmen“, fordert Martin.
Datenmanagement ist ein Programm
Mittlerweile sind 80 Prozent der Daten im Unternehmen unstrukturiert und sind zu einer wichtigen Informationsquelle geworden. Sie verfügbar zu machen, erfordert eine Governance, da sie über das ganze Unternehmen verteilt sind. Die Basis für Datenmanagement ist ein einheitliches Businessvokabular. So banal es klingen mag: Ein Umsatz ist ein Umsatz und wenn die verschiedenen Abteilungen darunter etwas Unterschiedliches verstehen, dann muss das im Businessvokabular dokumentiert und für jeden nachvollziehbar sein. „Das ist ein Schritt in den Singel-Point-of-Truth“, sagt Martin. Bei einem Report lässt sich dann mit einem Klick die Definition des entsprechenden Begriffs anzeigen.
Daraus folgt das Metadatenmanagement. Daten über Daten beschreiben das Alter, die Historie der Änderungen und die Version. Letzteres ist wichtig, wenn Wirtschaftsprüfer nachvollziehen müssen, wie der Begriff in der Vergangenheit benutzt wurde. Für Compliance-Anforderungen ist eine Datenklassifikation nötig. Dort wird festgelegt, welche Daten öffentlich, welche vertraulich, streng vertraulich und welche geheim sind. Damit lassen sich beispielsweise Datenschutzvorschriften ideal umsetzen.
„Datenmanagement ist ganzheitlich und im strengen Sinne kein Projekt“, sagt Martin. „Es ist ein Programm.“ Und zwar ein Programm ohne Sendeschluss, denn die nächste Krise steht schon vor der Tür. Und damit bleibt auch künftig alles anders.
Ausgeklügelte Phishing-Kampagne verwendet eine weiterentwickelte Version der Rhadamanthys-Stealer-Malware.
Die EU-Kommission kritisiert die Verknüpfung von Facebook und dem hauseigenen Online-Kleinanzeigendienst. Sie sieht darin einen…
Fast zwei Drittel halten jedoch eine Umsetzung aller Vorgaben von NIS 2 bis Jahresende für…
Mit dem Dekryptor von Bitdefender können Opfer von Attacken mit der Shrinklocker-Ransomware Dateien wiederherstellen.
In der Vorweihnachtszeit ist vor allem Malvertising auf dem Vormarsch. Cyberkriminelle locken Nutzer über schädliche…
Dazu trägt unter der Infostealer Lumma-Stealer bei. Hierzulande dominiert der Infostealer Formbook die Malware-Landschaft.