Datenqualität ist in Unternehmen wahrscheinlich schon seit der ersten Kundenliste, die überhaupt jemals erstellt wurde, ein Thema – aber eben ein ungeliebtes. Daran hat in der Vergangenheit auch nichts geändert, dass Anbieter von Software zur Erhöhung der Datenqualität fleißig die Werbetrommel für ihre Produkte gerührt haben. Aber das scheint sich nun zu ändern.

„In unseren vergangenen drei globalen Jahresumfragen zur Nutzung von Business Intelligence war Abfragegeschwindigkeit das am häufigsten genannte Problem unter IT-Nutzern“, erklärt Melanie Mack, Head of Market Research beim Business Application Research Center (BARC) in Würzburg. Während in der Vergangenheit Anbieter schlechte Datenqualität routinemäßig für gescheiterte Implementierungen verantwortlich gemacht hätten, werde diesem Problem 2010 zum ersten Mal von den Nutzern die gleiche Bedeutung beigemessen: Fast jeder Fünfte der Befragten gab an, dass schlechte Datenqualität ein Problem ist. Damit wurde der Aspekt häufiger genannt als eien mangelnde Abfrageperformance.

Datenqualität drückt sich beispielsweise in übereinstimmenden Produktbezeichnungen ebenso aus wie in Kundenadressen, die den gesetzlichen Bestimmungen entsprechen. Davon betroffen sind CRM-Systeme ebenso wie ERP-Anwendungen, denn Buchungs- und Stammdaten können ebenso widersprüchlich, uneinheitlich und lückenhaft sein wie Adressdaten im CRM und Produktdaten im E-Commerce.

Uneinheitliche, dezentrale Datenhaltung

Datenqualität kann in Unternehmen nur dann erfolgreich gelebt werden, wenn die entsprechenden Prozesse einheitlich, zentral und transparent gesteuert sind. Dennoch ist in vielen Firmen das Gegenteil der Fall. Zu diesem Ergebnis kommt eine aktuelle Erhebung von Omikron Data Quality unter mehr als 300 Firmen.

Ohne sich um ein koordiniertes Datenqualitäts-Management zu kümmern, besitzen in 52 Prozent der Betriebe demnach die Geschäfts- beziehungsweise Vertriebsbereiche eine alleinige Hoheit über diese Daten und gewähren anderen Organisationseinheiten keinen Blick darauf. Nur in jedem fünften Unternehmen ist es üblich, Kundendaten unternehmensweit zur Verfügung zu stellen. n 27 Prozent der befragten Firmen gibt es keine klare Regelung, ob alle relevanten Unternehmensbereiche entweder grundsätzlich oder abteilungsweise Zugriff auf die jeweiligen Kundeninformationen haben. Dort wird die Nutzung der Dateien mit den Kundendaten unterschiedlich gehandhabt.

In jedem siebten Fall sind es gemäß der Omikron-Erhebung zwischen fünf und zehn Kundendatenbanken, manche der befragten Unternehmen verfügen sogar über noch mehr solcher Datenquellen für den Vertrieb und das Marketing. Dadurch liegen zwangsläufig viele Kundeninformationen gleich mehrfach vor, ohne dass klar wäre, in welcher Datenbank die aktuellen und genauesten Daten vorgehalten werden. Können die Mitglieder der Geschäftsführung ihren Bilanzen überhaupt noch trauen, fragt sich der Kunde.

„Damit werden die Gesamtkosten für das Management der Daten künstlich in die Höhe getrieben. Gleichzeitig entsteht ein Nährboden für kaum zu kontrollierende Qualitätsprobleme“, kritisiert Omikron-Geschäftsführer Carsten Kraus. Seiner Meinung nach erzeugt diese Abgrenzung einen erheblichen Mehrfachaufwand in der Datenpflege. Außerdem sei ohne eine gesamtheitliche Verantwortung nie klar, wer mit Daten von hoher oder geringer Güte arbeite.

Page: 1 2

ZDNet.de Redaktion

Recent Posts

Black Friday: Vorsicht vor schädlichen QR-Codes

Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.

22 Stunden ago

Black Friday: Zahl der ominösen Shopping-Websites steigt

Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.

23 Stunden ago

SmokeBuster bekämpft SmokeLoader

Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.

1 Tag ago

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

2 Tagen ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

2 Tagen ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

2 Tagen ago