Categories: Unternehmen

Datenfundamenten fehlt es an Qualität

Michael Mielke vom Dienstleistungszentrum der Deutschen Bahn AG ist die treibende Kraft hinter der Veranstaltung in Frankfurt am Main zur Informationsqualität. Er schildert ein Beispiel aus seinem Erfahrungshorizont. Dabei geht es um den Rollout eines neuen Trading-Systems einer deutschen Bank an rund 5000 Firmenkunden. Die Klienten mussten Zugriff erhalten und zwar auf einer technisch sicheren Basis. Offenbar wurde das Projekt als überschaubar eingestuft; denn, so Mielke, „Man dachte: die Vertriebsleute machen das schon.“

Doch das System entpuppte sich als komplexer wie ursprünglich angenommen. Nicht nur eine Verschlüsselungs- und Autorisierungsinfrastruktur musste her und der Kunde auf dem System geschult werden. Der Implementierungsprozess beinhaltete auch etwa die Vertragsvereinbarungen, also die Rahmenverträge inklusive Nutzen und Risiken. Zudem waren Nutzungsberichte gefragt etwa über den Status und die Akzeptanz des neuen Systems. Zwar hatte jeder Verantwortliche für seinen Bereich eigene Auswertungen, vom Excel-Sheet bis zur Ad-hoc-Analyse, doch gab es keine gemeinsame Datenbasis. Der Prozess blieb hochgradig manuell.



Martin Eppler, Professor an der Universität Lugano, kategorisiert in seinem Buch „Managing Information Quality“ die verschiedenen Probleme und ihre Erscheinungsweisen. Ursache und Wirkung ändern sich im Prozess von der Datenerhebung bis zur Auswertung. Hier klicken

Irgendwann geriet das Rollout außer Kontrolle: Tippfehler und die Missachtung von Abhängigkeiten im Prozess waren an der Tagesordnung bis ein eigenes Team endlich den Workflow, Abhängigkeiten und Zuständigkeiten definierte, die Daten zentral zusammenfasste und zugänglich machte. Welche Unkosten bis dahin aufgelaufen waren, kann Mielke nicht beziffern. Doch kann er die Kosten für eine falsche Adresse oder einen falschen Namen benennen. Solche Fehler schlugen mit rund 120 Euro pro Client zu Buche. In dem Beispiel betrugt die Fehlerquote rund 10 Prozent, 5 Prozent mehr als normal.

Das Data Warehouse Institute schätzt, dass Verwaltungen und Unternehmen in den USA jährlich rund 600 Milliarden Dollar wegen schlechter Datenqualität verlieren. Fred Steingraber, CEO beim Beratungshaus A.T. Kearney, beziffert den Schaden durch schlechte Datenqualität auf 25 bis 40 Prozent der gesamten operativen Kosten. Angesichts der Aussagen zahlreicher Analystenhäuser, das Information heute das wertvollste Asset eines jeden Unternehmens ist, scheint es geradezu unverantwortlich, Datenqualität unter ferner liefen auf der Prioritätenskala einzuordnen.

Page: 1 2

ZDNet.de Redaktion

Recent Posts

Google kündigt neue Sicherheitsfunktionen für Chrome an

Der Sicherheitscheck entzieht unsicheren Websites automatisch alle Berechtigungen. Zudem können Nutzer in Chrome künftig Websites…

7 Stunden ago

Cyberkriminelle nehmen Fertigungsbetriebe ins Visier

Ontinue registriert einen Anstieg beim Anteil am Gesamtangriffsvolumen um 105 Prozent. Das Angriffsvolumen auf den…

8 Stunden ago

o1: OpenAI stellt neues KI-Modell für komplexe Abfragen vor

Das o1 genannte Modell liegt als Preview vor. Bei einer Mathematikprüfung beantwortet es 83 Prozent…

3 Tagen ago

Zoom erhält IT-Sicherheits- kennzeichen des BSI

Das Kennzeichen erhalten Zoom Workplace Pro und Zoom Workplace Basic. Es bescheinigt unter anderem aktuelle…

4 Tagen ago

Google verbessert Tab-Verwaltung in Chrome

iOS und iPadOS erhalten Tab-Gruppen. Zudem unterstützt Chrome nun die Synchronisierung von Tab-Gruppen.

4 Tagen ago

Identitätsdiebstahl: 58 Prozent der Deutschen sorgen sich um digitales Erbe

Sie befürchten einen Missbrauch der Identitäten von Verstorbenen. 60 Prozent befürworten deswegen eine Klärung des…

4 Tagen ago