Michael Mielke vom Dienstleistungszentrum der Deutschen Bahn AG ist die treibende Kraft hinter der Veranstaltung in Frankfurt am Main zur Informationsqualität. Er schildert ein Beispiel aus seinem Erfahrungshorizont. Dabei geht es um den Rollout eines neuen Trading-Systems einer deutschen Bank an rund 5000 Firmenkunden. Die Klienten mussten Zugriff erhalten und zwar auf einer technisch sicheren Basis. Offenbar wurde das Projekt als überschaubar eingestuft; denn, so Mielke, „Man dachte: die Vertriebsleute machen das schon.“
Doch das System entpuppte sich als komplexer wie ursprünglich angenommen. Nicht nur eine Verschlüsselungs- und Autorisierungsinfrastruktur musste her und der Kunde auf dem System geschult werden. Der Implementierungsprozess beinhaltete auch etwa die Vertragsvereinbarungen, also die Rahmenverträge inklusive Nutzen und Risiken. Zudem waren Nutzungsberichte gefragt etwa über den Status und die Akzeptanz des neuen Systems. Zwar hatte jeder Verantwortliche für seinen Bereich eigene Auswertungen, vom Excel-Sheet bis zur Ad-hoc-Analyse, doch gab es keine gemeinsame Datenbasis. Der Prozess blieb hochgradig manuell.
Martin Eppler, Professor an der Universität Lugano, kategorisiert in seinem Buch „Managing Information Quality“ die verschiedenen Probleme und ihre Erscheinungsweisen. Ursache und Wirkung ändern sich im Prozess von der Datenerhebung bis zur Auswertung. Hier klicken |
Irgendwann geriet das Rollout außer Kontrolle: Tippfehler und die Missachtung von Abhängigkeiten im Prozess waren an der Tagesordnung bis ein eigenes Team endlich den Workflow, Abhängigkeiten und Zuständigkeiten definierte, die Daten zentral zusammenfasste und zugänglich machte. Welche Unkosten bis dahin aufgelaufen waren, kann Mielke nicht beziffern. Doch kann er die Kosten für eine falsche Adresse oder einen falschen Namen benennen. Solche Fehler schlugen mit rund 120 Euro pro Client zu Buche. In dem Beispiel betrugt die Fehlerquote rund 10 Prozent, 5 Prozent mehr als normal.
Das Data Warehouse Institute schätzt, dass Verwaltungen und Unternehmen in den USA jährlich rund 600 Milliarden Dollar wegen schlechter Datenqualität verlieren. Fred Steingraber, CEO beim Beratungshaus A.T. Kearney, beziffert den Schaden durch schlechte Datenqualität auf 25 bis 40 Prozent der gesamten operativen Kosten. Angesichts der Aussagen zahlreicher Analystenhäuser, das Information heute das wertvollste Asset eines jeden Unternehmens ist, scheint es geradezu unverantwortlich, Datenqualität unter ferner liefen auf der Prioritätenskala einzuordnen.
Page: 1 2
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…
Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…
Es kommt angeblich 2028 auf den Markt. Das aufgeklappte Gerät soll die Displayfläche von zwei…
Das System basiert auf Hardware von HPE-Cray und Nvidia. Die Inbetriebnahme erfolgt 2027.
Die Bundesnetzagentur hat ihr Gigabit-Grundbuch aktualisiert. Drei von vier Haushalten sollen jetzt Zugang zu Breitbandanschlüssen…