Predictive Analytics: Wenn Marktforscher die Informationstechniker nerven

So musste Michael Sailer feststellen, dass Daten aus dem Data Warehouse nicht nur falsch sein können, sondern auch dass sie teuer sind. Sailer untersucht bei der Raiffeisenlandesbank Wien, ob sich Data Mining lohnt. Er fand heraus, dass die Datenlieferung Programmierfehler enthielt, das Rechzentrum Umcodierungen nicht weitergab und ein Datenqualitäts-Management ganz fehlte.

Trotzdem gab es mehrere Testprojekte. Obwohl schon im ersten der ROI-Nachweis gelang, wurden Nachfolgeprojekte gestoppt, auf Eis gelegt, demontiert und vertagt, weil die Bereitstellung der Daten, die eigentlich bereits im Data Warehouse vorlagen, zu teuer gekommen wäre. SPSS-Geschäftsführer Karl Busl erläutert: „Für Marktforscher ist bislang das Teure die Datenerhebung. Eine Sensibilisierung für das Thema Datenqualität sowie für Bereitstellungskosten findet erst allmählich statt.“

Bereits präsent dagegen ist das Data Mining-Werkzeug des Herstellers mit der Bezeichnung „Dimension“. Um die unterschiedlichen Begrifflichkeiten von Marktforscher und Data-Minern in Übereinstimmung zu bringen, speichert das Tool etwa die Auswertungen eines Fragebogens sowie die dazugehörigen Meta-Informationen, „Labels“. Letzteres und Verknüpfungsregeln landen in einem Repository. Somit lassen sich auch die Feldbezeichnungen im Fragebogen und die Auswertungslogik ins Data Warehouse übernehmen.

Trotz des auch in den genannten Projekten nachgewiesenen hohen ROI, werden Data Mining-Tools, nur einen geringen Marktanteil ausmachen. Im Jahr 2007, vermutet IDC, wird der Anteil am gesamten Umsatz mit BI-Werkzeugen gerade einmal 15,5 Prozent betragen. Denn um die Werkzeuge sinnvoll einzusetzen, braucht es Fachleute, die die Analyse-Modelle bauen können.

Der Nutzen von Vorhersagemodellen steige im Übrigen, wenn die Ergebnisse als Regeln direkt in die operativen Systeme eingebaut würden, so dass eine große Anzahl Nutzer damit arbeiten könne. Explizit nennt IDC Transaktionssysteme, Support- und Kundenzentren oder CRM-Applikationen,. Professor Wilde und Donauland-Experte Köllner zeigen Wege der CRM-Integration auf. Bei O2 aber haben bereits 1000 Mitarbeiter Zugriff auf die Data Mining-Analysen.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

KI-Modell „Made in Germany“

Telekom bietet als erstes Unternehmen kommerzielles Angebot mit Teuken-7B von OpenGPT-X.

1 Woche ago

Studie: Mitarbeiterverhalten verursacht IT-Sicherheitsrisiken

Zur Arbeitserleichterung umgehen Mitarbeiter unter anderem Cybersicherheitsrichtlinien. Dazu gehört wie Wiederverwendung von Kennwörtern für geschäftliche…

1 Woche ago

Lichtgeschwindigkeit für generative KI

Optiktechnologie könnte elektrische Verbindungen in Rechenzentren ersetzen und so Geschwindigkeit und Energieeffizienz für KI erheblich…

1 Woche ago

Meta kündigt neues Rechenzentrum für 10 Milliarden Dollar an

Es entsteht im US-Bundesstaat Louisiana. Meta sichert damit den Rechenbedarf für seine KI-Dienste.

1 Woche ago

Autonomes Fahren: Deutsche sehen eher Risiken

Weniger Lärm und ein besserer Verkehrsfluss sind die einzigen Vorteile, der die Mehrheit der Bevölkerung…

1 Woche ago

Jeder zweite hat Probleme mit Internetanbieter

Laut EY haben innerhalb eines Jahres 22 Prozent der Haushalte ihren Provider gewechselt – nirgendwo…

2 Wochen ago