Categories: AnzeigeData & Storage

Zuverlässige Daten im Handumdrehen – Warum die Automatisierung Erfolgsfaktor bleibt

Das zeigt der The State of Data Management Report von Fivetran und Wakefield Research. Die weltweite Umfrage unter Führungsverantwortlichen im Bereich „Data & Analytics“ untersucht die Auswirkungen mangelndem Datenmanagements auf die internen Geschäftsprozesse. Die Ergebnisse sind alarmierend: 85 Prozent der Befragten gaben finanzielle Verluste an, weil Entscheidungen auf der Grundlage von mangelhaften Daten getroffen wurden.

Das Problem sind nicht die für die Datenanalyse genutzten Business-Intelligence-Tools (BI-Tools) oder etwa die angewandten Analyseverfahren. Es liegt an der zugrunde liegenden Infrastruktur und damit an der unzuverlässigen Datenübertragung zwischen isolierten Anwendungen oder Datenbanken und Cloud-Destinationen wie Data Lakes und Data Warehouses.

Manuelle Wartung: Dauerbaustelle für Data Engineers

Der Wartungsaufwand, um die Zuverlässigkeit der Data Pipelines sicherzustellen und sie auf dem neuesten Stand zu halten, stellt die größte Kostenfalle dar. Die Pipelines transportieren Daten zwischen Quellen und Zielen – und trotz des einfachen Konzepts ist der Prozess für die meisten Unternehmen ressourcenintensiv. Ganze 80 Prozent der Unternehmen müssen ihre Pipelines nach der Bereitstellung nochmals komplett neu einrichten. Bei 39 Prozent kommt eine erneute Implementierung der Pipelines sogar häufiger vor.

Die Aufgabe, Data Pipelines reibungslos am Laufen zu halten, fällt den Data Engineers zu. Obwohl hochqualifiziert und mit Aufgaben betraut, die das Rückgrat des Unternehmens bilden, müssen sie sich immer noch regelmäßig mit banalen Wartungsaufgaben abmühen. Die verlorene Zeit fehlt für die Bereitstellung von zuverlässigen Daten für wichtige Analysen. In 82 Prozent der Unternehmen verbringen die Data Engineers mehr als ein Viertel ihrer Zeit mit dem Aufbau und der Pflege von Data Pipelines.

Fluktuation & hohe Personalkosten

Ein Rechenbeispiel verdeutlicht die Problematik: Laut Glassdoor verdienen Data Engineers in Deutschland im Durchschnitt 63.000 Euro pro Jahr. Bei zehn angestellten Data Engineers, die ein Viertel ihrer Zeit für lästige Wartungsarbeiten aufwenden, kostet diese Ineffektivität ein Unternehmen jährlich knapp 160.000 Euro.

Die unrentable Ressourcenverteilung schmälert zudem nicht nur den Wettbewerbsvorteil von Unternehmen, sondern demotiviert auch die Mitarbeitenden. Wer als Data Engineer täglich Data Pipelines wartet und pflegt, wird sich langfristig nach interessanteren Jobs in anderen Unternehmen umschauen. Die Stellen nachzubesetzen ist aufgrund Fachkräftemangel gar nicht so einfach – der Wettbewerb um Data Engineers ist härter ist als je zuvor. 83 Prozent der Führungskräfte sehen in fehlendem Budget für zusätzliches Fachpersonal ein Hindernis für die Erweiterung ihres Datenmanagement-Teams.

Daten richtig verwalten

Sind mehr Data Engineers tatsächlich die Lösung bei instabilen Data Pipelines und unzureichenden Daten? Wohl kaum. Fast ein Viertel der Unternehmen betreibt mehr als 50 Data Pipelines. Den enormen Wartungsaufwand manuell zu betreiben ist einfach keine Alternative. Das Argument für die Automatisierung könnte hingegen kaum stärker sein. Dies gilt insbesondere, wenn man die Jahr für Jahr exponentiell wachsenden Datenmengen bedenkt. Die Zeit wird kommen, an dem Data Engineers einfach nicht mehr in der Lage sind, relevante Informationen und neue Erkenntnisse aus dem ständig wachsenden Datenpool zu ziehen.

Glücklicherweise hat die Technologie bereits eine Antwort parat: Die Automatisierung von Data Pipelines. Damit nimmt die Bereitstellung analysebereiter Daten, die früher Tage dauerte, heute nur noch wenige Stunden in Anspruch. 69 Prozent der Führungsverantwortlichen im Bereich „Data & Analytics“ sind sich sicher, dass sich die Geschäftsergebnisse verbessern können – wenn ihre Teams von den zeitraubenden Wartungsarbeiten befreit sind. Das Know-how und die Fähigkeiten von Data Engineers ist an anderer Stelle auch weitaus besser aufgehoben, zum Beispiel bei Geschäftsentscheidungen und der Analyse von geschäftskritischen Prozessen. Daraus ergibt sich der nächste logische Schritt für Unternehmen: Die Implementierung von automatisierten Lösungen, um Data Engineers zu entlasten und sie stattdessen in Entscheidungsprozesse miteinzubeziehen.

Positiver Effekt: Weitere Unternehmensbereiche profitieren ebenfalls

Höhere Effektivität und Geschwindigkeit stehen dabei nur am Anfang einer langen Liste an Vorteilen. So kann die Automatisierung erhebliche Bedenken hinsichtlich der Datensicherheit und des Datenschutzes ausräumen. Die gängigen automatisierten Lösungen erfüllen alle Sicherheits- und Datenschutzstandards wie SOC Typ 2 und PCI und schaffen so automatisch eine zuverlässige Compliance-Grundlage, um regulatorische Anforderungen und Richtlinien (z. B. DSGVO) gewissenhaft zu erfüllen. So werden auch IT- und Sicherheitsteams in Unternehmen weiter entlastet.

Die teamübergreifende und automatisierte Bereitstellung von Daten wirkt sich positiv auf die gesamte Unternehmensproduktivität aus. So analysieren Marketingteams Trends im Kundenverhalten, bevor sie die nächste Kampagne entwerfen und CFOs prüfen aktuelle Berichte, um neues Wachstumspotential aufzuspüren. Die Automatisierung macht nicht nur die Präsentation von Daten schneller und einfacher, sondern erledigt auch alltägliche Aufgaben. Damit bleibt Mitarbeitenden mehr Zeit und Energie, um sich auf wichtigere Projekte zu konzentrieren.

Optimales Datenmanagement ist automatisiert

Ein Technologie-Stack der die Automatisierung von Data Pipelines vorantreibt, unterstützt Data Engineers, Analysten und Data Scientists dabei, aus bestehenden Daten echten Mehrwert zu schöpfen und neue Erkenntnisse zu gewinnen. Wer sich auf aktuelle und saubere Daten verlassen kann, kann sich auch die darauf basierenden Entscheidungen verlassen. Geschäftsergebnisse lassen sich nachhaltig verbessern und Data Engineers effektiv einsetzen. Kurzum: Es ist Zeit auf automatisierte zuverlässige Data Pipelines umzusteigen damit die digitale Transformation an Fahrt aufnehmen kann.

ZDNet.de Redaktion

Recent Posts

Black Friday: Vorsicht vor schädlichen QR-Codes

Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.

8 Stunden ago

Black Friday: Zahl der ominösen Shopping-Websites steigt

Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.

9 Stunden ago

SmokeBuster bekämpft SmokeLoader

Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.

16 Stunden ago

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

1 Tag ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

1 Tag ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

2 Tagen ago