Categories: CloudCloud-Management

Wie Data Gravity IT-Projekte ausbremsen kann

Daten sind zu einem wichtigen Produktionsfaktor geworden. CIOs müssen ihre Strategien für das Datenmanagement daher kontinuierlich anpassen. Ein wichtiges Mittel ist dabei die Bereitstellung von IT-Ressourcen aus einer Public, Private oder Hybrid Cloud. Projekte für die Migration und Integration werden jedoch von der Data Gravity ausgebremst. Damit wird der Effekt bezeichnet, dass Daten an bestehenden Infrastrukturen „kleben“, was die Weiterentwicklung der IT erschwert.

Herbert Bild, der Autor dieses Gastbeitrags für ZDNet, ist Solutions Marketing Manager bei NetApp (Bild: NetApp).

In der Praxis sind heute in vielen Rechenzentren unternehmenskritische Daten in Silos gefangen. Für deren Verwaltung existiert weder eine übergreifende Datenmanagement-Infrastruktur noch sind durchgängige IT-Service-Prozesse vorhanden. Die digitale Transformation von Geschäftsprozessen macht es jedoch erforderlich, den Mitarbeitern an ihrem IT-Arbeitsplatz Zugriff auf alle Daten und Ressourcen der eigenen Organisationen zu ermöglichen – natürlich entsprechend ihrer jeweiligen Rolle im Unternehmen.

Nur so ist beispielsweise im Vertrieb oder im Kundenservice eine 360-Grad-Sicht auf den Kunden möglich. Ein weiteres Szenario ist die Umsetzung von Big-Data-Analysen: Hierbei müssen verteilte Datenquellen auch standortübergreifend integriert werden, um so zum Beispiel Trendanalysen zu erstellen und neue Absatzpotenziale zu erkennen.

Von CIOs wird daher gefordert, die digitale Transformation von Prozessen durch flexibel einsetzbare IT-Ressourcen zu unterstützen. Nur so lassen sich die rasch wechselnden Anforderungen der Fachbereiche umsetzen. Bei der Realisierung spielt die Cloud eine wichtige Rolle. Gerade mit hybriden Cloud-Infrastrukturen lassen sich viele Business-Anforderungen besonders effizient lösen. Daher nutzen auch in Deutschland immer mehr Unternehmen dieses Konzept: Die Studie „Cloud-Monitor 2015“ (PDF) von KPMG und Bitkom zeigt, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Dabei sind die gemachten Erfahrungen durchweg positiv, wie 78 Prozent der Befragten aussagen.

Wer jedoch einmal ein IT-Modernisierungsprojekt gestartet hat, beispielsweise um Ressourcen aus der Cloud zu integrieren, konnte dabei den Data Gravity-Effekt beobachten. Je nach Eigenschaft und Sicherheitsklasse besitzen Unternehmensdaten eine gewisse Trägheit, die sogenannte Data Gravity. Diese führt dazu, dass Datenbestände an der bestehenden Infrastruktur „kleben“. In vielen IT-Umgebungen verhindert Data Gravity bereits das einfache Verschieben von Daten zwischen der Cloud und den On-Premise-Systemen und erschwert somit den effizienten Einsatz von Cloud-Ressourcen.

Data Fabric ist das von NetApp entwickelte Konzept für ein zukunftsfähiges Datenmanagement, mit dem Unternehmen eine Multi-Cloud-Infrastruktur betreiben und Ressourcen aus unterschiedlichen Clouds integrieren können (Grafik: NetApp).

Wie aber entsteht Data Gravity überhaupt und warum müssen sich CIOs damit beschäftigen? Es gibt verschiedene Faktoren, die diese Schwerkraft erzeugen. Einer ist die Größe der Daten. Wer eine Storage-Infrastruktur im Petabyte-Bereich betreibt, wird sich schwer tun, diese Datenmengen auf eine neue Plattform zu migrieren. Weiterhin können die von Anwendungen geforderten schnellen Zugriffszeiten dafür sorgen, dass das Ausweichen auf eine andere Systemplattform nicht möglich ist. Dann gibt es noch rechtliche Rahmenbedingungen, die es verlangen, dass beispielsweise personenbezogene Informationen nur auf Servern gespeichert werden, die innerhalb Deutschlands stehen.

Diese Beispiele zeigen, wie Data Gravity entstehen kann und warum Informationen dadurch an die zugrundeliegende Infrastruktur gebunden werden. Für die IT-Experten wird es damit sehr schwer, Daten flexibel in die Cloud zu verschieben und bestehende Datensilos innerhalb der eigenen Organisation aufzulösen. Das Strategiepapier Die Cloud für alle Fälle von Crisp Research beschreibt diese Anforderungen und zeigt Lösungsansätze mit Hybrid- und Multi-Cloud-Architekturen.

Mehr Freiheit für die Daten

Für eine hybride Cloud-Umgebung wird eine zentrale Datenmanagement-Plattform benötigt. Die Lösung unterstützt Unternehmen dabei, bestehende Storage- und Datenmanagement-Architekturen mit einheitlichem Management und Monitoring auf hybride Cloud-Architekturen auszuweiten. Damit erhalten IT-Verantwortliche auch ein wirksames Mittel, um Data Gravity auszuhebeln.

Eine solche Lösung muss eine Reihe von Anforderungen erfüllen. Hierzu zählt die dynamische Datenportabilität, um Datenbestände sicher und in vorgegebenen Zeitfenstern mithilfe von Replizierungstechnologien zwischen Cloud-Umgebungen zu transferieren. Weiterhin sollte es möglich sein, unter verschiedenen Public-Cloud-Anbietern zu wählen. Wichtig ist hierbei, dass die Daten tatsächlich portabel bleiben und es nicht zu einem Vendor Lock-in kommt. Der dritte Punkt ist die einheitliche und sichere Anbindung der eigenen IT-Systeme an alle genutzten Cloud-Umgebungen auf Basis standardisierter Protokolle und Schnittstellen.

Mit NetApp Technologien verschieben Unternehmen ihre Daten zwischen Cloud-Ressourcen und Service-Anbietern in beide Richtungen. So muss sich der CIO nicht auf einen Cloud-Anbieter festlegen und kann Ressourcen aus AWS, Azure und SoftLayer sowie On-Premise-Storage beliebig kombinieren (Bild: Shutterstock/dotshock).

Sicher in die Cloud

Die flexible Integration von Cloud-Infrastrukturen unterschiedlicher Anbieter bei gleichzeitiger voller Datenkontrolle ist der entscheidende Faktor, um schnell und flexibel neue IT-Ressourcen nutzen zu können. Durch Einbeziehung lokaler Cloud-Provider mit Rechenzentren in Deutschland wird es gleichzeitig möglich, auch landesspezifische Compliance- und Governance-Richtlinien einzuhalten. Ein angenehmer Nebeneffekt: die Data Gravity verliert an Einfluss und Unternehmen verarbeiten ihre Daten nun frei über unterschiedliche Ressourcen hinweg.

Um Datenmanagement für Cloud und On-Premise zu vereinen bietet NetApp das Storage-Betriebssystem Clustered Data ONTAP an. Bestehende Speicherinfrastrukturen lassen sich hiermit flexibel und homogen in die Cloud erweitern. Dadurch kann die IT beliebige Cloud-Ressourcen von Hyperscale-Providern wie Amazon AWS, IBM Softlayer oder Microsoft Azure in die eigene Infrastruktur einbinden. Dies funktioniert über Colocation-Anbieter, die ihre Standorte in unmittelbarer Nähe der großen Cloud-Provider besitzen und an diese Datacenter über Netzverbindungen mit besonders niedrigen Latenzzeiten angebunden sind.

In Deutschland ist beispielsweise Equinix einer dieser Dienstleister, der im Kundenauftrag den Betrieb von NetApp FAS Storage-Lösungen in seinem Rechenzentrum übernimmt. Unternehmen replizieren dann ihre Daten aus ihrem eigenen Rechenzentrum in die Systeme des Colocation-Anbieters. Sobald die Daten dort gespeichert sind, kann der Kunde die Hyperscale Cloud-Services für Analysen auf seinen aktuellen operativen Daten verwenden, die beim Colocation-Anbieter zuvor gespiegelt wurden.

AUTOR

Herbert Bild ...

... ist Solutions Marketing Manager bei NetApp. Das Unternehmen bietet neben seinne klassischen Storage-Produkten mit dem Storage-Betriebssystem Clustered Data ONTAP auch eine Möglichkeit, bestehende Speicherinfrastrukturen flexibel und homogen in die Cloud zu erweitern.

Peter Marwan

Für ZDNet veröffentlicht Peter immer wieder Beiträge zum Thema IT Business.

Recent Posts

Studie: Ein Drittel aller E-Mails an Unternehmen sind unerwünscht

Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…

2 Tagen ago

HubPhish: Phishing-Kampagne zielt auf europäische Unternehmen

Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…

3 Tagen ago

1. Januar 2025: Umstieg auf E-Rechnung im B2B-Geschäftsverkehr

Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.

3 Tagen ago

Google schließt schwerwiegende Sicherheitslücken in Chrome 131

Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…

3 Tagen ago

Erreichbarkeit im Weihnachtsurlaub weiterhin hoch

Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…

4 Tagen ago

Hacker missbrauchen Google Calendar zum Angriff auf Postfächer

Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…

5 Tagen ago