Categories: CloudCloud-Management

Wie Data Gravity IT-Projekte ausbremsen kann

Daten sind zu einem wichtigen Produktionsfaktor geworden. CIOs müssen ihre Strategien für das Datenmanagement daher kontinuierlich anpassen. Ein wichtiges Mittel ist dabei die Bereitstellung von IT-Ressourcen aus einer Public, Private oder Hybrid Cloud. Projekte für die Migration und Integration werden jedoch von der Data Gravity ausgebremst. Damit wird der Effekt bezeichnet, dass Daten an bestehenden Infrastrukturen „kleben“, was die Weiterentwicklung der IT erschwert.

Herbert Bild, der Autor dieses Gastbeitrags für ZDNet, ist Solutions Marketing Manager bei NetApp (Bild: NetApp).

In der Praxis sind heute in vielen Rechenzentren unternehmenskritische Daten in Silos gefangen. Für deren Verwaltung existiert weder eine übergreifende Datenmanagement-Infrastruktur noch sind durchgängige IT-Service-Prozesse vorhanden. Die digitale Transformation von Geschäftsprozessen macht es jedoch erforderlich, den Mitarbeitern an ihrem IT-Arbeitsplatz Zugriff auf alle Daten und Ressourcen der eigenen Organisationen zu ermöglichen – natürlich entsprechend ihrer jeweiligen Rolle im Unternehmen.

Nur so ist beispielsweise im Vertrieb oder im Kundenservice eine 360-Grad-Sicht auf den Kunden möglich. Ein weiteres Szenario ist die Umsetzung von Big-Data-Analysen: Hierbei müssen verteilte Datenquellen auch standortübergreifend integriert werden, um so zum Beispiel Trendanalysen zu erstellen und neue Absatzpotenziale zu erkennen.

Von CIOs wird daher gefordert, die digitale Transformation von Prozessen durch flexibel einsetzbare IT-Ressourcen zu unterstützen. Nur so lassen sich die rasch wechselnden Anforderungen der Fachbereiche umsetzen. Bei der Realisierung spielt die Cloud eine wichtige Rolle. Gerade mit hybriden Cloud-Infrastrukturen lassen sich viele Business-Anforderungen besonders effizient lösen. Daher nutzen auch in Deutschland immer mehr Unternehmen dieses Konzept: Die Studie „Cloud-Monitor 2015“ (PDF) von KPMG und Bitkom zeigt, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Dabei sind die gemachten Erfahrungen durchweg positiv, wie 78 Prozent der Befragten aussagen.

Wer jedoch einmal ein IT-Modernisierungsprojekt gestartet hat, beispielsweise um Ressourcen aus der Cloud zu integrieren, konnte dabei den Data Gravity-Effekt beobachten. Je nach Eigenschaft und Sicherheitsklasse besitzen Unternehmensdaten eine gewisse Trägheit, die sogenannte Data Gravity. Diese führt dazu, dass Datenbestände an der bestehenden Infrastruktur „kleben“. In vielen IT-Umgebungen verhindert Data Gravity bereits das einfache Verschieben von Daten zwischen der Cloud und den On-Premise-Systemen und erschwert somit den effizienten Einsatz von Cloud-Ressourcen.

Data Fabric ist das von NetApp entwickelte Konzept für ein zukunftsfähiges Datenmanagement, mit dem Unternehmen eine Multi-Cloud-Infrastruktur betreiben und Ressourcen aus unterschiedlichen Clouds integrieren können (Grafik: NetApp).

Wie aber entsteht Data Gravity überhaupt und warum müssen sich CIOs damit beschäftigen? Es gibt verschiedene Faktoren, die diese Schwerkraft erzeugen. Einer ist die Größe der Daten. Wer eine Storage-Infrastruktur im Petabyte-Bereich betreibt, wird sich schwer tun, diese Datenmengen auf eine neue Plattform zu migrieren. Weiterhin können die von Anwendungen geforderten schnellen Zugriffszeiten dafür sorgen, dass das Ausweichen auf eine andere Systemplattform nicht möglich ist. Dann gibt es noch rechtliche Rahmenbedingungen, die es verlangen, dass beispielsweise personenbezogene Informationen nur auf Servern gespeichert werden, die innerhalb Deutschlands stehen.

Diese Beispiele zeigen, wie Data Gravity entstehen kann und warum Informationen dadurch an die zugrundeliegende Infrastruktur gebunden werden. Für die IT-Experten wird es damit sehr schwer, Daten flexibel in die Cloud zu verschieben und bestehende Datensilos innerhalb der eigenen Organisation aufzulösen. Das Strategiepapier Die Cloud für alle Fälle von Crisp Research beschreibt diese Anforderungen und zeigt Lösungsansätze mit Hybrid- und Multi-Cloud-Architekturen.

Mehr Freiheit für die Daten

Für eine hybride Cloud-Umgebung wird eine zentrale Datenmanagement-Plattform benötigt. Die Lösung unterstützt Unternehmen dabei, bestehende Storage- und Datenmanagement-Architekturen mit einheitlichem Management und Monitoring auf hybride Cloud-Architekturen auszuweiten. Damit erhalten IT-Verantwortliche auch ein wirksames Mittel, um Data Gravity auszuhebeln.

Eine solche Lösung muss eine Reihe von Anforderungen erfüllen. Hierzu zählt die dynamische Datenportabilität, um Datenbestände sicher und in vorgegebenen Zeitfenstern mithilfe von Replizierungstechnologien zwischen Cloud-Umgebungen zu transferieren. Weiterhin sollte es möglich sein, unter verschiedenen Public-Cloud-Anbietern zu wählen. Wichtig ist hierbei, dass die Daten tatsächlich portabel bleiben und es nicht zu einem Vendor Lock-in kommt. Der dritte Punkt ist die einheitliche und sichere Anbindung der eigenen IT-Systeme an alle genutzten Cloud-Umgebungen auf Basis standardisierter Protokolle und Schnittstellen.

Mit NetApp Technologien verschieben Unternehmen ihre Daten zwischen Cloud-Ressourcen und Service-Anbietern in beide Richtungen. So muss sich der CIO nicht auf einen Cloud-Anbieter festlegen und kann Ressourcen aus AWS, Azure und SoftLayer sowie On-Premise-Storage beliebig kombinieren (Bild: Shutterstock/dotshock).

Sicher in die Cloud

Die flexible Integration von Cloud-Infrastrukturen unterschiedlicher Anbieter bei gleichzeitiger voller Datenkontrolle ist der entscheidende Faktor, um schnell und flexibel neue IT-Ressourcen nutzen zu können. Durch Einbeziehung lokaler Cloud-Provider mit Rechenzentren in Deutschland wird es gleichzeitig möglich, auch landesspezifische Compliance- und Governance-Richtlinien einzuhalten. Ein angenehmer Nebeneffekt: die Data Gravity verliert an Einfluss und Unternehmen verarbeiten ihre Daten nun frei über unterschiedliche Ressourcen hinweg.

Um Datenmanagement für Cloud und On-Premise zu vereinen bietet NetApp das Storage-Betriebssystem Clustered Data ONTAP an. Bestehende Speicherinfrastrukturen lassen sich hiermit flexibel und homogen in die Cloud erweitern. Dadurch kann die IT beliebige Cloud-Ressourcen von Hyperscale-Providern wie Amazon AWS, IBM Softlayer oder Microsoft Azure in die eigene Infrastruktur einbinden. Dies funktioniert über Colocation-Anbieter, die ihre Standorte in unmittelbarer Nähe der großen Cloud-Provider besitzen und an diese Datacenter über Netzverbindungen mit besonders niedrigen Latenzzeiten angebunden sind.

In Deutschland ist beispielsweise Equinix einer dieser Dienstleister, der im Kundenauftrag den Betrieb von NetApp FAS Storage-Lösungen in seinem Rechenzentrum übernimmt. Unternehmen replizieren dann ihre Daten aus ihrem eigenen Rechenzentrum in die Systeme des Colocation-Anbieters. Sobald die Daten dort gespeichert sind, kann der Kunde die Hyperscale Cloud-Services für Analysen auf seinen aktuellen operativen Daten verwenden, die beim Colocation-Anbieter zuvor gespiegelt wurden.

AUTOR

Herbert Bild ...

... ist Solutions Marketing Manager bei NetApp. Das Unternehmen bietet neben seinne klassischen Storage-Produkten mit dem Storage-Betriebssystem Clustered Data ONTAP auch eine Möglichkeit, bestehende Speicherinfrastrukturen flexibel und homogen in die Cloud zu erweitern.

Peter Marwan

Für ZDNet veröffentlicht Peter immer wieder Beiträge zum Thema IT Business.

Recent Posts

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

2 Stunden ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

6 Stunden ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

7 Stunden ago

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

7 Stunden ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

7 Stunden ago

Netzwerk-Portfolio für das KI-Zeitalter

Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…

9 Stunden ago