Daten sind zu einem wichtigen Produktionsfaktor geworden. CIOs müssen ihre Strategien für das Datenmanagement daher kontinuierlich anpassen. Ein wichtiges Mittel ist dabei die Bereitstellung von IT-Ressourcen aus einer Public, Private oder Hybrid Cloud. Projekte für die Migration und Integration werden jedoch von der Data Gravity ausgebremst. Damit wird der Effekt bezeichnet, dass Daten an bestehenden Infrastrukturen „kleben“, was die Weiterentwicklung der IT erschwert.
In der Praxis sind heute in vielen Rechenzentren unternehmenskritische Daten in Silos gefangen. Für deren Verwaltung existiert weder eine übergreifende Datenmanagement-Infrastruktur noch sind durchgängige IT-Service-Prozesse vorhanden. Die digitale Transformation von Geschäftsprozessen macht es jedoch erforderlich, den Mitarbeitern an ihrem IT-Arbeitsplatz Zugriff auf alle Daten und Ressourcen der eigenen Organisationen zu ermöglichen – natürlich entsprechend ihrer jeweiligen Rolle im Unternehmen.
Nur so ist beispielsweise im Vertrieb oder im Kundenservice eine 360-Grad-Sicht auf den Kunden möglich. Ein weiteres Szenario ist die Umsetzung von Big-Data-Analysen: Hierbei müssen verteilte Datenquellen auch standortübergreifend integriert werden, um so zum Beispiel Trendanalysen zu erstellen und neue Absatzpotenziale zu erkennen.
Von CIOs wird daher gefordert, die digitale Transformation von Prozessen durch flexibel einsetzbare IT-Ressourcen zu unterstützen. Nur so lassen sich die rasch wechselnden Anforderungen der Fachbereiche umsetzen. Bei der Realisierung spielt die Cloud eine wichtige Rolle. Gerade mit hybriden Cloud-Infrastrukturen lassen sich viele Business-Anforderungen besonders effizient lösen. Daher nutzen auch in Deutschland immer mehr Unternehmen dieses Konzept: Die Studie „Cloud-Monitor 2015“ (PDF) von KPMG und Bitkom zeigt, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Dabei sind die gemachten Erfahrungen durchweg positiv, wie 78 Prozent der Befragten aussagen.
Wer jedoch einmal ein IT-Modernisierungsprojekt gestartet hat, beispielsweise um Ressourcen aus der Cloud zu integrieren, konnte dabei den Data Gravity-Effekt beobachten. Je nach Eigenschaft und Sicherheitsklasse besitzen Unternehmensdaten eine gewisse Trägheit, die sogenannte Data Gravity. Diese führt dazu, dass Datenbestände an der bestehenden Infrastruktur „kleben“. In vielen IT-Umgebungen verhindert Data Gravity bereits das einfache Verschieben von Daten zwischen der Cloud und den On-Premise-Systemen und erschwert somit den effizienten Einsatz von Cloud-Ressourcen.
Wie aber entsteht Data Gravity überhaupt und warum müssen sich CIOs damit beschäftigen? Es gibt verschiedene Faktoren, die diese Schwerkraft erzeugen. Einer ist die Größe der Daten. Wer eine Storage-Infrastruktur im Petabyte-Bereich betreibt, wird sich schwer tun, diese Datenmengen auf eine neue Plattform zu migrieren. Weiterhin können die von Anwendungen geforderten schnellen Zugriffszeiten dafür sorgen, dass das Ausweichen auf eine andere Systemplattform nicht möglich ist. Dann gibt es noch rechtliche Rahmenbedingungen, die es verlangen, dass beispielsweise personenbezogene Informationen nur auf Servern gespeichert werden, die innerhalb Deutschlands stehen.
Diese Beispiele zeigen, wie Data Gravity entstehen kann und warum Informationen dadurch an die zugrundeliegende Infrastruktur gebunden werden. Für die IT-Experten wird es damit sehr schwer, Daten flexibel in die Cloud zu verschieben und bestehende Datensilos innerhalb der eigenen Organisation aufzulösen. Das Strategiepapier Die Cloud für alle Fälle von Crisp Research beschreibt diese Anforderungen und zeigt Lösungsansätze mit Hybrid- und Multi-Cloud-Architekturen.
Mehr Freiheit für die Daten
Für eine hybride Cloud-Umgebung wird eine zentrale Datenmanagement-Plattform benötigt. Die Lösung unterstützt Unternehmen dabei, bestehende Storage- und Datenmanagement-Architekturen mit einheitlichem Management und Monitoring auf hybride Cloud-Architekturen auszuweiten. Damit erhalten IT-Verantwortliche auch ein wirksames Mittel, um Data Gravity auszuhebeln.
Eine solche Lösung muss eine Reihe von Anforderungen erfüllen. Hierzu zählt die dynamische Datenportabilität, um Datenbestände sicher und in vorgegebenen Zeitfenstern mithilfe von Replizierungstechnologien zwischen Cloud-Umgebungen zu transferieren. Weiterhin sollte es möglich sein, unter verschiedenen Public-Cloud-Anbietern zu wählen. Wichtig ist hierbei, dass die Daten tatsächlich portabel bleiben und es nicht zu einem Vendor Lock-in kommt. Der dritte Punkt ist die einheitliche und sichere Anbindung der eigenen IT-Systeme an alle genutzten Cloud-Umgebungen auf Basis standardisierter Protokolle und Schnittstellen.
Sicher in die Cloud
Die flexible Integration von Cloud-Infrastrukturen unterschiedlicher Anbieter bei gleichzeitiger voller Datenkontrolle ist der entscheidende Faktor, um schnell und flexibel neue IT-Ressourcen nutzen zu können. Durch Einbeziehung lokaler Cloud-Provider mit Rechenzentren in Deutschland wird es gleichzeitig möglich, auch landesspezifische Compliance- und Governance-Richtlinien einzuhalten. Ein angenehmer Nebeneffekt: die Data Gravity verliert an Einfluss und Unternehmen verarbeiten ihre Daten nun frei über unterschiedliche Ressourcen hinweg.
Um Datenmanagement für Cloud und On-Premise zu vereinen bietet NetApp das Storage-Betriebssystem Clustered Data ONTAP an. Bestehende Speicherinfrastrukturen lassen sich hiermit flexibel und homogen in die Cloud erweitern. Dadurch kann die IT beliebige Cloud-Ressourcen von Hyperscale-Providern wie Amazon AWS, IBM Softlayer oder Microsoft Azure in die eigene Infrastruktur einbinden. Dies funktioniert über Colocation-Anbieter, die ihre Standorte in unmittelbarer Nähe der großen Cloud-Provider besitzen und an diese Datacenter über Netzverbindungen mit besonders niedrigen Latenzzeiten angebunden sind.
In Deutschland ist beispielsweise Equinix einer dieser Dienstleister, der im Kundenauftrag den Betrieb von NetApp FAS Storage-Lösungen in seinem Rechenzentrum übernimmt. Unternehmen replizieren dann ihre Daten aus ihrem eigenen Rechenzentrum in die Systeme des Colocation-Anbieters. Sobald die Daten dort gespeichert sind, kann der Kunde die Hyperscale Cloud-Services für Analysen auf seinen aktuellen operativen Daten verwenden, die beim Colocation-Anbieter zuvor gespiegelt wurden.
... ist Solutions Marketing Manager bei NetApp. Das Unternehmen bietet neben seinne klassischen Storage-Produkten mit dem Storage-Betriebssystem Clustered Data ONTAP auch eine Möglichkeit, bestehende Speicherinfrastrukturen flexibel und homogen in die Cloud zu erweitern.
Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.
Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…