„Der Umgang mit der Komplexität virtueller Infrastrukturen erfordert neue Herangehensweisen und Fähigkeiten. Um die Datensicherheit zu gewährleisten, müssen Mitarbeiter mit der SAN-Architektur umgehen können, aber auch die virtuellen Netzwerke sichern und die Interaktion mit dem Host-Server auf der Befehlszeilenebene beherrschen. Für diese Komplexität müssen die IT-Mitarbeiter erst einmal geschult und eingearbeitet werden“, so Engelland.
Das sieht Veeam-Experte Neufert ähnlich, er will aber nicht in erster Linie die fehlenden Detailkenntnissen der Mitarbeiter als Fehlerquelle verstanden wissen, sondern fordert ein grundsätzliches Umdenken: „Die Ursache liegt nach unserer Erfahrung im fehlendem Verständnis für die Besonderheiten der Virtualisierung. Vermehrte Datenverluste sind häufig ein Resultat falscher Datensicherungsstrategien in den Unternehmen, die Lösungen aus der physischen Welt einfach auf die Virtualisierung übertragen. Auch die beste Lösung für physische IT-Landschaften ist ungeeignet für virtualisierte Umgebungen.“
„Viele Unternehmen führen Wiederherstellungen von VMs auf gut Glück aus“, sagt Andreas Neufert, Systems Engineer Central Europe bei Veeam Software (Bild: Veeam Software).
Der „Virtualization Data Protection Report 2011“ von Veeam Software zeigt ebenfalls erheblichen Nachholbedarf bei der Datensicherung geschäftskritischer Server. Das damit verbundene finanzielle Risiko werde oft unterschätzt: Laut dem Bericht beläuft es sich den Antworten von CIOs aus großen Unternehmen zufolge auf durchschnittlich 325.900 Euro pro Stunde und Server. Aus der durchschnittlichen Wiederherstellungszeit von vier Stunden errechnen die Autoren der Studie ein Schaden in Höhe von 1,3 Millionen.
Das klingt viel, aber es gibt auch gute Gründe dafür: „Die Grundidee hinter der Virtualisierung ist es, mehr Systeme auf einem physischen System zu konsolidieren. Durch diese Konsolidierung ist die Dichte kritischer Komponenten auf einer einzigen Server-Plattform signifikant erhöht worden. Daraus ergeben sich mehrere Konsequenzen: Mehr Systeme bedeutet mehr Daten, und ein Fehler bei der Hardware eines Servers wirkt sich sofort auf eine Vielzahl von virtuellen Servern aus“, sagt Andreas Bechter, als Produktmanager bei Symantec in Europa für die Lösung NetBackup zuständig.
Die Zahlen über Verluste bei Ausfällen virtueller Maschinen mögen für viele mittelständische Firmen zu hoch gegriffen sein. Dennoch gilt auch für sie, was Techconsult-Analyst Stefan Neitzel bereits im vergangen Jahr festgestellt hat: Die größten Schwierigkeiten bei der Datensicherung virtueller Umgebungen sind der höhere Speicherbedarf, die Geschwindigkeit des Backups und insbesondere die gestiegene Komplexität des Backup-Managements.
„Mit dem Einsatz von Virtual Machines hat sich die Anzahl der laufenden Systeme erhöht und somit letztlich auch die Anzahl der zu sichernden Daten. Die beliebte Sicherung gesamter Images erlaubt jedoch nicht das zielgerichtete Backup wichtiger Dateien, sondern sichert die gesamte virtuelle Maschine, zum Beispiel inklusive Betriebssystem“, so Neitzel. Dabei werde die Notwendigkeit älterer gesicherter Images nur selten überprüft – in der Folge häuften sich redundante Sicherungen in den Archiven.
Hohe versteckte Kosten durch Virtualsierung
Darauf, dass eine unpassende Datensicherungsstrategie die Kosten unnötig in die Höhe treibt, weist auch Veeam in seinem Jahresbericht hin. Die Server-Virtualisierung, die besseres Management und Kostenvorteile verspricht, spielt in den meisten Unternehmen inzwischen eine wichtige Rolle. Die befragten CIOs klagen dennoch insbesondere über drei Punkte: Hardwarekosten, Kosten der Replikations-Software und die Komplexität der Materie insgesamt.
Den Grund für die hohen Kosten sieht Veeam-CEO Ratmir Timashev in einer unreifen Datensicherungsstrategie: „Da 80 Prozent der CIOs bei der Datenreplizierung auf herkömmliche agentenbasierte Lösungen setzen, gibt es beim Volumen der replizierbaren Daten kaum einen Unterschied zwischen physischen und virtuellen Maschinen.“ Das treibe natürlich die Kosten in die Höhe. „Man versucht, die Denkweise der physischen Welt auf die Virtualisierung zu übertragen“, so Timashev weiter. „Dadurch wird das Potenzial der Technologie nicht ausgeschöpft und werden die Bemühungen der Unternehmen, ihre Datensicherheitsstrategien zu verbessern, ausgebremst.“
Und das Problem wird noch größer werden: In kleinen und mittleren Unternehmen sind in Deutschland derzeit im Durchschnitt mindestens ein Drittel aller produktiven Server virtualisiert. Diesen Wert hatte das Ponemon Institute bereits im Herbst 2010 ermittelt. Die Analysten gingen davon aus, dass der Wert 2011 auf etwa 50 Prozent klettert. Eine ähnliche Einschätzung hat Gartner im März 2011 abgegeben: Ende des Jahres sollte rund die Hälfte aller Workloads, die auf x86-Architekturen abgearbeitet werden, in virtuellen Maschinen laufen. Der auf einer Umfrage basierende V-Index von Veeam hat im September 2011 in deutschen Firmen einen Virtualisierungsgrad von 44,1 Prozent ermittelt – also etwas weniger, als die Prognosen der Marktforscher.
„Hinzu kommt, dass die IT-Landschaft immer heterogener ist“, so Symantec-Experte Bechter. „Die traditionelle Client-Server-Architektur wird virtualisiert und Teile davon an die Cloud gekoppelt. Immer unterschiedlichere Anwendungen und mobile Geräte greifen auf die Daten zu und verteilen sie. Dies führt zu einer enormen Komplexität von isolierten Lösungen für einzelne Systeminseln. Ein plattformübergreifendes Backup ist nicht nur extrem aufwändig, sondern benötigt auch umfangreiche personelle wie finanzielle Ressourcen.“ Seiner Ansicht nach brauche es eine ganzheitliche Strategie, die Informationen unabhängig von Systemen, Datentypen und Anwendungen im Blick hat, um den Arbeitsalltag der IT-Verantwortlichen zu erleichtern.
Neueste Kommentare
Noch keine Kommentare zu Servervirtualisierung: ein Schwarzes Loch für Daten?
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.