Servervirtualisierung: ein Schwarzes Loch für Daten?

„Der Umgang mit der Komplexität virtueller Infrastrukturen erfordert neue Herangehensweisen und Fähigkeiten. Um die Datensicherheit zu gewährleisten, müssen Mitarbeiter mit der SAN-Architektur umgehen können, aber auch die virtuellen Netzwerke sichern und die Interaktion mit dem Host-Server auf der Befehlszeilenebene beherrschen. Für diese Komplexität müssen die IT-Mitarbeiter erst einmal geschult und eingearbeitet werden“, so Engelland.

Das sieht Veeam-Experte Neufert ähnlich, er will aber nicht in erster Linie die fehlenden Detailkenntnissen der Mitarbeiter als Fehlerquelle verstanden wissen, sondern fordert ein grundsätzliches Umdenken: „Die Ursache liegt nach unserer Erfahrung im fehlendem Verständnis für die Besonderheiten der Virtualisierung. Vermehrte Datenverluste sind häufig ein Resultat falscher Datensicherungsstrategien in den Unternehmen, die Lösungen aus der physischen Welt einfach auf die Virtualisierung übertragen. Auch die beste Lösung für physische IT-Landschaften ist ungeeignet für virtualisierte Umgebungen.“


„Viele Unternehmen führen Wiederherstellungen von VMs auf gut Glück aus“, sagt Andreas Neufert, Systems Engineer Central Europe bei Veeam Software (Bild: Veeam Software).

Der „Virtualization Data Protection Report 2011“ von Veeam Software zeigt ebenfalls erheblichen Nachholbedarf bei der Datensicherung geschäftskritischer Server. Das damit verbundene finanzielle Risiko werde oft unterschätzt: Laut dem Bericht beläuft es sich den Antworten von CIOs aus großen Unternehmen zufolge auf durchschnittlich 325.900 Euro pro Stunde und Server. Aus der durchschnittlichen Wiederherstellungszeit von vier Stunden errechnen die Autoren der Studie ein Schaden in Höhe von 1,3 Millionen.

Das klingt viel, aber es gibt auch gute Gründe dafür: „Die Grundidee hinter der Virtualisierung ist es, mehr Systeme auf einem physischen System zu konsolidieren. Durch diese Konsolidierung ist die Dichte kritischer Komponenten auf einer einzigen Server-Plattform signifikant erhöht worden. Daraus ergeben sich mehrere Konsequenzen: Mehr Systeme bedeutet mehr Daten, und ein Fehler bei der Hardware eines Servers wirkt sich sofort auf eine Vielzahl von virtuellen Servern aus“, sagt Andreas Bechter, als Produktmanager bei Symantec in Europa für die Lösung NetBackup zuständig.

Die Zahlen über Verluste bei Ausfällen virtueller Maschinen mögen für viele mittelständische Firmen zu hoch gegriffen sein. Dennoch gilt auch für sie, was Techconsult-Analyst Stefan Neitzel bereits im vergangen Jahr festgestellt hat: Die größten Schwierigkeiten bei der Datensicherung virtueller Umgebungen sind der höhere Speicherbedarf, die Geschwindigkeit des Backups und insbesondere die gestiegene Komplexität des Backup-Managements.

„Mit dem Einsatz von Virtual Machines hat sich die Anzahl der laufenden Systeme erhöht und somit letztlich auch die Anzahl der zu sichernden Daten. Die beliebte Sicherung gesamter Images erlaubt jedoch nicht das zielgerichtete Backup wichtiger Dateien, sondern sichert die gesamte virtuelle Maschine, zum Beispiel inklusive Betriebssystem“, so Neitzel. Dabei werde die Notwendigkeit älterer gesicherter Images nur selten überprüft – in der Folge häuften sich redundante Sicherungen in den Archiven.

Hohe versteckte Kosten durch Virtualsierung

Darauf, dass eine unpassende Datensicherungsstrategie die Kosten unnötig in die Höhe treibt, weist auch Veeam in seinem Jahresbericht hin. Die Server-Virtualisierung, die besseres Management und Kostenvorteile verspricht, spielt in den meisten Unternehmen inzwischen eine wichtige Rolle. Die befragten CIOs klagen dennoch insbesondere über drei Punkte: Hardwarekosten, Kosten der Replikations-Software und die Komplexität der Materie insgesamt.

Den Grund für die hohen Kosten sieht Veeam-CEO Ratmir Timashev in einer unreifen Datensicherungsstrategie: „Da 80 Prozent der CIOs bei der Datenreplizierung auf herkömmliche agentenbasierte Lösungen setzen, gibt es beim Volumen der replizierbaren Daten kaum einen Unterschied zwischen physischen und virtuellen Maschinen.“ Das treibe natürlich die Kosten in die Höhe. „Man versucht, die Denkweise der physischen Welt auf die Virtualisierung zu übertragen“, so Timashev weiter. „Dadurch wird das Potenzial der Technologie nicht ausgeschöpft und werden die Bemühungen der Unternehmen, ihre Datensicherheitsstrategien zu verbessern, ausgebremst.“

Und das Problem wird noch größer werden: In kleinen und mittleren Unternehmen sind in Deutschland derzeit im Durchschnitt mindestens ein Drittel aller produktiven Server virtualisiert. Diesen Wert hatte das Ponemon Institute bereits im Herbst 2010 ermittelt. Die Analysten gingen davon aus, dass der Wert 2011 auf etwa 50 Prozent klettert. Eine ähnliche Einschätzung hat Gartner im März 2011 abgegeben: Ende des Jahres sollte rund die Hälfte aller Workloads, die auf x86-Architekturen abgearbeitet werden, in virtuellen Maschinen laufen. Der auf einer Umfrage basierende V-Index von Veeam hat im September 2011 in deutschen Firmen einen Virtualisierungsgrad von 44,1 Prozent ermittelt – also etwas weniger, als die Prognosen der Marktforscher.

„Hinzu kommt, dass die IT-Landschaft immer heterogener ist“, so Symantec-Experte Bechter. „Die traditionelle Client-Server-Architektur wird virtualisiert und Teile davon an die Cloud gekoppelt. Immer unterschiedlichere Anwendungen und mobile Geräte greifen auf die Daten zu und verteilen sie. Dies führt zu einer enormen Komplexität von isolierten Lösungen für einzelne Systeminseln. Ein plattformübergreifendes Backup ist nicht nur extrem aufwändig, sondern benötigt auch umfangreiche personelle wie finanzielle Ressourcen.“ Seiner Ansicht nach brauche es eine ganzheitliche Strategie, die Informationen unabhängig von Systemen, Datentypen und Anwendungen im Blick hat, um den Arbeitsalltag der IT-Verantwortlichen zu erleichtern.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Apple schließt Zero-Day-Lücken in iOS, iPadOS und macOS

Zwei von Google-Mitarbeitern entdeckte Schwachstellen werden bereits aktiv gegen Mac-Systeme mit Intel-Prozessoren eingesetzt. Sie erlauben…

2 Tagen ago

Gefährliche Anzeigen für Passwortmanager Bitwarden verbreiten Malware

Die Hintermänner haben es unter anderem auf Daten von Facebook-Geschäftskonten abgesehen. Opfer werden über angebliche…

3 Tagen ago

Public Cloud: Gartner erwartet 2025 weltweite Ausgaben von 723 Milliarden Dollar

Bis 2027 werden 90 Prozent der Unternehmen eine Hybrid-Cloud-Strategie umsetzen.

3 Tagen ago

iPhone 15 ist bestverkauftes Smartphone im dritten Quartal

Apple belegt in der Statistik von Counterpoint die ersten drei Plätze. Samsungs Galaxy S24 schafft…

3 Tagen ago

So günstig & effizient war Content Produktion noch nie: Neues Content System erobert deutschen Markt

Kontinuierliche Content Produktion und Markenaufbau sind essentieller Pfeiler von langfristigen Unternehmenserfolg. Das ist mittlerweile auch…

3 Tagen ago

Lenovo übertrifft die Erwartungen und hebt Prognose an

KI-Funktionen beschleunigen die Erholung des PC-Markts. Der Nettogewinn legt um 44 Prozent zu, der Umsatz…

4 Tagen ago