Categories: CloudCloud-Management

Effektive Sicherung von virtuellen Maschinen

Mehrere 10.000 virtuelle Maschinen (VMs) sind in großen Umgebungen keine Seltenheit. Sie befinden sich verstreut zwischen lokalen Rechenzentren sowie unterschiedlichen Cloud-Diensten, wodurch der Überblick schnell verloren gehen kann. Doch es gibt Mittel und Wege, diese dynamische und wachsende Welt per Backup zu sichern, gleichzeitig aber Aufwand und Kosten so gering wie möglich zu halten.

In vielen Unternehmen wächst die IT-Umgebung rapide. Allerdings verteilen sich dadurch Applikationen und Infrastruktur immer mehr und werden hybrider. IT-Verantwortliche müssen in diesem Kontext dafür Sorge tragen, dass trotzdem sämtliche VMs in der Produktion zuverlässig gesichert sind. Häufig konzentriert sich das Personal in den Bereichen Virtualisierung und Backup auf die eigenen Domänen. Manchmal wird auch eine VM ohne das Wissen eines anderen Teams aufgesetzt. Es empfiehl sich daher, auf eine Automatisierung der Backup-Prozesse zu setzen, um Fehler zu vermeiden. Ansonsten steigt das Risiko, dass aufgrund mangelnder interner Kommunikation neue VMs nicht im Backup-Plan auftauchen.

Punktwerkzeuge nicht zweckmäßig

Für die Virtualisierungs-Experten eines Unternehmens stehen einige Tools zur Sicherung der VMs und deren Informationen zur Verfügung – unter anderem Cloud-native Snapshot-Werkzeuge. Die Nutzung ganz unterschiedlicher Tools führt jedoch im schlimmsten Fall dazu, dass für die Sicherung verschiedener Workloads jeweils ein anderer Ansatz verwendet wird. So entstehen Punktlösungen oder -anwendungen. Dieses Vorgehen führt auf Dauer zu neuen Problemen, denn jede einzelne Anwendung besitzt wiederum individuelle Steuer- und Menüfunktionen. Neue Insellösungen entstehen, der Komplexitätsgrad der Struktur steigt weiter.

Auch bei den Service Level Agreements und Service Level Objectives unterscheiden sich die Punktanwendungen stark. Da bei Einzellösungen eine Überschneidung mit anderen Lösungen vermieden wird, steigt die Gefahr einer lückenhaften Abdeckung. Im Worstcase sind dann die Daten im System nicht gesichert. IT-Verantwortliche können dadurch weder Fristen bei der Wiederherstellung einhalten noch den Anforderungen an die Datenqualität gerecht werden.

Abhilfe schaffen holistische Konzepte bei der Datensicherung – beispielsweise NetBackup 9.0 von Veritas. Diese Lösung ist als Plattform konzipiert und unterstützt mehr als 800 verschiedene Datenquellen, mehr als 60 verschiedene Cloud- und über 1.200 Storage-Infrastrukturen. Sie gewährleistet ein für alle Daten und Applikationen gleiches Level an Datensicherheit. Dabei spielt es keine Rolle, ob die zu sichernde Applikation auf einem IBM-Linux-System läuft oder in der Cloud. Die Vorteile einer umfassenden Plattform für Datensicherung und -management überwiegen die Vorteile aller Insellösungen, die trotz Entwicklung für die Cloud nur wenige Workloads unterstützen.

Das Zauberwort lautet Automatisierung

Einige wesentliche Aspekte sind zu beachten, damit einheitliche Regeln und Vorgaben für alle virtuellen Maschinen und Applikationen gelten. Sobald eine neue VM eingesetzt wird, muss gleichzeitig ein entsprechender Schutzplan mit allen Richtlinien und Konfigurationen verfügbar sein. Dazu gehören sämtliche Bestimmungen bezüglich Speicher, Infrastruktur, Backup-Fenster und dem Zeitintervall, in dem Sicherungskopien der VMs generiert werden. Durch den Ansatz „Set and Forget“ müssen Mitarbeiter nicht mehr jede einzelne virtuelle Maschine im Backup-Plan überprüfen. Voraussetzung dafür ist die Kommunikation zwischen der virtuellen Umgebung und der zentralen Plattform für die Datensicherung sowie die Verbindung über zertifizierte Schnittstellen.

Damit VM-Administratoren keine Nachteile gegenüber ihren gewohnten Punkt-Werkzeugen haben, muss das Plattform-Konzept über eine hohe Nutzerfreundlichkeit und große Freiheiten verfügen. Dies gilt beispielsweise nicht nur im Vergleich zu isolierten Tools, sondern auch für die Autonomie der Administratoren bei der täglichen Arbeit. Denn damit der Admin weiterhin selbstständig mit seinen Workloads arbeiten kann, muss er jederzeit die VMs ohne Abstimmung mit anderen Teams wiederherstellen können.

NetBackup unterstützt einen solchen Ansatz und ermöglicht eine granulare Wiederherstellung der VMs. Der Administrator kann bestimmte VMDK-Objekte reparieren und muss nicht die komplette virtuelle Maschine mounten. Unabhängig vom Backup-Administrator verfügt er über die Option, die komplette VMware vSphere Virtual Maschines über die NetBackup-Appliance zu booten und ohne Zeitverlust den Betrieb wieder aufzunehmen. Dabei wird der Anwender durch eine grafische Oberfläche mit hoher Usability unterstützt. Sie gibt im Hintergrund per Access Control Auskunft über die Berechtigungen des jeweiligen Users und dessen freigeschaltete Tasks. So ist eindeutig reglementiert, wer über welchen Zugriff verfügt und wessen Berechtigungen sich nur auf die Kontrolle des Status Quo beschränken.

Performance als Erfolgsfaktor

Die Leistungsfähigkeit ist in dieser ganzen Struktur der Dreh- und Angelpunkt, wenn mehrere 10.000 virtuelle Maschinen unabhängig von ihrem Standort gesichert werden sollen – auch mit Backup-Zeitfenster. Veritas nutzt hierfür mehrere Ansätze gleichzeitig, um sowohl bei Scale-Up- als auch bei Scale-Out-Architekturen für ausreichend Performance zu sorgen. Dazu gehört beispielsweise die Integration eines Load Balancings für effiziente VM-Backups. Über die Policy werden die Backup-Loads ohne menschliches Zutun unterschiedlichen physischen ESX-Servern zugewiesen. So ist bei der schnellen Erstellung von Backups ein Parallelbetrieb gewährleistet. „Die meisten VMs sind in einer bis fünf Minuten gesichert“, sagt Takuro Suzuki, Manager bei der Network Development Section bei Entetsu.

Zudem nutzt Veritas die so genannte Accelerator-Funktion als eine tragende Säule des Konzepts. Hierdurch werden die verschiedenen Vorteile von Change-Journals, Deduplizierung und optimierten synthetischen Backups kombiniert. Auf diese Weise entfällt die Suche nach modifizierten Informationen im Filesystem und die zu sichernde Datenmenge schrumpft. Da sich Volumes nur in Einzelfällen ändern, steigt die Geschwindigkeit bei der Backuperstellung um den Faktor 100. Dieser Vorteil lässt sich auch auf VMs ausweiten, die ohnehin nicht oft modifiziert werden.

Für die Durchführung wesentlicher Operationen im Bereich großer virtueller Serverfarmen setzt Veritas ganz bestimmte Appliances ein. Sie ermöglichen dem Admin, eine virtuelle Maschine direkt dort zu booten. Prozesse mit hoher CPU-Last sind auf diesen Appliances ebenfalls gut aufgehoben. Dies hilft etwa bei der Deduplizierung von Daten – durchschnittlich mit einem Wert von 50 zu 1. Die Originalgröße einer Datei ist um das 50-fache größer als nach Abschluss des Prozesses, wodurch der Speicherbedarf für die Backups sinkt.

Im Schnitt generieren Unternehmen auf diesem Weg zwölf Kopien ihrer Produktionsdaten, die 70 Prozent ihres Speichers und ihres Budgets beanspruchen. Die erforderliche Menge an Speicherplatz reduziert sich damit um 80 Prozent. Da sich die Kontrolle über vergleichsweise wenig Sicherheitskopien und Daten einfacher gestaltet als bei großen Datenmassen, wird das Sicherheitsniveau verbessert.

Fazit: Vereinheitlichung sorgt für erhöhte Sicherheit

Setzen Unternehmen für ihre Datensicherung auf eine holistische Plattform und nicht auf Punktlösungen, können IT-Verantwortliche beruhigt in die Zukunft blicken. Unabhängig vom Workload – egal ob bei einer Applikation im lokalen Rechenzentrum oder einem dynamischen Dienst in der Cloud – sorgt eine solche Lösung für das fristgerechte Backup sämtlicher Daten und hält sie in Form von Sicherungskopien für eine eventuelle Wiederherstellung bereit.

Veritas nutzt zudem Standardschnittstellen, um bei seiner Plattform NetBackup über so genannte REST-APIs extern mit anderen übergelagerten Systemen wie Remedy zu kommunizieren. Für eine schnellere und einheitliche Reaktion ist hier auch eine Automatisierung gefragt, um im Ernstfall zentrale Standardaufgaben effizient abzuwickeln. Selbst wenn die Unterstützung neuer Workloads erforderlich wird, kann der Nutzer in diesen Fällen auf die skalierbare Architektur dieser Struktur vertrauen.

WEBINAR

Beim Endpunkt-Schutz zählt jede Sekunde: Warum die Entschärfung in Echtzeit entscheidend ist

Carsten Maceus, Systems Engineer bei Fortinet, erläutert in diesem Webinar, wie eine moderne IT-Sicherheitsarchitektur in Unternehmen aussehen sollte. Er illustriert dies am Beispiel eines Fußballstadions wo Bengalos, Flitzer, Ordner und Zuschauer agieren. Spannend.

ZDNet.de Redaktion

Recent Posts

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

6 Stunden ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

10 Stunden ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

10 Stunden ago

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

11 Stunden ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

11 Stunden ago

Netzwerk-Portfolio für das KI-Zeitalter

Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…

13 Stunden ago