Auf x86-Servern mit virtuellen Maschinen zu arbeiten, ist heute allgemein üblich. In kaum einem Unternehmen verzichtet man noch darauf. Dabei wird leicht vergessen, dass es sich, abgesehen von IBM-Mainframes, auf denen seit den 70er Jahren virtualisiert wird, um eine noch junge Technologie handelt, die viel Know-how und Geduld bei den Anwendern voraussetzt. Aber beides ist nicht immer vorhanden.
Die Folgen können schwerwiegend sein. Bei Kroll Ontrack, einem Spezialisten für Datenrettung, gingen sowohl 2010 als auch 2011 jeweils etwas über 60 Prozent mehr Anfragen zur Datenrettung von virtuellen Systemen ein, als im Jahr zuvor. Für Holger Engelland, Manager Data Recovery bei Kroll Ontrack, legen diese Zahlen die Vermutung nahe, dass es mit wachsender Verbreitung der Virtualisierung in Unternehmen auch häufiger zu Datenverlusten in virtuellen Umgebungen kommt.
Um diese Vermutung zu überprüfen, hat das Unternehmen 2011 weltweit rund 800 mit Virtualisierung befasste IT-Profis zu ihren Erfahrungen befragt. Die Erhebung fand auf den VMware-Foren in Dänemark, den USA und Australien statt, außerdem wurden telefonisch etwas über 100 deutsche Besucher von VMware-Veranstaltungen befragt. Von allen Befragten hatten 69 Prozent Erfahrungen mit Datenverlust auf virtuellen Systemen gemacht. Bei jedem siebten war das sogar mehr als fünfmal im Jahr der Fall.
Die Hälfte (51 Prozent) der weltweit befragten Firmen, die einen Datenverlust zugegeben hatten, konnten nicht alle Daten wieder herstellen. In Deutschland liegt dieser Wert deutlich niedriger. Hierzulande konnten 64 Prozent die Daten vollständig herstellen und acht Prozent immerhin noch zu 70 Prozent. Dass Fast 28 Prozent keine Antwort geben wollten, sieht Kroll Ontrack aber als Zeichen, dass es durchaus große Probleme gab, die Unternehmen diese aber nicht zugeben wollen.
„Die Studienergebnisse von Kroll Ontrack spiegeln zum Teil auch die Erfahrung von VMware wider“, sagt Erwin Breneis, Lead Systems Engineer bei VMware gegenüber ZDNet. Den Verdacht, dass die Lösungen aus seinem Hause dafür mitverantwortlich sein könnten, will er aber nicht aufkommen lassen: „Wenn Daten verloren gehen, sind dies überwiegend bedienungsspezifische Fehler, die sich aber mit eingebauter Gewaltenteilung, Alarmierungen und einem schlüssigen Datensicherungskonzept vermeiden ließen. Dies betrifft grundsätzlich physische und virtuelle IT-Umgebungen gleichermaßen, gleich auf welchen Technologien sie bauen.“
Laut Breneis liefere das mittlerweile in der vierten Version befindliche verteilte Filesystem von VMware eine ausgesprochen stabile Performance. „Mit einer technischen Fehlerquote des Distributed Journaling Filesystems von nur einem Prozent bietet es auch den auf dem Markt größtmöglichen Schutz vor Datenverlusten. Die Verfügbarkeit geht drastisch nach oben, wenn die richtige Konzeption und die richtige Datensicherungs- beziehungsweise Disaster-Recovery-Strategie implementiert wurde und auf die Bedürfnisse zugeschnitten worden sind.“ Um das zu erreichen, empfiehlt Breneis auf VMware-zertifizierte Partner aus dem Partnernetzwerk oder VMware Professional Services zurückzugreifen.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…