„Doppelt hält besser“, heißt es landläufig, wenn man denkt, dass etwas außerordentlich gründlich erledigt wurde. Gerade in schwierigen Zeiten stellt sich aber schnell die Frage, ob das wirklich wahr ist: Reicht einmal gut gemacht nicht doch aus? Und ist „doppelt“ vielleicht einfach auch doppelt so teuer? Im Zusammenhang mit Datenspeicherung stellen sich diese Fragen derzeit besonders viele IT-Verantwortliche.
Das Zauberwort, das eine Antwort verspricht, ist „Deduplizierung“. Wie wichtig das eigentlich schon lange im Markt diskutierte Thema aktuell ist, zeigt die Übernahmeschlacht um Data Domain zwischen NetApp und EMC: Die beiden Firmen haben in den vergangenen Wochen erbittert um die Übernahme des Deduplizierungsspezialisten gekämpft – obwohl beide entsprechende Funktionen schon länger selbst anbieten. Offenbar lassen diese sich aber mit den Technologien von Data Domain noch erheblich verbessern, denn schließlich bezahlt EMC für den Anbieter rund 2,1 Milliarden Dollar.
Ein ganz schöner Batzen Geld, wenn man bedenkt, dass Data Domain 2008 gerade mal einen Umsatz 274,1 Millionen und einen Gewinn von 8,4 Millionen (nach GAAP) erwirtschaften konnte. Allerdings konnte der Umsatz im Vergleich zum Vorjahr mehr als verdoppelt werden (plus 122 Prozent), was zeigt, dass die Nachfrage nach Deduplizierung rasant steigt. Was hat es aber genau damit auf sich?
Deduplizierung hat viel mit der Komprimierung von Daten gemeinsam. Man könnte jedoch sagen, dass im Vergleich zu Komprimierung, wo im übertragenen Sinne mit der Nagelfeile gearbeitet wird, Deduplizierung mit dem Hobel zu Werke geht. Deduplizierung sucht nach langen, gleichen Byte-Sequenzen und ersetzt diese wenn möglich durch einen Verweis, statt sie nochmals zu speichern. Der Clou dabei ist, dass dies für Anwendungen und Anwender vollkommen transparent geschieht. Sie greifen wie gewohnt auf die Dateien zu.
Besonders augenfällig sind die Vorteile der Deduplizierung beim Backup: Wird beispielsweise von einem Laufwerk jede Woche eine Sicherungskopie erstellt, entsteht dadurch eine riesige Menge an mehrfach vorhandenen Daten. Mit Algorithmen für die Deduplizierung lassen sich dagegen nur die tatsächlich veränderten Bereiche neu sichern, auf bereits vorhandene wird lediglich verwiesen. Dadurch lassen sich Speicherkapazitäten in großem Umfang einsparen. Wie viel genau, ist jedoch stark davon abhängig, um welche Art von Daten es sich handelt.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…