Categories: Unternehmen

Deduplizierung: Storagekosten schnell und nachhaltig senken

„Doppelt hält besser“, heißt es landläufig, wenn man denkt, dass etwas außerordentlich gründlich erledigt wurde. Gerade in schwierigen Zeiten stellt sich aber schnell die Frage, ob das wirklich wahr ist: Reicht einmal gut gemacht nicht doch aus? Und ist „doppelt“ vielleicht einfach auch doppelt so teuer? Im Zusammenhang mit Datenspeicherung stellen sich diese Fragen derzeit besonders viele IT-Verantwortliche.

Das Zauberwort, das eine Antwort verspricht, ist „Deduplizierung“. Wie wichtig das eigentlich schon lange im Markt diskutierte Thema aktuell ist, zeigt die Übernahmeschlacht um Data Domain zwischen NetApp und EMC: Die beiden Firmen haben in den vergangenen Wochen erbittert um die Übernahme des Deduplizierungsspezialisten gekämpft – obwohl beide entsprechende Funktionen schon länger selbst anbieten. Offenbar lassen diese sich aber mit den Technologien von Data Domain noch erheblich verbessern, denn schließlich bezahlt EMC für den Anbieter rund 2,1 Milliarden Dollar.

Ein ganz schöner Batzen Geld, wenn man bedenkt, dass Data Domain 2008 gerade mal einen Umsatz 274,1 Millionen und einen Gewinn von 8,4 Millionen (nach GAAP) erwirtschaften konnte. Allerdings konnte der Umsatz im Vergleich zum Vorjahr mehr als verdoppelt werden (plus 122 Prozent), was zeigt, dass die Nachfrage nach Deduplizierung rasant steigt. Was hat es aber genau damit auf sich?

Deduplizierung hat viel mit der Komprimierung von Daten gemeinsam. Man könnte jedoch sagen, dass im Vergleich zu Komprimierung, wo im übertragenen Sinne mit der Nagelfeile gearbeitet wird, Deduplizierung mit dem Hobel zu Werke geht. Deduplizierung sucht nach langen, gleichen Byte-Sequenzen und ersetzt diese wenn möglich durch einen Verweis, statt sie nochmals zu speichern. Der Clou dabei ist, dass dies für Anwendungen und Anwender vollkommen transparent geschieht. Sie greifen wie gewohnt auf die Dateien zu.

Besonders augenfällig sind die Vorteile der Deduplizierung beim Backup: Wird beispielsweise von einem Laufwerk jede Woche eine Sicherungskopie erstellt, entsteht dadurch eine riesige Menge an mehrfach vorhandenen Daten. Mit Algorithmen für die Deduplizierung lassen sich dagegen nur die tatsächlich veränderten Bereiche neu sichern, auf bereits vorhandene wird lediglich verwiesen. Dadurch lassen sich Speicherkapazitäten in großem Umfang einsparen. Wie viel genau, ist jedoch stark davon abhängig, um welche Art von Daten es sich handelt.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Was kann die Apple Watch Series 10?

Seit Ende September ist sie also verfügbar: die Apple Watch 10. Auch in Deutschland kann…

60 Minuten ago

Microsoft-Clouds: GenAI verändert Servicegeschäft

ISG sieht engere Vernetzung zwischen Hyperscaler, IT-Partnern und Endkunden. Treiber ist das Zusammenspiel von KI…

1 Stunde ago

Agentforce Testing Center: Management autonomer KI-Agenten

Mit dem Tool können Unternehmen KI-Agenten mithilfe synthetisch generierter Daten testen, um präzise Antworten und…

1 Tag ago

NiPoGi AM06 PRO Mini PC: Perfekte Kombination aus Leistung, Flexibilität und Portabilität

Kostengünstiger Mini-PC mit AMD Ryzen 7 5825U-Prozessor, 16 GB Arbeitsspeicher (RAM) und 512 GB SSD.

1 Tag ago

Black Friday: Vorsicht vor schädlichen QR-Codes

Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.

4 Tagen ago

Black Friday: Zahl der ominösen Shopping-Websites steigt

Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.

4 Tagen ago