Categories: Unternehmen

Thin Provisioning als Basis für Utility Storage

Hat Ihr Unternehmen Schwierigkeiten, den in Spitzenzeiten aufkommenden Bedarf an Speicherressourcen wirtschaftlich sinnvoll abzudecken? Haben Sie überschüssige Speicherkapazitäten, die andere Bereiche Ihres Unternehmens nutzen könnten? Wenn Sie eine dieser beiden Fragen mit „Ja“ beantworten, könnte Utility Computing für Ihr Unternehmen genau richtig sein – beziehungsweise Utility Storage.

Utility Storage ist der speicherbezogene Eckpfeiler und somit die Grundlage für Utility Computing. Ähnlicher wie einst monolithische Speichersysteme für Mainframe-Systeme konzipiert wurden, gefolgt von (offenen) Dual-Controller-Midrange-Speichersystemen für die verteilte Datenverarbeitung, wurde das Utility-Storage-Konzept für die neuen Anforderungen im Utility Computing entwickelt. „Unternehmen haben seit langem gegen das Unvermögen angekämpft, Daten vollständig auszunutzen. Die nächste Utility-Storage-Generation, bietet jedoch den Kunden die Mittel, um selbst Serviceanbieter zu werden und Informationen voll auszunutzen“, erklärte Stephanie Balouras, Senior Analystin bei der Yankee Group.

Die Gartner Group gibt folgende Empfehlung: „Unternehmen, die die Implementierung von In-Band-Plattenvirtualisierungs-Appliances in Erwägung ziehen, sollten alternative Speicherinfrastrukturszenarien mit hoch funktionalen Speicher-Arrays und Migrations-Tools entwickeln und anschließend die Vorteile, Betriebskosten und Risiken der einzelnen Lösungen miteinander vergleichen.“ Da Utility Storage auf der Virtualisierung von Speicherressourcen beruht, gibt es zwei grundsätzliche Ansätze für eine entsprechende Implementierung:

  • Mehrschichtige Virtualisierung und Bereitstellung von Ressourcen. Hierbei wird eine Appliance oder Software auf herkömmliche (nicht virtualisierte) Ressourcen aufgesetzt. Der wesentliche Vorteil dieses Ansatzes besteht darin, dass man bei den Speichersystemen nicht an bestimmte Hersteller gebunden ist. Diese Vorteile lassen sich jedoch nur erzielen, wenn die Appliance bzw. die Software alle einzelnen Komponenten, Treiber und Betriebssysteme, die in der jeweiligen Umgebung vorhanden sind, unterstützt. Darüber hinaus fallen durch diese zusätzliche Ebene weitere Investitions- und Betriebskosten an, die durch die Lizenzgebühren, die Produktkäufe und den zusätzlichen Administrationsaufwand entstehen.

    Die Komplexität dieser mehrschichtigen unternehmensweiten Speicherlösung kann zu einer sehr instabilen Umgebung führen. Schon bei einer einzigen Änderung einer Treiberversion oder durch das Hinzufügen eines neuen Produkts können umfangreiche Tests, Qualitätssicherungsmaßnahmen und eine temporäre Außerbetriebnahme der IT-Umgebung erforderlich werden. Angesichts der Agilität, über die ein modernes Unternehmen im Marktumfeld heute verfügen muss, können entsprechende Maßnahmen dazu führen, dass die IT-Abteilung nicht in der Lage ist, auf die Bedürfnisse des Unternehmens schnell genug zu reagieren.

  • Integrierte Virtualisierung und Bereitstellung von Ressourcen. Hierbei handelt es sich um eine integrierte Software (und/oder Hardware), die Bestandteil der jeweiligen Server- oder Speicherplattform ist. Der Vorteil dieses Ansatzes besteht in der vertikalen (und tief greifenden) Integration innerhalb der Plattform und der einzelnen Releases. Dadurch wird eine stabile Umgebung aufgebaut, bei der keine zusätzlichen Investitions- und Betriebskosten für Lizenzgebühren, Produktkäufe oder zusätzliche Administrationsaufwand nötig sind.

Page: 1 2 3

ZDNet.de Redaktion

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

8 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

1 Tag ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

1 Tag ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

1 Tag ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

1 Tag ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

1 Tag ago