Zwar sieht Kieran von Sun Microsystems ebenfalls die Gefahr einer CPU-Überlastung durch Host-basierte Virtualisierung, er stellt jedoch den Vorteil heraus, auf diese Weise Laufwerke verschiedener Hersteller einsetzen zu können.

Durch die in Switches integrierte Virtualisierung könnten günstigere Platten-Laufwerke virtualisiert werden, doch seien als Benutzerschnittstelle und zur Prozessverwaltung „weiterhin einige Host-Komponenten beteiligt“, meint Antal. Virtualisierung im Switch könne die Performance verbessern, da die Abläufe in der plattennahen Hardware stattfänden. Diese Anordnung erleichtere darüber hinaus die Verwaltbarkeit und den Zugriff von verschiedenen Betriebssystemen aus.

Blandini von Brocade führt hierzu weiter aus, dass Unternehmen mit Storage-Arrays unterschiedlicher Hersteller derzeit eine Expertise in vielen Replikationstechnologien benötigten. Die Fabric-Virtualisierung ermögliche mit einer einzigen Anwendung eine beliebige Replikation, sogar beim Kopieren von Daten von einem High-Performance-Array zu Midrange-Laufwerken oder entfernten Standorten.

Durch Switch-basierte Virtualisierung hätten Speicheranbieter „ein neues Verkaufsargument für ihre Speichersoftware an der Hand“, meint Blandini weiter. Jedes ihrer Produkte biete einen speziellen Nutzen und die Gewinnchancen seien günstig, da die Kunden zwar vielleicht Speicherlösungen von drei oder vier Herstellern nutzten, diese jedoch mit nur einem Softwarepaket verwalten wollten.

Laut Antal bestehe ein weiterer Grund für die breite Anwendung der Virtualisierung im Switch darin, dass Switches zur Vermeidung eines Single-Point-of-Failure kostengünstiger zu Clustern zusammengeschlossen werden könnten, als dies eine auf geclusterten Servern ausgeführte Virtualisierungssoftware ermögliche.

Diese Anordnung biete nach Ansicht von Kieran im Host- und Speicherbereich mehr Flexibilität. Genau in diesem Bereich setze die einen Teil der N1-Strategie von Sun bildende Data Services Platform (DSP) an. Während NAS eher Datei-orientiert und SAN Block-orientiert ausgerichtet seien, arbeite DSP sowohl mit Datenblöcken als auch mit Dateien: „Alle Daten werden gleich behandelt.“ In dieser Schicht würden Volumenverwaltung, Point-in-Time-Kopien und sonstige Funktionen ausgeführt.

Obwohl die ersten DSP-Produkte bereits auf dem Markt sind, habe Sun sich dennoch entschlossen, zu Anfang eher Dienste statt Produkte anzubieten, da „wir optimale Verfahren und Implementierungen entwickeln wollen“, so Kieran.

Vom Switch zur Anwendung

Bregman berichtet, dass Switch-Hersteller, die eine Fabric-basierte Virtualisierung implementieren wollen, gerne nach dem Grundsatz „kein Problem, es geht ja nur um eine Software, das machen wir selbst“ vorgingen. Die Verwaltung von persistenten Daten im Netzwerk unterscheide sich jedoch stark von den Anforderungen der Datenkommunikation, mit denen sie üblicherweise zu tun haben, weshalb Hersteller wie Maxxan Systems stattdessen Software von Veritas in ihre Switches integrierten.

Die Data Services Platform von Sun arbeitet sowohl mit Datenblöcken als auch mit Dateien: Alle Daten werden gleich behandelt.

Dan Kieran, National Storage Business Manager bei Sun

Bregman erwartet, dass die Entwicklung der Speichervirtualisierung nach dem Muster des Client-Server-Computing verlaufen wird: Host-basierte Systeme wurden von Client-Servern abgelöst und machten dann den Sprung zu mehrschichtigen Modellen. Nach seiner Einschätzung werde die Virtualisierung von einem Host-zentrierten, zu einem Switch-basierten Modell übergehen, das dann von einem kollaborativen Modell ersetzt werde.

Anwendungen wirkten wie eine Art Blackbox, da sie die Virtualisierung durchführten, ohne dass der Administrator eine echte Kontrolle über die Abläufe habe, so Antal. Seiner Meinung nach beinhaltet der Einsatz einer Anwendung das Risiko eines Single-Point-of-Failure.

Auch Madarevic ist gegenüber diesen Anwendungen kritisch. Laut Madarevic sind „In-Band-Hardware-Komponenten [z. B. Virtualisierungsanwendungen] eventuell ungeeignete Lösungen, da sie die Komplexität erhöhen“. Als besseren Ansatz schlägt er vor, intelligente Lösungen in bereits existierende Komponenten wie die Switches zu integrieren.

Einige namhafte Hersteller, darunter IBM und HP, haben sich für die Anwendungs-Lösung entschieden.

Bestehende SANs seien komplex aufgebaut, insbesondere wenn es um höhere Funktionen wie Point-in-Time-Kopien oder entfernte Kopien geht, meint Mike Zisman, Vice President für Corporate Strategy bei IBM. Auch in Bezug auf die Interoperabilität würden „eine Menge Dinge nicht wie geplant funktionieren“.

Die erste Version der Virtualisierungsanwendung von IBM unterstütze zwei IBM-Plattensysteme, so Barker, wobei bis Ende des Jahres jedoch weitere Einheiten anderer Hersteller sowie verschiedene Betriebssysteme unterstützt werden sollen.

Page: 1 2 3 4 5 6 7 8 9 10 11 12 13 14

ZDNet.de Redaktion

Recent Posts

Windows Server: Microsoft kündigt Support-Ende für VPN-Protokolle PPTP und L2TP an

Beide Protokolle gelten ab sofort als veraltet und werden nicht mehr weiterentwickelt. Der Support für…

4 Wochen ago

Chrome 130 schließt 17 Sicherheitslücken

Betroffen sind Chrome für Windows, macOS und Linux. Der schwerwiegendste Fehler steckt in der Komponente…

4 Wochen ago

Cyberbedrohungen: Deutschland ist digital nur „bedingt abwehrbereit“

Ein Viertel der Entscheidungsträger in Politik und Verwaltung spricht sogar vom Fehlen jeglicher Abwehrbereitschaft. Die…

4 Wochen ago

Ransomware-Angriffe führen häufig auch zu Datenverlusten

Der Anteil steigt der Vorfälle mit Datenverlusten steigt 2024 deutlich an. Einige Unternehmen melden nach…

1 Monat ago

Identitätsdiebstahl post mortem – Deepfakes aus dem Jenseits?

60 Prozent der Deutschen befürworten, dass Onlinenutzer per Testament darüber verfügen, was im Todesfall mit…

1 Monat ago

ISG-Studie: Hohe SASE-Nachfrage treibt deutschen SDN-Markt

Werkzeuge und Architekturkonzepte wissen zu überzeugen. Zudem wächst die Zahl der Dienstleister mit ausreichender Umsetzungsexpertise.

1 Monat ago