Bei der Virtualisierung über eine Anwendung im SAN unterscheidet man zwischen In-Band- (symmetrisch) und Out-of-Band-Virtualisierung (asymmetrisch). Bei der In-Band-Virtualisierung passiert der I/O-Datenstrom die Anwendung; bei der Out-of-Band-Virtualisierung kontrolliert die Anwendung von außerhalb den Datenfluss, ohne die Daten selbst zu steuern. Anfangs habe IBM auf die Implementierung von Anwendungen für In-Band-Virtualisierung gesetzt, da hierbei ein Caching für verbesserte Performance eingesetzt werden könne und entfernte Kopien sich leichter erstellen ließen, erläutert Barker. Zukünftig werde das Unternehmen eventuell zusätzlich eine Switch- und Speichervirtualisierung ins Auge fassen.
CASA von HP sei eine Anwendung zur In-Band-Virtualisierung, die den Datenfluss überwache und verwalte und daher auch Replikationsfunktionen ausführen könne, einschließlich der Datenreplikation von teuren Platten-Arrays zu günstigeren Speichersystemen, so Selway.
Wenn man einen guten Preis und ein ausgewogenes Redundanzniveau erwarte, müsse man mehrere Technologien kombinieren, stellt Antal fest. „Egal wo die Virtualisierungs-Engine platziert wird, es gibt immer Vor- und Nachteile.“ Palermo stimmt dem zu: „Speicher können auf allen drei Ebenen einzeln oder zusammen virtualisiert werden“, wobei jede Lösung einen anderen Mehrwert erzeuge.
Herausforderung: Dateisystem
Laut Barker müsse als nächste Herausforderung ein allgemeines, auf offenen Standards basierendes Dateisystem entwickelt werden. Bis Ende des Jahres werde das SAN File System von IBM (ehemals StorageTank) ein einheitliches Dateisystem mit nur einem Namensraum bieten. Hier würden alle Dateien Plattform-unabhängig in einem einzigen Verzeichnisbaum dargestellt werden, sodass die gesamte Dateiverwaltung von einer einzigen Konsole aus erfolgen könne.
In zwei oder drei Jahren werden Speichersysteme automatisch vorgegebene Service Levels einhalten. Dan Kieran, National Storage Business Manager bei Sun |
Außerdem werde das Filesharing zwischen Plattformen verbessert, wodurch eine Dateireduplikation zwischen den verschiedenen Betriebssystemen eventuell vermieden werden könne, fährt Barker fort. Dies würde den Verwaltungsaufwand verringern und den Nutzen steigern. Das SAN File System unterstütze zusätzlich die Regel-basierte Dateiablage, sodass Daten anhand ihnen zugewiesener Eigenschaften lokalisierbar seien, wodurch Unternehmen verschiedene Speichersysteme optimal nutzen könnten. Laut Barker könne das Dateisystem auch in Verwaltungsprogramme (wie Tivoli Storage Resource Management) integriert werden, die ermittelten, ob das erforderliche Performance-Niveau für bestimmte Daten erreicht wird. Andernfalls teile das SRM-Programm von Tivoli SAN File System mit, dass Änderungen benötigt werden. SAN File System wiederum erteile Anweisungen an die Virtualisierungsebene, die Daten auf ein besser geeignetes Speichersystem zu verschieben.
Weitere Entwicklungsschritte
Nach Meinung von Kieran werde die Speicherentwicklung in drei Phasen stattfinden. Die erste Phase sei die Virtualisierung, in der es um Fragen der Zuweisung, Überwachung und Messung gehe. Phase zwei sei die automatisierte Bereitstellung, sodass das System beispielsweise bei der Neueinrichtung von 5000 E-Mail-Konten die erforderlichen liefere. Die Automatisierung von Richtlinien erfolge dann in Phase drei: In zwei oder drei Jahren würden Speichersysteme automatisch vorgegebene Service Levels einhalten.
Selway glaubt, dass Unternehmen wie Brocade noch in diesem Jahr Systeme zur Handhabung der Fabric-Virtualisierung auf den Markt bringen werden. Replikationsfunktionen würden in Switches integriert werden, sodass die Unternehmen keine unterschiedlichen Replikationsprodukte für Arrays verschiedener Hersteller mehr benötigten. Die Hersteller würden allerdings jeweils eigene Verwaltungstools zur Steuerung der Switches liefern.
Die neuen Switches ermöglichen auch eine flexible Auswahl von Fibre Channel oder IP für jeden einzelnen Port, sodass Unternehmen zu gegebener Zeit iSCSI ohne Unterbrechungen übernehmen können.
Wie die derzeitigen Speicherlösungen wären auch die ersten auf dieser Plattform basierenden Produkte „nicht zum Herumprobieren geeignet“, warnt Blandini. Anwendungen im Fabric-Switching würden zu Anfang noch vereinzelte Funktionen für bestimmte, qualifizierte Produkte beinhalten, „mit der Zeit werden die OEMs dann mehr Lösungen qualifizieren, sodass immer mehr Produkte zusammenarbeiten“. Dennoch sei es unwahrscheinlich, dass je alle Produkte untereinander kompatibel einsetzbar würden. Später würden auch verschiedene, kombinierte Produkte untereinander kompatibel sein. Nach Ansicht von Brandini würden die Kunden gegen Ende 2004 eine Interoperabilität fordern, wobei „führende unabhängige Softwareanbieter wohl eine zentrale Rolle spielen dürften“.
Eine in Switches integrierte Virtualisierung umgehe die Grenzen und Engpässe der Rechner-Hardware und biete eine nahtlose Integration in die Netzwerkinfrastruktur, mit Effizienzsteigerung und Kostenreduzierung für die Verwaltung, so Selway weiter. „Die Branche ist generell der Ansicht, dass hier die technologische Entwicklung in diese Richtung geht.“
Eine Studie von Akamai deckt Folgen wie emotionaler Stress und Rückgang des Selbstwertgefühls auf. Ein…
Das Tool liefert wiederholt Falschmeldungen. Es erkennt bei einem Scan bereits reparierte Systemdateien weiterhin als…
Ein DDoS-Angriff legt große Teil des Internet Archive lahm. Während die Wayback Machine wieder im…
In der heutigen digitalen Ära ist eine starke Online-Präsenz für kleine und mittlere Unternehmen (KMU)…
Werbemüdigkeit ist weit verbreitet. Fast jeder zweite deutsche Internetnutzer setzt Adblocker ein, um Online-Werbung zu…
Neue Geräte von Apple und Samsung kurbeln die Nachfrage an. Aber auch chinesische Hersteller wie…