Virtualisierung: Microsoft holt allmählich auf

Beim Thema Virtualisierung hat Microsoft in den vergangenen Jahren viel Boden gutgemacht. Ende 2007 hatten die Redmonder gerade einmal den Virtual Server 2005, einen Hypervisor, der den Anforderungen des Einsatzes in Produktivumgebungen nicht gewachsen war. Tatsächlich wurde das Produkt kaum außerhalb von Entwicklungsumgebungen genutzt, VMware konnte sich in der Windows-Welt eines Quasi-Monopols erfreuen.

Aber seit 2008 hat Microsoft seine Anstrengungen verstärkt, um seinen Rückstand bei Virtualisierung aufzuholen – und das in allen Bereichen, sowohl bei Servern als auch bei Anwendungen, Arbeitsplatzrechnern und Administrationswerkzeugen. Dreh- und Angelpunkt der Microsoft-Strategie ist der Hypervisor Hyper-V.

Er liegt mittlerweile in Version 2 vor und ist im Windows Server 2008 R2 enthalten. Inzwischen wurde er um die wesentlichen Funktionen ergänzt, die ihm gefehlt haben, um sich einem ernsthaften Vergleich mit seinem Wettbewerber von VMware stellen zu können.

Wichtige Neuerungen mit Hyper-V V2

Die wichtigste Neuerung ist „Live Migration“. Sie erlaubt die Migrationen virtueller Maschinen im laufenden Betrieb. Damit ist sie das Gegenstück zu „VMotion“ bei VMware. In der früheren Ausführung von Hyper-V verursachte die damals als „Quick Migration“ bezeichnete Funktion noch eine Verzögerung von einigen Sekunden – zu viel für viele Kunden.

Hyper-V V2 kann jetzt auch die Möglichkeiten ausnutzen, die Hardwareplattformen mit 64-Kernen bieten (im Gegensatz zu 24 bisher). Damit hat Microsoft diesbezüglich mit VMwares vSphere v4 gleichgezogen, die im April vergangenen Jahres vorgestellt wurde. Auch beim verwaltbaren Speicherplatz kann sich Microsoft mit VMware messen: Beide schaffen bis zu einem Terabyte. Bei der Zahl der Kerne, die sich pro virtueller Maschine nutzen lassen, bringt es Hyper-V V2 aktuell nur auf vier, vSphere dagegen auf bis zu acht. Nützlich kann das etwa bei großen SQL-Datenbanken sein.

Bei den Verwaltungsfunktionen für die virtuellen Server hat Microsoft ebenfalls deutliche Fortschritte erzielt. Mit dem Überwachungswerkzeuge System Center Operation Manager lassen sich nun physische und virtuelle Server gleichermaßen kontrollieren.

Der System Center Virtual Machine Manager (SCVMM) dagegen dient vor allem dazu, das Bestehende zu erfassen. Außerdem lassen sich damit physische Server identifizieren, die für die Virtualisierung vorbereitet werden sollen, deren Umwandlung in virtuelle Maschinen – also die Funktion „p2v“ oder „physical to virtual“ – vollziehen, sowie die Zielserver bestimmen, auf denen die virtuellen Maschinen laufen sollen, wobei mögliche Konflikte unter den einzelnen VMs durch ihren Ressourcenverbrauch oder ihre Nutzungszeiten berücksichtigt werden.

Microsofts Verspätung bei Hochverfügbarkeit

Mit der Ende 2009 freigegebenen Version V2 des SCVMM kam – als logischer Schritt – auch die Unterstützung für Live Migration. Außerdem führte Microsoft eine „Storage Quick Migration“ genannte Funktion ein. Sie entspricht „Storage VMotion“ bei VMware.

Einiges aufzuholen hat Microsoft jedoch noch bei der Hochverfügbarkeit seiner Virtualisierungslösungen. Die Wiederherstellung im Sinne eines Kontinuitätsmanagements ist inzwischen ähnlich gut möglich wie mit vSphere. Aber was die möglichst unterbrechungslose Fortführung im Ernstfall anbelangt, reicht es bei Microsoft noch nicht ganz, um mit VMware mithalten zu können. Theoretisch bietet Microsoft zwar die notwendigen Funktionen, diese lassen sich aber nur nutzen, wenn man bereit ist, komplexe Clustermechanismen einzurichten – und wenn man das Glück hat, dass die zugehörigen Anwendungen diese auch vertragen.

Microsoft verzichtet auf die Funktion des „virtual switch“. Die war bereits in Vmware ESX enthalten und wurde von VMware bei vSphere noch ausgebaut. Auch im Nexus 1000v von Cisco ist sie enthalten. Sie dient dazu, Netzwerksegmente besser voneinander zu trennen. Das Fehlen wird aber von den meisten Kunden nicht als allzu schmerzlich empfunden.

Page: 1 2 3

ZDNet.de Redaktion

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

2 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

20 Stunden ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

22 Stunden ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

22 Stunden ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

1 Tag ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

1 Tag ago