Sparen durch Virtualisierung: Zwei Server-Lösungen im Test

Soll eine vernünftige Zuweisung von Ressourcen der Host-Hardware gewährleistet sein, muss es eine Möglichkeit geben, jeden virtuellen Server in Hinsicht auf Nutzung von CPU- und Speicherressourcen einzustellen.

In einer virtualisierten Umgebung müssen Administratoren sicher sein können, dass das System beim Auftreten von Spitzenlasten andere Aufgaben zurückfährt und ausreichend Ressourcen für diejenigen Aufgaben bereitstellt, die Spitzenperformance erfordern, während die Server alle immer noch laufen. Diese Fähigkeit zur dynamischen Anpassung der Auslastung von virtuellen Servern ist bei High-end-Unix-Systemen wie dem AIX 5.3 von IBM und dem demnächst auf den Markt kommendem Solaris 10 von Sun üblich. Die derzeitige Virtualisierungssoftware für x86-Server erlaubt Anpassungen der Ressourcenverteilung dagegen überwiegend nur bei einem Neustart des virtuellen Servers.

Administratoren möchten zudem möglicherweise jedem virtuellen Server bestimmte Netzwerkkarten und Festplatten oder Partitionen zuweisen. Eine Alternative bestünde darin, auch die Netzwerk- und Storage-Ebenen zu virtualisieren. Dieses Feature findet sich zwar eher bei High-end-Unix-Systemen, ist aber auch bei den hier getesteten Programmen verfügbar.

Ein Vorteil, der womöglich nicht unmittelbar augenfällig ist, besteht darin, dass alle virtuellen Server der Meinung sind, sie liefen auf derselben allgemeinen Hardware, egal auf welcher physischen Host-Hardware die virtuellen Server ausgeführt werden. Daher ist es erheblich einfacher, ein standardisiertes Server-Image auf der Hardware des virtuellen Rechners zu erstellen, so dass man sich nur um Treiberprobleme zu kümmern braucht, wenn man einen neuen physischen Server installiert. Dies kann in einem großen Unternehmen durchaus den Verwaltungsaufwand deutlich senken.

Apropos Administration: Man denke nur an die Vorteile in Bezug auf Disaster Recovery. Wenn es zum Beispiel drei wichtige Server gibt, die niemals ausfallen dürfen, bräuchte man unter normalen Umständen weitere drei redundante Server, um den kontinuierlichen Geschäftsbetrieb sicherzustellen, falls einer der primären Server ausfällt. Beim Einsatz von virtuellen Servern könnte man einen redundanten virtuellen Server für Server A auf Server B laufen lassen und umgekehrt. Für zusätzliche Sicherheit benötigte man lediglich einen vierten Server, auf dem alle drei redundanten Server laufen.

Aber wie gestaltet sich die zentrale Verwaltung einer umfangreichen Infrastruktur aus virtuellen Servern?

Das erweist sich in der Praxis als überraschend einfach. Microsofts Virtual Server 2005 lässt sich mit den Microsoft Management-Tools sowie Tools von Drittanbietern kombinieren, während der Virtual Server GSX von Vmware seine eigenen Software für das Management virtueller Infrastrukturen namens Virtualcentre mitbringt, sich aber ebenfalls mit Tools von Drittanbietern einstellen lässt.

Ein weiterer Vorteil der allgemeinen Hardware einer virtuellen Umgebung besteht darin, dass es virtuelle Hardwaretreiber für ein breites Spektrum von Betriebssystemen gibt. Falls die eigene Firma also immer noch eine Uralt-Anwendung einsetzen muss, die nur unter Windows NT4 läuft, kann dieses Feature ein wahrer Segen sein. Bei nagelneuer Server-Hardware Treiber für ältere Betriebssysteme zu finden ist schier unmöglich, aber die virtuelle Umgebung kommt völlig ohne Probleme auch mit NT4 zurecht.

Themenseiten: Business-Software, Servers, Software, Storage, Storage & Server

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

2 Kommentare zu Sparen durch Virtualisierung: Zwei Server-Lösungen im Test

Kommentar hinzufügen
  • Am 21. April 2006 um 0:39 von Klaus Kofend

    Warum Virtualisierung
    Interessanter Artikel mit interessanten Gesichtspunkten.

    Leider wird meines Erachtens zuwenig auf die E/A Leistung der Hostsysteme eingegangen. Wenn man auf einem entsprechenden System zwei, drei oder mehrere virtuelle Server gleichzeitig im Betrieb hat, dann ist nicht die CPU oder der Speicher der Engpass sondern die E/A-Leistung des Festplattensystems. Die läßt sich nämlich nicht so einfach den Erfordernissen anpassen wie die CPU-Leistung und der Speicherbedarf. Man darf also nur rechenintensive und E/A-arme Systeme kombinieren und wer hat das /kann das schon. Exchange Server, Fileserver und Datenbankserver schließen sich da gegenseitig theoretisch aus. Jedem virtuellen Server sein eigenens E/A-System zu spendieren dürfte dem Gedanken der Virtualisierung entgegen stehen und auch zu hohe Kosten verursachen.

    Ein entsprechender Test mit solchen Anforderungen wäre interessant!

    MfG

  • Am 17. November 2004 um 20:15 von Dr. Suppan

    Host-Gastsystem
    wie wirkt sich das ausgewählte Host-Gastsystem auf die Performance der virtuellen Maschinen aus? Macht es Sinn Linux als Host-Gastsystem zu nehmen, um damit eine größere Performance für virtuelle Microsoft-Server zu erreichen, oder sollte im Fall eines Microsoft Host-Gastsystems immer 2003 Server eingesetzt werden?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *