Server-Virtualisierung: Aller Anfang ist schwer

Neben dem Einsatz von Management-Software empfiehlt es sich, die Prozessketten im Server-Management zu überdenken. Bei virtuellen Servern kommt es oft zu einem Wildwuchs mit einer großen Zahl von virtuellen Server-Images. Dies zieht dann hohe Supportkosten nach sich. Deswegen ist es nötig, die Zahl der Server-Images im Rechenzentrum sorgfältig zu begrenzen. Eine Standardisierung auf wenige Images hilft, Kopfschmerzen zu vermeiden.

Viele Unternehmen unterliegen dem Trugschluss, dass sich durch Virtualisierung die Lizenzkosten senken lassen. Tatsächlich ist aber oft das Gegenteil der Fall. Laut einer Untersuchung von IDC mussten 27 Prozent der Befragten nach dem Einstieg in die Virtualisierung höhere Lizenzkosten entrichten.

Die Lizenzmodelle der einzelnen Softwarehersteller unterscheidet sich stark voneinander, je nachdem, ob sie per Server, CPU, per Anwender oder per physischer Maschine lizenzieren. Und die Lizenzmodelle sind in vielen Fällen nur unzureichend auf virtuelle Maschinen eingestellt.

Für das IT-Personal liegen die Vorteile von Virtualisierung auf der Hand, aber viele nicht-technikaffine Fachanwender kommen mit den einhergehenden Abstraktionen nicht klar. Wenn sie für Dienstleistungen bezahlen sollen, wollen sie etwas, was sie anfassen können, etwa einen Blade-Server. Am besten ist es, ein klar konzipiertes Service Level Agreement vorzulegen, in dem konkrete Garantien in Bezug auf Kosten und Leistung gegeben werden.

Besonders beim Einstieg in die Virtualisierung stellt sich oft der Effekt ein, dass bestimmte Anwendungen langsamer laufen. Schuld daran ist meistens überlastete Host-Hardware. Dies kann vermieden werden, wenn die Bedürfnisse der Anwendungssoftware im Vorfeld mit den Leistungen der Hardware-Infrastruktur ausbalanciert werden. Hier ist ein Tool zur Kapazitätsplanung eine große Hilfe. Eine andere Möglichkeit ist es, die virtuellen Server auf eine größere Zahl von physischen Servern zu verteilen.

Es ist grundsätzlich leichter, Probleme in einer physischen Umgebung zu isolieren und zu diagnostizieren als in einer abstrakten virtuellen. Configuration-Management-Tools von Anbietern wie Tripwire, der vor einigen Monaten McAfee übernommenen Firma Solidcore oder Microsoft können detaillierte Analysen erstellen und Flaschenhälse aufzeigen. Außerdem ist es sinnvoll, genaue Tests virtueller Maschinen zu fahren und dann Kopien dieser voll funktionsfähigen Maschine im ganzen Unternehmen auszurollen. So muss man nur an einem oder wenigstens einigen wenigen Images arbeiten, wenn Probleme auftreten.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

So günstig & effizient war Content Produktion noch nie: Neues Content System erobert deutschen Markt

Kontinuierliche Content Produktion und Markenaufbau sind essentieller Pfeiler von langfristigen Unternehmenserfolg. Das ist mittlerweile auch…

5 Tagen ago

Lenovo übertrifft die Erwartungen und hebt Prognose an

KI-Funktionen beschleunigen die Erholung des PC-Markts. Der Nettogewinn legt um 44 Prozent zu, der Umsatz…

5 Tagen ago

Bedrohungsakteure betten Malware in macOS-Flutter-Anwendungen ein

Googles App-Entwickler-Kit dient der Tarnung des schädlichen Codes. Der Sicherheitsanbieter Jamf hält die Schadsoftware für…

5 Tagen ago

CopyRhadamantys greift weltweit Unternehmen an

Ausgeklügelte Phishing-Kampagne verwendet eine weiterentwickelte Version der Rhadamanthys-Stealer-Malware.

1 Woche ago

Facebook Marketplace: EU verhängt Geldbuße von fast 800 Millionen Euro gegen Meta

Die EU-Kommission kritisiert die Verknüpfung von Facebook und dem hauseigenen Online-Kleinanzeigendienst. Sie sieht darin einen…

1 Woche ago

Umfrage: Angestellte in Deutschland unterschätzen NIS-2-Richtlinie

Fast zwei Drittel halten jedoch eine Umsetzung aller Vorgaben von NIS 2 bis Jahresende für…

1 Woche ago