Server-Virtualisierung: Aller Anfang ist schwer

Neben dem Einsatz von Management-Software empfiehlt es sich, die Prozessketten im Server-Management zu überdenken. Bei virtuellen Servern kommt es oft zu einem Wildwuchs mit einer großen Zahl von virtuellen Server-Images. Dies zieht dann hohe Supportkosten nach sich. Deswegen ist es nötig, die Zahl der Server-Images im Rechenzentrum sorgfältig zu begrenzen. Eine Standardisierung auf wenige Images hilft, Kopfschmerzen zu vermeiden.

Viele Unternehmen unterliegen dem Trugschluss, dass sich durch Virtualisierung die Lizenzkosten senken lassen. Tatsächlich ist aber oft das Gegenteil der Fall. Laut einer Untersuchung von IDC mussten 27 Prozent der Befragten nach dem Einstieg in die Virtualisierung höhere Lizenzkosten entrichten.

Die Lizenzmodelle der einzelnen Softwarehersteller unterscheidet sich stark voneinander, je nachdem, ob sie per Server, CPU, per Anwender oder per physischer Maschine lizenzieren. Und die Lizenzmodelle sind in vielen Fällen nur unzureichend auf virtuelle Maschinen eingestellt.

Für das IT-Personal liegen die Vorteile von Virtualisierung auf der Hand, aber viele nicht-technikaffine Fachanwender kommen mit den einhergehenden Abstraktionen nicht klar. Wenn sie für Dienstleistungen bezahlen sollen, wollen sie etwas, was sie anfassen können, etwa einen Blade-Server. Am besten ist es, ein klar konzipiertes Service Level Agreement vorzulegen, in dem konkrete Garantien in Bezug auf Kosten und Leistung gegeben werden.

Besonders beim Einstieg in die Virtualisierung stellt sich oft der Effekt ein, dass bestimmte Anwendungen langsamer laufen. Schuld daran ist meistens überlastete Host-Hardware. Dies kann vermieden werden, wenn die Bedürfnisse der Anwendungssoftware im Vorfeld mit den Leistungen der Hardware-Infrastruktur ausbalanciert werden. Hier ist ein Tool zur Kapazitätsplanung eine große Hilfe. Eine andere Möglichkeit ist es, die virtuellen Server auf eine größere Zahl von physischen Servern zu verteilen.

Es ist grundsätzlich leichter, Probleme in einer physischen Umgebung zu isolieren und zu diagnostizieren als in einer abstrakten virtuellen. Configuration-Management-Tools von Anbietern wie Tripwire, der vor einigen Monaten McAfee übernommenen Firma Solidcore oder Microsoft können detaillierte Analysen erstellen und Flaschenhälse aufzeigen. Außerdem ist es sinnvoll, genaue Tests virtueller Maschinen zu fahren und dann Kopien dieser voll funktionsfähigen Maschine im ganzen Unternehmen auszurollen. So muss man nur an einem oder wenigstens einigen wenigen Images arbeiten, wenn Probleme auftreten.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Apple schließt Zero-Day-Lücke in iOS und iPadOS

Betroffen sind alle unterstützten iPhones und iPads sowie ältere Modelle. Apple bezeichnet die Angriffe als…

1 Woche ago

Umfrage: Datensicherheit mit Geschäftszielen nur schwer vereinbar

Nur 14 Prozent der SRM-Führungskräfte erreichen einen wirkungsvollen Schutz und ermöglichen dabei eine Datennutzung zur…

1 Woche ago

Facebook-Phishing-Kampagne zielt auf Unternehmen ab

Die Phishing-Nachrichten verteilen die Cyberkriminellen über eine Marketing-Tool von Salesforce. Unternehmen werden darin Urheberrechtsverletzungen auf…

1 Woche ago

Safer Internet Day: TÜV Rheinland startet Onlineshop für Pentests

Täglich werden laut BSI durchschnittlich 78 neue Schwachstellen von Software bekannt.

1 Woche ago

Windows 11 24H2: Microsoft bietet Workaround für Probleme mit Sicherheitsupdates

Betroffen sind bestimmte Installation von Windows 11 24H2. Als Behelfslösung muss Das Betriebssystem erneut installiert…

1 Woche ago

DeepL erweitert API um LLM der nächsten Generation und Schreibassistenten

API‑Lösung bietet eine noch höhere Übersetzungsqualität und KI‑gestützte Textverbesserungen.

2 Wochen ago