Es gibt allerdings auch Nachteile – schließlich hat alles seinen Preis. Ein physischer Server, der bereits bis zum Anschlag ausgelastet ist, wird nicht auf magische Weise mithilfe von Virtualisierung noch mehr Tasks ausführen können.

Virtualisierung stellt auch weit strengere Anforderungen an die Hardware und ihre Zusammenarbeit mit den Betriebssystemen – denn wenn zwei Server gleichzeitige oder sich widersprechende Anfragen an dasselbe Gerät stellen, wird es unweigerlich zu Konflikten kommen. Diese können oft von der Virtualisierungssoftware gelöst werden, allerdings um den Preis einer niedrigeren Geschwindigkeit. Je besser die Hardware selbst mit solchen Situationen fertig wird ohne dass zusätzliche Schichten von Software-Management eingreifen müssen, desto effektiver wird die Virtualisierung sein. Außerdem gilt: Es ist zwar möglich, mithilfe der Technologie virtueller Server äußerst zuverlässige und kostengünstige Systeme zu errichten, doch stellt dies auch eine große Gefahr dar. Denn wenn ein einzelner Rechner ausfällt, auf dem zehn virtuelle Server laufen, dann sind zehn Server außer Gefecht gesetzt.

Zu den zukünftigen Entwicklungen in Sachen Virtualisierung gehört Intels neue Vanderpool-Technologie. Bislang sind erst wenige Einzelheiten bekannt, doch das neue Verfahren soll eine stärkere Hardware-Unterstützung für die Virtualisierung sowie Low-Level-Software-Komponenten beinhalten, die Betriebssystem-Entwicklern die Planung eines effizienten Betriebs in einer virtuellen Umgebung erleichtern. Gleichzeitig arbeiten sowohl Intel als auch die Konkurrenz an der Umsetzung von Plänen für Multicore-Prozessoren, die nach außen als mehrere unabhängige CPUs erscheinen und damit ideal für die Nutzung in einem virtuellen System geeignet wären.

Wie bei Speicherlösungen und Netzwerken sorgt Virtualisierung für eine Entkopplung der Software von der Hardware und der Daten von der Software, so dass es schließlich nur noch darauf ankommt, was man erreichen möchte, und nicht mehr, wo der Rechner dafür steht. Mit hoher Geschwindigkeit nähern wir uns einer Computing-Welt, in der die Grenzen lokaler Ressourcen aufgehoben sind und das Potential der Informationstechnologie mehr von gegenseitiger Vernetzung als von physischer Abschottung bestimmt wird.

Page: 1 2 3

ZDNet.de Redaktion

Recent Posts

Deutscher Cybersicherheitsmarkt erstmals elfstellig

Im Jahresvergleich legen die Ausgaben für IT Security um fast 14 Prozent zu. Gut die…

1 Woche ago

14,6 Millionen geleakte Konten in Deutschland im dritten Quartal

Mehr Datenverstöße registriert Surfshark in den USA, Frankreich und Russland. Hierzulande werden im dritten Quartal…

1 Woche ago

Google schließt drei schwerwiegende Sicherheitslücken in Chrome 130

Browsererweiterungen können die Sicherheitsfunktion Site Isolation aushebeln. Betroffen sind Chrome für Windows, macOS und Linux.

1 Woche ago

IT-Ausgaben wachsen 2025 weltweit voraussichtlich um 9,3 Prozent

Das Plus fällt höher aus als in diesem Jahr. Das größte Wachstum der Ausgaben sagt…

1 Woche ago

Hackergruppe Lazarus nutzt Zero-Day-Lücke in Chrome

Die Anfälligkeit erlaubt das Einschleusen von Schadsoftware. Lazarus verbreitet über ein gefälschtes Browser-Game eine Spyware,…

1 Woche ago

Microsoft bestätigt weitere Probleme mit Windows 11 Version 24H2

Es besteht unter anderem ein Kompatibilitätsproblem mit Sound-Treibern von Intel. Gegebenenfalls können Software- oder Firmware-Updates…

1 Woche ago