Es gibt allerdings auch Nachteile – schließlich hat alles seinen Preis. Ein physischer Server, der bereits bis zum Anschlag ausgelastet ist, wird nicht auf magische Weise mithilfe von Virtualisierung noch mehr Tasks ausführen können.

Virtualisierung stellt auch weit strengere Anforderungen an die Hardware und ihre Zusammenarbeit mit den Betriebssystemen – denn wenn zwei Server gleichzeitige oder sich widersprechende Anfragen an dasselbe Gerät stellen, wird es unweigerlich zu Konflikten kommen. Diese können oft von der Virtualisierungssoftware gelöst werden, allerdings um den Preis einer niedrigeren Geschwindigkeit. Je besser die Hardware selbst mit solchen Situationen fertig wird ohne dass zusätzliche Schichten von Software-Management eingreifen müssen, desto effektiver wird die Virtualisierung sein. Außerdem gilt: Es ist zwar möglich, mithilfe der Technologie virtueller Server äußerst zuverlässige und kostengünstige Systeme zu errichten, doch stellt dies auch eine große Gefahr dar. Denn wenn ein einzelner Rechner ausfällt, auf dem zehn virtuelle Server laufen, dann sind zehn Server außer Gefecht gesetzt.

Zu den zukünftigen Entwicklungen in Sachen Virtualisierung gehört Intels neue Vanderpool-Technologie. Bislang sind erst wenige Einzelheiten bekannt, doch das neue Verfahren soll eine stärkere Hardware-Unterstützung für die Virtualisierung sowie Low-Level-Software-Komponenten beinhalten, die Betriebssystem-Entwicklern die Planung eines effizienten Betriebs in einer virtuellen Umgebung erleichtern. Gleichzeitig arbeiten sowohl Intel als auch die Konkurrenz an der Umsetzung von Plänen für Multicore-Prozessoren, die nach außen als mehrere unabhängige CPUs erscheinen und damit ideal für die Nutzung in einem virtuellen System geeignet wären.

Wie bei Speicherlösungen und Netzwerken sorgt Virtualisierung für eine Entkopplung der Software von der Hardware und der Daten von der Software, so dass es schließlich nur noch darauf ankommt, was man erreichen möchte, und nicht mehr, wo der Rechner dafür steht. Mit hoher Geschwindigkeit nähern wir uns einer Computing-Welt, in der die Grenzen lokaler Ressourcen aufgehoben sind und das Potential der Informationstechnologie mehr von gegenseitiger Vernetzung als von physischer Abschottung bestimmt wird.

Page: 1 2 3

ZDNet.de Redaktion

Recent Posts

Digitale Produkte „cyberfit“ machen

Vernetzte Produkte müssen laut Cyber Resilience Act über Möglichkeiten zur Datenverschlüsselung und Zugangsverwaltung verfügen.

2 Tagen ago

Google schließt schwerwiegende Sicherheitslücken in Chrome 131

Das jüngste Update für Windows, macOS und Linux stopft drei Löcher. Eine Anfälligkeit setzt Nutzer…

2 Tagen ago

Apple schließt Zero-Day-Lücken in iOS, iPadOS und macOS

Zwei von Google-Mitarbeitern entdeckte Schwachstellen werden bereits aktiv gegen Mac-Systeme mit Intel-Prozessoren eingesetzt. Sie erlauben…

3 Tagen ago

Gefährliche Anzeigen für Passwortmanager Bitwarden verbreiten Malware

Die Hintermänner haben es unter anderem auf Daten von Facebook-Geschäftskonten abgesehen. Opfer werden über angebliche…

3 Tagen ago

Public Cloud: Gartner erwartet 2025 weltweite Ausgaben von 723 Milliarden Dollar

Bis 2027 werden 90 Prozent der Unternehmen eine Hybrid-Cloud-Strategie umsetzen.

3 Tagen ago

iPhone 15 ist bestverkauftes Smartphone im dritten Quartal

Apple belegt in der Statistik von Counterpoint die ersten drei Plätze. Samsungs Galaxy S24 schafft…

4 Tagen ago