VAX-Entwickler konnten damals einfach auf den neuen, aber langsamen Befehl verzichten. AMD und Intel machen es den Anwendern von Virtualisierungslösungen hingegen schwerer, wie weitere Benchmarks zeigen. Nutzt man die reine Softwarelösung Binary Translation, dann läuft memsweep gut, allerdings zeigen sich Schwächen beim Benchmark getppid.
Bild 4: getppid.c verursacht 10 Millionen Context-Switches.
Dieser Microbenchmark zeichnet sich dadurch aus, dass viele Aufrufe von Kernel-Funktionen vorgenommen werden. Das Ergebnis zeigt, dass in diesem Fall Binary Translation um ein Vielfaches langsamer ist als Hardwarevirtualisierung, die nahezu native Performance erreicht. Da getppid praktisch keine Anforderungen an den Hauptspeicher stellt, macht es keinen Unterschied, ob die erste Generation VT-x beziehungsweise AMD-V eingesetzt wird, oder ob man die zweite Generation EPT respektive RVI verwendet, die immer zusätzlich zur ersten Generation zum Einsatz kommt.
Bild 5: getppid zeigt, dass Kernel-Funktionen mit Softwarevirtualisierung langsam ausgeführt werden.
Bild 6: Auch getppid verhält sich in der 64-Bit-Version identisch zur 32-Bit-Variante.
- Virtualisierung mit Server-CPUs: Leistungsbremse inklusive
- Intels EPT schlägt AMDs RVI
- Segmentierung und Paging bremsen Speicherzugriff
- Der TLB als Abkürzung
- Hardware- oder Softwarevirtualisierung
- Risikotechnologie Binary Translation: bei Intel nicht mit 64 Bit
- Hardwarevirtualisierung der ersten Generation wenig ausgereift
- Core-2-CPUs nur eingeschränkt virtualisierungstauglich
- Auswahl der richtigen Technologie: meist nicht einfach
- Fazit
- Benchmarkergebnisse in der Übersicht
Neueste Kommentare
1 Kommentar zu Virtualisierung mit Server-CPUs: Leistungsbremse inklusive
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
Story comment
A very interesting story