Die Ausführung mehrerer Betriebssysteme ist lediglich das erste Virtualisierungsziel von Red Hat. Das Unternehmen will außerdem die Aufteilung eines Betriebssystems in mehrere Partitionen erreichen, damit es wie mehrere aussieht. Dieses Konzept, das bereits von Suns Solaris Containers verfolgt wird, wird dank Swsofts Open VZ-Projekt nun auch für Linux Realität.
„Wir sehen einen überzeugenden Anwendungsfall für einfache Container-basierte Virtualisierung. Der schwierige Part besteht darin, die Fähigkeiten in Linux selbst zu integrieren“, sagt Stevens. Linux-Gründer Linus Torvalds akzeptiert mittlerweile einige notwendige vorzeitige Anpassungen, um eine Veröffentlichung der Software zu erreichen. Aber laut Red Hat-Pressesprecherin Leigh Day geht das Unternehmen nicht von einer Integration der Software bereits in RHEL 5 aus.
Das Start-up-Unternehmen Xensource beschäftigt mehrere Xen-Programmierer der ersten Stunde und arbeitet an der Vermarktung der Software. Im Februar hat Xensource die Ernennung eines neuen Management-Teams und Geschäftsmodells bekannt gegeben. Diese Neuerungen haben gerade den Zuspruch seitens Red Hat erhalten.
Bisher gibt es keine direkten Geschäftsbeziehung zwischen Red Hat und Xensource, berichtete Stevens in einem Interview. Aber er fügte hinzu: „Wir würden eine Partnerschaft begrüßen und unsere Planungen sehen auch eine Partnerschaft mit Xensource vor – wir wissen nur noch nicht in welcher Form.“
Neueste Kommentare
2 Kommentare zu Noch in diesem Jahr möglich: Windows Vista auf Linux
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
Zurück in die Zukunft
Nach den sündteuren Mainframes kam das Client-Server-Prinzip – Leistungsverlagerung, um die Hardware und Strukturkosten einzudämmen.
Damals war die Umstellung gar nicht mal so falsch, aber die Zeiten ändern sich und warum sollte man nicht, bei geänderten Bedingungen, wieder zu alten Strukturen zurückkehren?
Nachdem heutzutage fast jeder "Schreibmaschinen"-Ersatz bald die Rechenleistung von Grossrechnern (die vor 10-15J.) erreicht hat, ist der einzig richtige Entschluss, zu den Mainframes zurückzukehren.
Schliesslich ist es Unfug, für Briefe und leichte Kalkulationen einen 4GHz+1Gb-Boliden unterm Tisch zu stehen haben, der sich zu 98% langweilt und nur Strom frisst – und das ist die eigentliche Realität, wenn man sich in den Büros umsieht.
Aufwendige Anwendungen werden aber sicherlich weiterhin auf einem dediziertem Rechner (evtl. im Client-Server-Modell) betrieben werden.
Solange keiner eine 100%-Umsetzung des einen oder anderen Lösungsansatz zu realisieren versucht, kann er vom Optimum nicht weit weg sein.
Modeerscheinung Virtualisierung
Zugegebenermaßen ist die Vorstellung, zwei völlig verschiedene Betriebssysteme gleichzeitig auf einem PC laufen zu lassen, faszinierend. Aber wenn’s an’s Eingemachte geht (z.B. Komplizierte Probleme mit Mathematica zu lösen) ist man dann doch über jedes freie Byte und jeden verfügbaren Taktzyklus so froh, dass die eben genannte Faszination sehr schnell an Reiz verliert. Ich vermute daher, dass die Virtualisierung gegebenenfalls sogar bei Serveranwendungen ca. 10 Jahre herumspuken wird, um anschließend dahin zu verschwinden, wo sie hingehört…
Es war in den letzten Jahren schon schwierig einzuschätzen, ob sich die Betriebssysteme den besseren technischen Möglichkeiten angepasst haben, oder ob umgekehrt der technische Fortschritt notwendig war, um die erhöhten Anforderungen der BS zu erfüllen.