Der Itanium muss als ein Projekt bezeichnet werden, das Intel und HP vor allem viel Geld gekostet hat. Schätzungen gehen von etwa 13 Milliarden Dollar bis zum Erscheinen des Merced ohne die Kosten für die Weiterentwicklung zum Tukwila aus. Die demgegenüber stehenden Verkaufserlöse kann man getrost vernachlässigen.
Was sich 1989 nach einem gesunden Konzept für parallele Ausführung von Code klang, erwies sich 2001, als der Itanium endlich auf den Markt kam, bereits als überholt. Performancevergleiche bestand der Merced nur mit dem damals aktuellen Pentium 4, nicht jedoch mit RISC-CPUs wie SPARC oder PowerPC.
Die EPIC-Architektur erwies sich als zu unflexibel. RISC- und CISC-CPU-Hersteller können durch Technologien wie Out-of-Order-Execution und Hyperthreading dafür sorgen, dass funktionale Einheiten, etwa Rechenwerke, optimal ausgenutzt werden. Außerdem kann ein und derselbe Binärcode je nach CPU-Modell anders ausgeführt werden, was es ermöglicht, dass Neuentwicklungen besser unterstützt werden.
Auch Intel und HP positionieren den Itanium heute nicht mehr als High-Performance-CPU, sondern versuchen, ihn als Hochverfügbarkeits-CPU zu platzieren. Dazu sind neuere Modelle mit Techniken wie dem Lockstep-Modus ausgestattet. Dabei läuft ein Dual-Core als virtueller Single-Core. Die beiden Cores überprüfen sich in diesem Modus gegenseitig auf Fehler. Die deterministische Befehlsausführung unterstützt solche Technologien.
Doch die Welt hat sich gewandelt. Ausfallsicherheit bedeutet heutzutage immer, dass ein ganzer Computer ausfallen kann, ohne dass ein Dienst ausfällt. Die Nachfrage nach teuren Itanium-Systemen hält sich stark in Grenzen. So darf es nicht verwundern, dass OEMs kaum noch Itanium-Systeme herstellen und HP zwischen 80 und 90 Prozent des Gesamtumsatzes mit Itanium-Prozessoren ausmacht. Der rührt vor allem von OpenVMS-Bestandskunden her, denen keine Alternative zur Verfügung steht.
- Milliardengrab: Warum Intels Itanium gescheitert ist
- Kampf der CPU-Architekturen: CISC, RISC, VLIW und EPIC
- Berkeley und Stanford im Wettstreit um RISC-CPUs
- Erfolg von RISC wäre das Ende von Microsoft gewesen
- Das EPIC-Konzept des Itanium: beim Erscheinen schon veraltet
- Deterministisches EPIC-Design bremst Performance
- x86-Wettrüsten zwischen AMD und Intel: Renaissance der CISC-CPUs
- Fazit
Neueste Kommentare
1 Kommentar zu Milliardengrab: Warum Intels Itanium gescheitert ist
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
WindowsNT 3.1 und 16MB RAM
Wie Sie auf "Microsoft sah sich allerdings genötigt, das Chicago-Projekt ins Leben zu rufen, das in Windows 95 mündete, um damals übliche Rechner mit bis zu 4 MByte Hauptspeicher zu unterstützen" ist mir schleierhaft, denn "Windows NT 3.1 benötigt mindestens 16 MByte" ist schlichtweg falsch, auch der Nach-Nachfolger WindowsNT 3.51 lief noch prima mit 8MB RAM. Und selbst das gute alte WindowsNT 4 begnügt sich in der Workstation-Variante mit lediglich 12MB, nur die Server-Version brauchte tatsächlich 16MB RAM. WindowsNT 4 kam aber erst Ende 1996 und damit geraume Zeit nach Windows95 raus.
Der wahre Grund für Windows95 lag zum Einen in der damals noch hohen Verbreitung von DOS-Programmen (vor Allem Spiele), welche unter der DOS-Emulation von WindowsNT garnicht bzw. nur eingeschränkt funktionierten. Zudem erlaubte das die Aufspaltung des eigenen Portfolios in Consumer- (Windows95) und Business-Linie (WindowsNT).
Davidoff