IBM feiert dieser Tage den 50. Geburtstag des „Stretch„-Supercomputers. Er habe die Computerindustrie durch Technologien grundlegend verändert, die heute in Laptops, iPods und Supercomputern verwendet werden. Da ist viel Wahres dran – das echte Potenzial des Rechners wurde jedoch erst spät erkannt.
Die Geschichte des Stretch-Rechners begann im April 1955, als IBM dem University of California Radiation Laboratory (UCRL) ein Angebot unterbreitete. Scheinbar konnte IBM aber nicht so schnell liefern, wie es die Wissenschaftler erwarteten. Der Konzern schlug als Ausgleich eine wesentlich leistungsfähigere Maschine vor. Das UCRL lies sich darauf jedoch nicht ein.
Daraufhin suchte IBM einen anderen Abnehmer für den geplanten Superrechner. Der zweite anvisierte Kunde, die NSA, hatte nicht vor, früher als 1957 einen Rechner anzuschaffen. IBM musste sich also weiter umtun: Im August 1955 lief das Supercomputer-Projekt unter dem Namen „Stretch“ an. Der Name war Programm: Es sollte die Grenzen des Rechnerdesigns ausdehnen.
Erste Designstudien wurden entworfen, als sich das Los Alamos Scientific Laboratory (LASL) kurz darauf interessiert gezeigt hatte. Versprochen wurde ein Rechner, der „100 bis 200 mal schneller ist als der 704„. Offiziell gestartet wurde „Project Stretch“ aber erst im Januar 1956.
Stephen W. Dunwell war der führende Kopf des Projektes. Mit dem ausgegebenen Ziel – mehr als hundertfach bessere Leistungsfähigkeit gegenüber dem 704 – hatte er sich und IBM jedoch selbst unter Druck gesetzt. Denn die Logikschaltkreise wurden lediglich um den Faktor zehn bis zwanzig schneller, die Memory-Performance sogar nur um den Faktor sechs. Also mussten substanzielle Verbesserungen der Architektur her.
Diese wurden auch erreicht. Dazu zählen etwa Interrupts, Memory Error Detection and Correction, Memory Interleaving, Multiprogramming, Pipelining und Memory Protection. Memory Interleaving teilt den Hauptspeicher zur Steigerung der Bandbreite in kleine Pakete auf. Multiprogrammierung ermöglicht es Computern, mehr als eine Aufgabe gleichzeitig zu bearbeiten. Pipelining erlaubt durch das Hintereinanderreihen von Instruktionen eine unterbrechungsfreie Bearbeitung von Rechenoperationen. Memory Protection verhindert den unauthorisierten Hauptspeicherzugriff und gewährleistet damit die Systemsicherheit. Besonders folgenreich war jedoch die Einführung des 8-Bit-Bytes, das die Datenstandardgröße geworden ist und jeweils ein Zeichen repräsentiert.
IBMs auch als „7030 Data Processing System“ verkaufter „Stretch“-Rechner im Einsatz (Bild: IBM) |
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…
Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…