50. Geburtstag des „Stretch“-Supercomputers

IBM feiert dieser Tage den 50. Geburtstag des „Stretch„-Supercomputers. Er habe die Computerindustrie durch Technologien grundlegend verändert, die heute in Laptops, iPods und Supercomputern verwendet werden. Da ist viel Wahres dran – das echte Potenzial des Rechners wurde jedoch erst spät erkannt.

Die Geschichte des Stretch-Rechners begann im April 1955, als IBM dem University of California Radiation Laboratory (UCRL) ein Angebot unterbreitete. Scheinbar konnte IBM aber nicht so schnell liefern, wie es die Wissenschaftler erwarteten. Der Konzern schlug als Ausgleich eine wesentlich leistungsfähigere Maschine vor. Das UCRL lies sich darauf jedoch nicht ein.

Daraufhin suchte IBM einen anderen Abnehmer für den geplanten Superrechner. Der zweite anvisierte Kunde, die NSA, hatte nicht vor, früher als 1957 einen Rechner anzuschaffen. IBM musste sich also weiter umtun: Im August 1955 lief das Supercomputer-Projekt unter dem Namen „Stretch“ an. Der Name war Programm: Es sollte die Grenzen des Rechnerdesigns ausdehnen.

Erste Designstudien wurden entworfen, als sich das Los Alamos Scientific Laboratory (LASL) kurz darauf interessiert gezeigt hatte. Versprochen wurde ein Rechner, der „100 bis 200 mal schneller ist als der 704„. Offiziell gestartet wurde „Project Stretch“ aber erst im Januar 1956.

Stephen W. Dunwell war der führende Kopf des Projektes. Mit dem ausgegebenen Ziel – mehr als hundertfach bessere Leistungsfähigkeit gegenüber dem 704 – hatte er sich und IBM jedoch selbst unter Druck gesetzt. Denn die Logikschaltkreise wurden lediglich um den Faktor zehn bis zwanzig schneller, die Memory-Performance sogar nur um den Faktor sechs. Also mussten substanzielle Verbesserungen der Architektur her.

Diese wurden auch erreicht. Dazu zählen etwa Interrupts, Memory Error Detection and Correction, Memory Interleaving, Multiprogramming, Pipelining und Memory Protection. Memory Interleaving teilt den Hauptspeicher zur Steigerung der Bandbreite in kleine Pakete auf. Multiprogrammierung ermöglicht es Computern, mehr als eine Aufgabe gleichzeitig zu bearbeiten. Pipelining erlaubt durch das Hintereinanderreihen von Instruktionen eine unterbrechungsfreie Bearbeitung von Rechenoperationen. Memory Protection verhindert den unauthorisierten Hauptspeicherzugriff und gewährleistet damit die Systemsicherheit. Besonders folgenreich war jedoch die Einführung des 8-Bit-Bytes, das die Datenstandardgröße geworden ist und jeweils ein Zeichen repräsentiert.

IBMs auch als „7030 Data Processing System“ verkaufter „Stretch“-Rechner im Einsatz (Bild: IBM)

Page: 1 2 3

ZDNet.de Redaktion

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

8 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

1 Tag ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

1 Tag ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

1 Tag ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

1 Tag ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

1 Tag ago