50. Geburtstag des „Stretch“-Supercomputers

IBM feiert dieser Tage den 50. Geburtstag des „Stretch„-Supercomputers. Er habe die Computerindustrie durch Technologien grundlegend verändert, die heute in Laptops, iPods und Supercomputern verwendet werden. Da ist viel Wahres dran – das echte Potenzial des Rechners wurde jedoch erst spät erkannt.

Die Geschichte des Stretch-Rechners begann im April 1955, als IBM dem University of California Radiation Laboratory (UCRL) ein Angebot unterbreitete. Scheinbar konnte IBM aber nicht so schnell liefern, wie es die Wissenschaftler erwarteten. Der Konzern schlug als Ausgleich eine wesentlich leistungsfähigere Maschine vor. Das UCRL lies sich darauf jedoch nicht ein.

Daraufhin suchte IBM einen anderen Abnehmer für den geplanten Superrechner. Der zweite anvisierte Kunde, die NSA, hatte nicht vor, früher als 1957 einen Rechner anzuschaffen. IBM musste sich also weiter umtun: Im August 1955 lief das Supercomputer-Projekt unter dem Namen „Stretch“ an. Der Name war Programm: Es sollte die Grenzen des Rechnerdesigns ausdehnen.

Erste Designstudien wurden entworfen, als sich das Los Alamos Scientific Laboratory (LASL) kurz darauf interessiert gezeigt hatte. Versprochen wurde ein Rechner, der „100 bis 200 mal schneller ist als der 704„. Offiziell gestartet wurde „Project Stretch“ aber erst im Januar 1956.

Stephen W. Dunwell war der führende Kopf des Projektes. Mit dem ausgegebenen Ziel – mehr als hundertfach bessere Leistungsfähigkeit gegenüber dem 704 – hatte er sich und IBM jedoch selbst unter Druck gesetzt. Denn die Logikschaltkreise wurden lediglich um den Faktor zehn bis zwanzig schneller, die Memory-Performance sogar nur um den Faktor sechs. Also mussten substanzielle Verbesserungen der Architektur her.

Diese wurden auch erreicht. Dazu zählen etwa Interrupts, Memory Error Detection and Correction, Memory Interleaving, Multiprogramming, Pipelining und Memory Protection. Memory Interleaving teilt den Hauptspeicher zur Steigerung der Bandbreite in kleine Pakete auf. Multiprogrammierung ermöglicht es Computern, mehr als eine Aufgabe gleichzeitig zu bearbeiten. Pipelining erlaubt durch das Hintereinanderreihen von Instruktionen eine unterbrechungsfreie Bearbeitung von Rechenoperationen. Memory Protection verhindert den unauthorisierten Hauptspeicherzugriff und gewährleistet damit die Systemsicherheit. Besonders folgenreich war jedoch die Einführung des 8-Bit-Bytes, das die Datenstandardgröße geworden ist und jeweils ein Zeichen repräsentiert.

IBMs auch als „7030 Data Processing System“ verkaufter „Stretch“-Rechner im Einsatz (Bild: IBM)

Page: 1 2 3

ZDNet.de Redaktion

Recent Posts

Studie: Ein Drittel aller E-Mails an Unternehmen sind unerwünscht

Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…

2 Tagen ago

HubPhish: Phishing-Kampagne zielt auf europäische Unternehmen

Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…

3 Tagen ago

1. Januar 2025: Umstieg auf E-Rechnung im B2B-Geschäftsverkehr

Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.

3 Tagen ago

Google schließt schwerwiegende Sicherheitslücken in Chrome 131

Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…

3 Tagen ago

Erreichbarkeit im Weihnachtsurlaub weiterhin hoch

Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…

4 Tagen ago

Hacker missbrauchen Google Calendar zum Angriff auf Postfächer

Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…

5 Tagen ago