Superrechner: Auf dem Weg zum Exascale-Computing


Der neue Blue Gene basiert auf Power-A2-Prozessoren. Auf nur einem von 17 Prozessoren pro Knoten soll das Betriebssystem laufen, die restlichen Ressourcen dienen der Anwendungsverarbeitung (Bild: Ariane Rüdiger).

Energie und Speicher sind hardwaretechnisch die wunden Punkte der Supercomputer-Technik. Um im Bereich Speicher etwas zu tun, gibt es mehr oder weniger konventionelle Ansätze wie den von Panasas, einem auf Scale-Out-Objektspeicherung für Hochleistungsanwendungen spezialisierten Unternehmen. Der Hersteller packt bis zu 600 TByte in ein vier Höheneinheiten großes Rack.

Das System beherrscht RAID auf Fileebene: als Grundheinheit dient die Datei, und jede wird über mehrere Speichereinheiten so verteilt, dass eine separate Rekonstruktion jederzeit möglich ist. Besonders schnell wird die Lösung, weil die Clients direkt auf mehrere Speicherorte, an denen Teile der verteilten Datei liegen, zugreifen können. Ausschließlich Verwaltungsinformationen fließen durch die sogenannten Director Blades, die zum Beispiel die Rekonstruktion von Dateien steuern. Neben den üblichen Filesystemen NFS und CIFS unterstützen die Systeme auch PNFS (Parallel Network File System), einen IETF-Standard für parallele Filezugriffe, der 2012 dem Linux-Kernel 3.0 hinzugefügt werden soll.

Es sind aber auch weit radikalere Lösungen möglich. „Seicher, die ständig wieder aufgefrischt werden, fressen rund ein Drittel der Energie, die Supercomputer brauchen“ sagt Scott Misage, Direktor Solutions R&D für hochskalierbare Infrastruktur bei Hewlett-Packard. Der Konzern setzt daher langfristig auf Memristoren, neuartige Speicherbausteine, die einmal Gespeichertes auch ohne permanente Auffrischung dauerhaft halten. Dann müsste nur noch Energie angelegt werden, wenn der Speicherinhalt abgefragt oder geändert werden soll.

Auch sonst versucht HP durch Skalierbarkeit von der kleinsten bis zur größten Box und Energieoptimierung zu punkten. Immerhin ist der Hersteller so derzeit nach IDC-Maßstäben mit über 30 Prozent Marktanteil führend auf dem weltweiten Supercomputer-Markt. Verwendet werden in der Regel günstig erhältliche Standard-Bauelemente mit hoher Skalierbarkeit, etwa PrioLiant-Server.

Dieser Ansatz überzeugte zum Beispiel den Leiter des Computing Center der Universität Hamburg, Professor Stefan Olbrich. Sein Institut wird einen zunächst aus acht ProLiant SL 390 G7 bestehenden Rechner aufbauen, wobei jeder Prozessor auf drei Tesla-Beschleuniger von Nvidia zugreifen kann. Später soll das System dann erweitert werden.

Eine der Hauptaufgaben von Olbrich ist es, überhaupt dafür zu sorgen, dass die Fähigkeiten hochparalleler Systeme genutzt werden können. „Wir bringen beispielsweise in parallel geschriebene Programme Mechanismen für Datenanalyse und -extraktion ein.“ In der Parallelisierung bestehender serieller Software sieht Olbrich eine der größten Herausforderungen kommender Jahre. „Dafür ist unbedingt interdisziplinäre Zusammenarbeit nötig“, meint er.

Page: 1 2

ZDNet.de Redaktion

Recent Posts

Bedrohungen in Europa: Schwachstellen in der Lieferkette dominieren

Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…

6 Tagen ago

Bericht: Apple arbeitet an faltbarem iPad

Es kommt angeblich 2028 auf den Markt. Das aufgeklappte Gerät soll die Displayfläche von zwei…

6 Tagen ago

HPE baut Supercomputer am Leibniz-Rechenzentrum

Das System basiert auf Hardware von HPE-Cray und Nvidia. Die Inbetriebnahme erfolgt 2027.

6 Tagen ago

Bund meldet Fortschritte in der Netzversorgung

Die Bundesnetzagentur hat ihr Gigabit-Grundbuch aktualisiert. Drei von vier Haushalten sollen jetzt Zugang zu Breitbandanschlüssen…

7 Tagen ago

Vorinstallierte Schadsoftware auf IoT-Geräten

Mit dem Internet verbundene Digitale Bilderrahmen oder Mediaplayer können mit Schadsoftware infiziert werden und sind…

1 Woche ago

iOS und iPadOS 18.2 beseitigen 21 Sicherheitslücken

Schädliche Apps können unter Umständen einen Systemabsturz auslösen. Mindestens eine Anfälligkeit erlaubt eine Remotecodeausführung.

1 Woche ago