Der neue Blue Gene basiert auf Power-A2-Prozessoren. Auf nur einem von 17 Prozessoren pro Knoten soll das Betriebssystem laufen, die restlichen Ressourcen dienen der Anwendungsverarbeitung (Bild: Ariane Rüdiger).
Energie und Speicher sind hardwaretechnisch die wunden Punkte der Supercomputer-Technik. Um im Bereich Speicher etwas zu tun, gibt es mehr oder weniger konventionelle Ansätze wie den von Panasas, einem auf Scale-Out-Objektspeicherung für Hochleistungsanwendungen spezialisierten Unternehmen. Der Hersteller packt bis zu 600 TByte in ein vier Höheneinheiten großes Rack.
Das System beherrscht RAID auf Fileebene: als Grundheinheit dient die Datei, und jede wird über mehrere Speichereinheiten so verteilt, dass eine separate Rekonstruktion jederzeit möglich ist. Besonders schnell wird die Lösung, weil die Clients direkt auf mehrere Speicherorte, an denen Teile der verteilten Datei liegen, zugreifen können. Ausschließlich Verwaltungsinformationen fließen durch die sogenannten Director Blades, die zum Beispiel die Rekonstruktion von Dateien steuern. Neben den üblichen Filesystemen NFS und CIFS unterstützen die Systeme auch PNFS (Parallel Network File System), einen IETF-Standard für parallele Filezugriffe, der 2012 dem Linux-Kernel 3.0 hinzugefügt werden soll.
Es sind aber auch weit radikalere Lösungen möglich. „Seicher, die ständig wieder aufgefrischt werden, fressen rund ein Drittel der Energie, die Supercomputer brauchen“ sagt Scott Misage, Direktor Solutions R&D für hochskalierbare Infrastruktur bei Hewlett-Packard. Der Konzern setzt daher langfristig auf Memristoren, neuartige Speicherbausteine, die einmal Gespeichertes auch ohne permanente Auffrischung dauerhaft halten. Dann müsste nur noch Energie angelegt werden, wenn der Speicherinhalt abgefragt oder geändert werden soll.
Bildergalerie
Auch sonst versucht HP durch Skalierbarkeit von der kleinsten bis zur größten Box und Energieoptimierung zu punkten. Immerhin ist der Hersteller so derzeit nach IDC-Maßstäben mit über 30 Prozent Marktanteil führend auf dem weltweiten Supercomputer-Markt. Verwendet werden in der Regel günstig erhältliche Standard-Bauelemente mit hoher Skalierbarkeit, etwa PrioLiant-Server.
Dieser Ansatz überzeugte zum Beispiel den Leiter des Computing Center der Universität Hamburg, Professor Stefan Olbrich. Sein Institut wird einen zunächst aus acht ProLiant SL 390 G7 bestehenden Rechner aufbauen, wobei jeder Prozessor auf drei Tesla-Beschleuniger von Nvidia zugreifen kann. Später soll das System dann erweitert werden.
Eine der Hauptaufgaben von Olbrich ist es, überhaupt dafür zu sorgen, dass die Fähigkeiten hochparalleler Systeme genutzt werden können. „Wir bringen beispielsweise in parallel geschriebene Programme Mechanismen für Datenanalyse und -extraktion ein.“ In der Parallelisierung bestehender serieller Software sieht Olbrich eine der größten Herausforderungen kommender Jahre. „Dafür ist unbedingt interdisziplinäre Zusammenarbeit nötig“, meint er.
Neueste Kommentare
Noch keine Kommentare zu Superrechner: Auf dem Weg zum Exascale-Computing
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.