Energie und Speicher sind hardwaretechnisch die wunden Punkte der Supercomputer-Technik. Um im Bereich Speicher etwas zu tun, gibt es mehr oder weniger konventionelle Ansätze wie den von Panasas, einem auf Scale-Out-Objektspeicherung für Hochleistungsanwendungen spezialisierten Unternehmen. Der Hersteller packt bis zu 600 TByte in ein vier Höheneinheiten großes Rack.
Das System beherrscht RAID auf Fileebene: als Grundheinheit dient die Datei, und jede wird über mehrere Speichereinheiten so verteilt, dass eine separate Rekonstruktion jederzeit möglich ist. Besonders schnell wird die Lösung, weil die Clients direkt auf mehrere Speicherorte, an denen Teile der verteilten Datei liegen, zugreifen können. Ausschließlich Verwaltungsinformationen fließen durch die sogenannten Director Blades, die zum Beispiel die Rekonstruktion von Dateien steuern. Neben den üblichen Filesystemen NFS und CIFS unterstützen die Systeme auch PNFS (Parallel Network File System), einen IETF-Standard für parallele Filezugriffe, der 2012 dem Linux-Kernel 3.0 hinzugefügt werden soll.
Es sind aber auch weit radikalere Lösungen möglich. „Seicher, die ständig wieder aufgefrischt werden, fressen rund ein Drittel der Energie, die Supercomputer brauchen“ sagt Scott Misage, Direktor Solutions R&D für hochskalierbare Infrastruktur bei Hewlett-Packard. Der Konzern setzt daher langfristig auf Memristoren, neuartige Speicherbausteine, die einmal Gespeichertes auch ohne permanente Auffrischung dauerhaft halten. Dann müsste nur noch Energie angelegt werden, wenn der Speicherinhalt abgefragt oder geändert werden soll.
Auch sonst versucht HP durch Skalierbarkeit von der kleinsten bis zur größten Box und Energieoptimierung zu punkten. Immerhin ist der Hersteller so derzeit nach IDC-Maßstäben mit über 30 Prozent Marktanteil führend auf dem weltweiten Supercomputer-Markt. Verwendet werden in der Regel günstig erhältliche Standard-Bauelemente mit hoher Skalierbarkeit, etwa PrioLiant-Server.
Dieser Ansatz überzeugte zum Beispiel den Leiter des Computing Center der Universität Hamburg, Professor Stefan Olbrich. Sein Institut wird einen zunächst aus acht ProLiant SL 390 G7 bestehenden Rechner aufbauen, wobei jeder Prozessor auf drei Tesla-Beschleuniger von Nvidia zugreifen kann. Später soll das System dann erweitert werden.
Eine der Hauptaufgaben von Olbrich ist es, überhaupt dafür zu sorgen, dass die Fähigkeiten hochparalleler Systeme genutzt werden können. „Wir bringen beispielsweise in parallel geschriebene Programme Mechanismen für Datenanalyse und -extraktion ein.“ In der Parallelisierung bestehender serieller Software sieht Olbrich eine der größten Herausforderungen kommender Jahre. „Dafür ist unbedingt interdisziplinäre Zusammenarbeit nötig“, meint er.
Page: 1 2
Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…
Es kommt angeblich 2028 auf den Markt. Das aufgeklappte Gerät soll die Displayfläche von zwei…
Das System basiert auf Hardware von HPE-Cray und Nvidia. Die Inbetriebnahme erfolgt 2027.
Die Bundesnetzagentur hat ihr Gigabit-Grundbuch aktualisiert. Drei von vier Haushalten sollen jetzt Zugang zu Breitbandanschlüssen…
Mit dem Internet verbundene Digitale Bilderrahmen oder Mediaplayer können mit Schadsoftware infiziert werden und sind…
Schädliche Apps können unter Umständen einen Systemabsturz auslösen. Mindestens eine Anfälligkeit erlaubt eine Remotecodeausführung.