HLRB II: Das wird Europas schnellster Computer

Um die vielen wissenschaftlichen Daten auch sicher speichern zu können, hat Network Appliance das erst Mitte Juni vorgestellte Storage-Betriebssystem für High-Performance-Computing Data Ontap GX am LRZ implementiert: Sechs FAS3050-Systeme mit zusammen 40 Terabyte Nettokapazität ergänzen den HLRB II. Sie speichern künftig die Ergebnisse von Simulationsberechnungen des Supercomputers, einer SGI-Altix-4700-Linux-Blade-Plattform mit 4096 Intel-Itanium-CPUs.

Die Netapp-Systeme speichern künftig Ausgangsdaten und Resultate von wissenschaftlichen Simulationen aus den Fachbereichen Physik, Materialforschung, Strömungsdynamik, Astrophysik, Geowissenschaften, Chemie, Biowissenschaften und Medizin. Anhand des Global Namespace von Data Ontap GX können mehrere, voneinander unabhängige Datenspeichersysteme als große Festplatte mit allen Dateien und Dateisystemen verwaltet werden. Da sich zudem ausgewählte Datensets oder auch Einzeldateien auf mehrere Speichersysteme und deren Festplatten verteilen lassen, entstehe deutlich mehr Leistung als bei einem traditionellen Storage-System. Ein SPEC-SFS-Test von Data Ontap GX ergab laut Netapp mehr als eine Million Operationen pro Sekunde.

„Als Netapp Data Ontap GX vorstellte, war unser Interesse schnell geweckt. Schließlich kennen wir seit längerem die Vorteile von Netapp Enterprise Storage“, erklärt Christoph Biardzki, Systembetreuung NAS am LRZ.

Jedes Forschungsprojekt mit Rechenzeit auf dem Bundeshöchstleistungsrechner erhält künftig auf dem Netapp-Storage-System dedizierte Speicherkapazität zugewiesen. Aufgrund der Wichtigkeit der Daten wird nicht nur online mit der Snapshot-Technologie von Data Ontap GX gesichert: Das Daten-Image wird zudem über NDMP auf dafür reservierte SATA-Backup-Festplatten gespiegelt. Mittelfristig will das LRZ die Sicherung der Systeme in seine Bandroboterstruktur mit aktuell 1300 Terabyte Daten eingliedern. Den Netapp-Datenspeichern vorgelagert ist ein direkt an den Höchstleistungsrechner angeschlossener, pseudotemporärer Speicher mit 300 Terabyte. Er dient dem Supercomputer als reine Datenzwischenablage und wird auch nicht gesichert.

Page: 1 2 3 4 5

ZDNet.de Redaktion

Recent Posts

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

2 Tagen ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

2 Tagen ago

Netzwerk-Portfolio für das KI-Zeitalter

Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…

2 Tagen ago

Internet-Tempo in Deutschland: Viel Luft nach oben

Höchste Zeit für eine schnelle Kupfer-Glas-Migration. Bis 2030 soll in Deutschland Glasfaser flächendeckend ausgerollt sein.

2 Tagen ago

Erste Entwickler-Preview von Android 16 verfügbar

Schon im April 2025 soll Android 16 den Status Plattformstabilität erreichen. Entwicklern gibt Google danach…

2 Tagen ago

Kaspersky warnt vor Cyberangriff auf PyPI-Lieferkette

Die Hintermänner setzen KI-Chatbot-Tools als Köder ein. Opfer fangen sich den Infostealer JarkaStealer ein.

3 Tagen ago