Deutschland kämpft um Europas Supercomputing-Krone

ZDNet: Aktuell arbeiten Sie mit Speichersystemen von SGI und Netapp – was sich aus Ihrer doppelten Rolle als Hoster für die Nutzer-Accounts einerseits und Storage-Provider für das Supercomputing andererseits erklärt. Können Sie die beiden Aufgabengebiete näher beschreiben?

Biardzki: Am HLRB2 gibt es zwei Speichersysteme: Netapps Ontap GX für alle Projektdaten (55 TByte) und SGIs CXFS (262 TByte) für alle Zwischenergebnisse und pseudotemporäre Daten. Während CXFS eine enormen Durchsatz bei großen Dateien liefert, kommt Ontap GX viel besser mit großen Mengen an kleineren Files zurecht und bietet zusätzlich integrierte Snapshot- und Replikationsmöglichkeiten. Das LRZ in seiner Rolle als IT-Service-Provider für die Münchner Hochschulen betreibt weitere Speichersysteme.

ZDNet: Welche sind das und wofür dienen sie?

Biardzki: Die auf IBMs Tivoli Storage Manager basierten Backup- und Archivsysteme nutzen Storage- und Bandsysteme von IBM und Storagetek, um wichtige Daten auf Magnetband zu archivieren. Hier kommt beim HLRB2 hauptsächlich Sun-Storagetek-T10000-Technologie mit 120 MByte/s Durchsatz und 500 GByte/Band zum Einsatz.

ZDNet: Wie gestaltet sich die Zusammenarbeit mit Fremdfirmen wie SGI, Netapp oder anderen?

Biardzki: SGI ist Generalunternehmer für den gesamten Höchstleistungsrechner sowie seine Speichersysteme und kann damit alle Aufgaben direkt koordinieren. Zusätzlich zur Rechnerhardware bietet ein so großer Rechner auch noch Herausforderungen im Bereich Klimatechnik, Stromversorgung oder Software. Die Zusammenarbeit mit SGI läuft ausgezeichnet: Da SGI am LRZ ein eigenes Büro und Mitarbeiter vor Ort hat, können durch die kurzen Wege viele Aufgaben sehr effizient gelöst werden.

ZDNet: Welche Art von Daten fallen beim Supercomputing an?

Biardzki: Wie bereits angesprochen muss hier zwischen Programmcodes, Quell- und Ergebnisdaten sowie temporären Zwischenergebnissen unterschieden werden. Bei ersteren ist die Datenintegrität extrem hoch, die Performanceanforderungen sind jedoch oft niedriger. Die Zwischenergebnisse bewegen sich schnell im Terabyte-Bereich – der Rechner hat ja schon 17,5 TByte RAM -, können jedoch prinzipiell einfach neu berechnet werden. Aus diesem Grund erfolgt hier auch keine Datensicherung.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Digitale Produkte „cyberfit“ machen

Vernetzte Produkte müssen laut Cyber Resilience Act über Möglichkeiten zur Datenverschlüsselung und Zugangsverwaltung verfügen.

2 Tagen ago

Google schließt schwerwiegende Sicherheitslücken in Chrome 131

Das jüngste Update für Windows, macOS und Linux stopft drei Löcher. Eine Anfälligkeit setzt Nutzer…

3 Tagen ago

Apple schließt Zero-Day-Lücken in iOS, iPadOS und macOS

Zwei von Google-Mitarbeitern entdeckte Schwachstellen werden bereits aktiv gegen Mac-Systeme mit Intel-Prozessoren eingesetzt. Sie erlauben…

3 Tagen ago

Gefährliche Anzeigen für Passwortmanager Bitwarden verbreiten Malware

Die Hintermänner haben es unter anderem auf Daten von Facebook-Geschäftskonten abgesehen. Opfer werden über angebliche…

3 Tagen ago

Public Cloud: Gartner erwartet 2025 weltweite Ausgaben von 723 Milliarden Dollar

Bis 2027 werden 90 Prozent der Unternehmen eine Hybrid-Cloud-Strategie umsetzen.

4 Tagen ago

iPhone 15 ist bestverkauftes Smartphone im dritten Quartal

Apple belegt in der Statistik von Counterpoint die ersten drei Plätze. Samsungs Galaxy S24 schafft…

4 Tagen ago