ZDNet: Wie speichern und sichern Sie diese Datenmengen?
Biardzki: Projektdaten werden auf den Netapp-Systemen über mehrere Dateisystem-Snapshots sowie eine Replikation auf zusätzliche SATA-Festplatten geschützt (diese Features sind in Ontap GX integriert). Das pseudotemporäre Dateisystem wird nicht gesichert.
ZDNet: Wie lange müssen die Daten vorrätig sein? Wie geht die Archivierung vonstatten?
Biardzki: Die Projektdaten sind über die gesamte Projektlaufzeit verfügbar, also über Monate bis Jahre und werden danach gelöscht. Das pseudotemporäre Dateisystem unterliegt einer Gleitlöschung, es wird also teilentleert, sobald ein bestimmter Füllstand erreicht wurde.
Die Langzeitarchivierung erfolgt über den IBM Tivoli Storage Manager: für den HLRB2 gibt es dedizierte Archivierungsserver, die einen Durchsatz von mehreren hundert MBit/s ermöglichen. Archivdaten werden aus einem Disk-Cache des Archivierungsservers auf Band gespeichert und zusätzlich in ein benachbartes Rechenzentrum kopiert, um eine Zweitkopie zu erhalten.
ZDNet: Die wissenschaftlichen Supercomputing-Daten werden also auf SGI gespeichert? Die Nutzerdaten wie E-Mails auf Netapp?
Biardzki: Der HLRB2 ist wegen der spezifischen Anforderungen ein separates System. Als IT-Service-Provider für die Münchner Hochschulen betreibt das LRZ weitere Speichersysteme von IBM, Storagetek und Netapp mit rund 250 TByte SAN und 55 TByte NAS-Speicher plus 1,7 PByte auf Band in mehreren Bandarchivsystemen mit etwa 2,5 PByte Kapazität. SAN kommt primär bei den Backup- und Archiv-Disk-Caches sowie bei Datenbanken zum Einsatz. NAS bedient hauptsächlich die Bereiche E-Mail, Dateidienste sowie diverse interne Server. Auch das von Münchner Wissenschaftlern genutzte Linux-Cluster des LRZ mit circa 300 Knoten wird über NAS versorgt.
ZDNet: Sie haben in Ihrem Vortrag erwähnt, dass Zuverlässigkeit Ihre vorrangige Aufgabe darstelle. Können Sie das näher erläutern?
Biardzki: Wie bereits erwähnt müssen Projektdaten über den höchsten Grad an Datenintegrität und -sicherheit verfügen, das heißt, es sind integrierte Backup- und Replikationsverfahren notwendig. Das pseudotemporäre Dateisystem ist wegen der riesigen Anzahl an Komponenten – 1536 Festplatten, 32 RAID-Controller, 256 SAN-Ports und Hunderte von FC-Karten – natürlich ebenfalls vollredundant ausgelegt, kann aber wegen der Datenmengen nicht automatisch gesichert werden. Das ergibt bei temporären Daten, die sich neu berechnen lassen, auch keinen Sinn. Generell steigt bei großen, zusammenhängenden Dateisystemen immer das Risiko eines Ausfalls, so dass auch die Verfahren für den Schutz der Daten angepasst werden müssen, etwa RAID DP auf den Netapps.
Kontinuierliche Content Produktion und Markenaufbau sind essentieller Pfeiler von langfristigen Unternehmenserfolg. Das ist mittlerweile auch…
KI-Funktionen beschleunigen die Erholung des PC-Markts. Der Nettogewinn legt um 44 Prozent zu, der Umsatz…
Googles App-Entwickler-Kit dient der Tarnung des schädlichen Codes. Der Sicherheitsanbieter Jamf hält die Schadsoftware für…
Ausgeklügelte Phishing-Kampagne verwendet eine weiterentwickelte Version der Rhadamanthys-Stealer-Malware.
Die EU-Kommission kritisiert die Verknüpfung von Facebook und dem hauseigenen Online-Kleinanzeigendienst. Sie sieht darin einen…
Fast zwei Drittel halten jedoch eine Umsetzung aller Vorgaben von NIS 2 bis Jahresende für…