Categories: Anzeige

Forschungsdaten rasch analysieren und sicher speichern

Astrophysik, Genomik oder Klimaforschung: Auf der Suche nach bahnbrechenden Erkenntnissen sammeln, analysieren, dokumentieren und speichern Forschende auf der ganzen Welt ständig neue Informationen. Doch aufgrund der täglich anfallenden Datenflut ist es nicht immer leicht, das Optimum aus ihren Forschungstätigkeiten zu holen. Gefragt ist daher ein intelligentes Datenmanagement als Wegbereiter für Innovation.

Um Forschende zu unterstützen und die internationale Zusammenarbeit von Forschung und Wissenschaft zu fördern, sollte die Nutzung von Daten nach dem Prinzip „FAIR“ (findable, accessible, interoperable and re-useable) möglich sein. Entwickelt wurde das Konzept von Science Europe, einer Gemeinschaft von Wissenschaftlern aus ganz Europa. Mit aktuell knapp 50 Mitgliedsorganisationen aus 27 Ländern hat sich Science Europe zum Ziel gesetzt, die Digitalisierung in Forschung und Wissenschaft voranzutreiben und einheitliche Strategien sowie Praktiken für das Datenmanagement zu schaffen.

Intelligente Dateninfrastruktur fördert Innovation

Einheitliche Data-Management-Pläne (DMP) spielen dabei eine zentrale Rolle. Sie ermöglichen es Forschungszentren, Förderern, Gutachtern und einzelnen Wissenschaftlern gleichermaßen, ihre wertvollen Daten zu teilen und den Fortschritt zu beschleunigen. Investitionen in das Datenmanagement sind somit der Schlüssel, um die Datenflut zu kontrollieren und ihr volles Potenzial auszuschöpfen.

In einer Zeit, in der das Datenvolumen exponentiell wächst, zeigt sich, dass diejenigen, die in eine intelligente Dateninfrastruktur investieren, nicht nur den Fortschritt vorantreiben, sondern auch einen Wettbewerbsvorteil für ihre Institutionen schaffen. Dabei kommt es nicht nur auf ein effektives Datenmanagement an, sondern auch auf höchste Performance. Denn nichts lähmt Forschende mehr, als das zähe Warten auf die Auswertung von Untersuchungsdaten aufgrund unzureichender Leistungsfähigkeit der Systeme. Ein Grund, warum heutzutage viele Institutionen aktuelle Big-Data-Technologien und Künstliche Intelligenz (KI) mit leistungsfähigem High Performance Computing (HPC) verbinden.

Shared Storage: Höhere Performance für datenintensive Forschung

Experimente, Simulationen, Analysen: Im Rahmen wissenschaftlicher Untersuchungen fallen riesige Datenmengen an. Um den hohen Anforderungen an Speicherplatz und Performance gerecht zu werden, haben sich verteilte Speichersysteme der Serie OceanStor Pacific Scale-Out von Huawei bewährt. Diese Distributed-Storage-Lösungen von Huawei sind hochgradig skalierbar, sodass Forschungszentren ihre Speicherkapazität bei wachsenden Datenmengen einfach erweitern können – ohne Unterbrechungen oder Leistungseinbußen bei der Datenverarbeitung.

Neben flexibel nutzbarem Speicherplatz punkten die Systeme mit schnellen Übertragungsraten. Das liegt unter anderem daran, dass Daten auf mehrere Knoten – auch über mehrere Standorte hinweg – verteilt werden. Diese Architektur ermöglicht den parallelen Zugriff auf Daten, was zu einer verbesserten Lese- und Schreibleistung, geringeren Latenzzeiten sowie einer schnelleren Datenverarbeitung für datenintensive Forschungsaufgaben führt. Darüber hinaus gibt es zahlreiche Funktionen, um Daten effizienter zu verwalten, zum Beispiel um Richtlinien für den Lebenszyklus von Daten oder für Versionierungen umzusetzen. Dies ist besonders wichtig für Forschungszentren, die bestimmte Compliance-Vorgaben berücksichtigen müssen.

Kostengünstig, zuverlässig, zukunftssicher

Forschungseinrichtungen, Universitäten oder wissenschaftliche Institute, die eine verteilte Speicherumgebung auf Basis von Huawei OceanStor Pacific Scale-Out nutzen, profitieren darüber hinaus von folgenden Vorteilen:

– Kosteneffizienz: Die Installation der verteilten Speichersysteme ist im Vergleich zu handelsüblichen Storage-Lösungen kostengünstiger. Forschungszentren können herkömmliche Hardware verwenden und den Speicher bedarfsweise skalieren, sodass keine Vorabinvestitionen in teure Speicher-Arrays erforderlich sind.

– Einfache Datensicherung und -wiederherstellung: Verteilte Speichersysteme minimieren das Risiko von Datenverlust. Da die Daten über mehrere Knoten verteilt sind, lassen sich Backups effizienter und schneller erstellen. Im Falle eines Ausfalls stellen die verteilten Systeme sicher, dass die Daten aus redundanten Kopien wiederhergestellt werden können.

– Datenzugriff und Zusammenarbeit: Mithilfe von Shared Storage können Forscher aus verschiedenen Bereichen oder sogar über Instituts- und Universitätsgrenzen hinweg effizient auf Daten zugreifen und diese gemeinsam nutzen. Dies fördert interdisziplinäre Forschung und einen regen Wissensaustausch.

– Verarbeitung großer Workloads: Die Lösungen von Huawei eignen sich hervorragend für Big Data und KI-Workloads und die damit verbundene Verarbeitung großer Datensätze und Zugriffsmuster mit hohem Durchsatz.

– Zukunftssicherheit: Verteilte Speicherumgebungen sind so konzipiert, dass sie sich leicht an neue Technologien und Anforderungen anpassen lassen. So können Forschungszentren ihre Daten- und Speicherinfrastruktur zukunftssicher aufstellen.

Perfekter Begleiter für Big Data und KI

Huawei OceanStor Pacific Scale-Out eignet sich besonders gut für datenintensive Workloads. Das Ultra-High-Density-Design der Systeme ermöglicht es, große Datenmengen auf kleinstem Raum zu speichern und zu verarbeiten. So sparen Forschungseinrichtungen im Rechenzentrum oder Serverraum viel Platz ein, was ihre Gesamtbetriebskosten (Total Cost of Ownership, TCO) deutlich senkt. Beim Verarbeiten von rechen- und datenintensiven Workloads – also von hybriden Workloads – spielt außerdem das integrierte Dateisystem OceanFS sein Stärken aus, welches große Bandbreiten und schnelle Input/Output-Operationen pro Sekunde (IOPS) unterstützt.

Die OceanStor-Scale-Out-Speicherserie von Huawei basiert auf innovativen, hochmodernen Architekturen und Technologien, die Forschung und Wissenschaft zuverlässig in die Yottabyte-Ära begleiten. Die Lösungen wurden für zahlreiche Anwendungen entwickelt – von Virtualisierung und Cloud-Ressourcenpools über Backup und Archivierung bis zu Big Data Analytics und High Performance Data Analytics (HPDA). So wird eine robuste, sichere Dateninfrastruktur gewährleistet, die effiziente hybride Arbeitslasten, effizientes Datenmanagement sowie eine verbesserte Datenausfallsicherheit bietet.

Um mehr über dieses Thema zu erfahren, klicken Sie hier.

Maria Jose Carrasco

Recent Posts

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

2 Stunden ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

6 Stunden ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

7 Stunden ago

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

7 Stunden ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

7 Stunden ago

Netzwerk-Portfolio für das KI-Zeitalter

Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…

9 Stunden ago