Astrophysik, Genomik oder Klimaforschung: Auf der Suche nach bahnbrechenden Erkenntnissen sammeln, analysieren, dokumentieren und speichern Forschende auf der ganzen Welt ständig neue Informationen. Doch aufgrund der täglich anfallenden Datenflut ist es nicht immer leicht, das Optimum aus ihren Forschungstätigkeiten zu holen. Gefragt ist daher ein intelligentes Datenmanagement als Wegbereiter für Innovation.
Um Forschende zu unterstützen und die internationale Zusammenarbeit von Forschung und Wissenschaft zu fördern, sollte die Nutzung von Daten nach dem Prinzip „FAIR“ (findable, accessible, interoperable and re-useable) möglich sein. Entwickelt wurde das Konzept von Science Europe, einer Gemeinschaft von Wissenschaftlern aus ganz Europa. Mit aktuell knapp 50 Mitgliedsorganisationen aus 27 Ländern hat sich Science Europe zum Ziel gesetzt, die Digitalisierung in Forschung und Wissenschaft voranzutreiben und einheitliche Strategien sowie Praktiken für das Datenmanagement zu schaffen.
Einheitliche Data-Management-Pläne (DMP) spielen dabei eine zentrale Rolle. Sie ermöglichen es Forschungszentren, Förderern, Gutachtern und einzelnen Wissenschaftlern gleichermaßen, ihre wertvollen Daten zu teilen und den Fortschritt zu beschleunigen. Investitionen in das Datenmanagement sind somit der Schlüssel, um die Datenflut zu kontrollieren und ihr volles Potenzial auszuschöpfen.
In einer Zeit, in der das Datenvolumen exponentiell wächst, zeigt sich, dass diejenigen, die in eine intelligente Dateninfrastruktur investieren, nicht nur den Fortschritt vorantreiben, sondern auch einen Wettbewerbsvorteil für ihre Institutionen schaffen. Dabei kommt es nicht nur auf ein effektives Datenmanagement an, sondern auch auf höchste Performance. Denn nichts lähmt Forschende mehr, als das zähe Warten auf die Auswertung von Untersuchungsdaten aufgrund unzureichender Leistungsfähigkeit der Systeme. Ein Grund, warum heutzutage viele Institutionen aktuelle Big-Data-Technologien und Künstliche Intelligenz (KI) mit leistungsfähigem High Performance Computing (HPC) verbinden.
Experimente, Simulationen, Analysen: Im Rahmen wissenschaftlicher Untersuchungen fallen riesige Datenmengen an. Um den hohen Anforderungen an Speicherplatz und Performance gerecht zu werden, haben sich verteilte Speichersysteme der Serie OceanStor Pacific Scale-Out von Huawei bewährt. Diese Distributed-Storage-Lösungen von Huawei sind hochgradig skalierbar, sodass Forschungszentren ihre Speicherkapazität bei wachsenden Datenmengen einfach erweitern können – ohne Unterbrechungen oder Leistungseinbußen bei der Datenverarbeitung.
Neben flexibel nutzbarem Speicherplatz punkten die Systeme mit schnellen Übertragungsraten. Das liegt unter anderem daran, dass Daten auf mehrere Knoten – auch über mehrere Standorte hinweg – verteilt werden. Diese Architektur ermöglicht den parallelen Zugriff auf Daten, was zu einer verbesserten Lese- und Schreibleistung, geringeren Latenzzeiten sowie einer schnelleren Datenverarbeitung für datenintensive Forschungsaufgaben führt. Darüber hinaus gibt es zahlreiche Funktionen, um Daten effizienter zu verwalten, zum Beispiel um Richtlinien für den Lebenszyklus von Daten oder für Versionierungen umzusetzen. Dies ist besonders wichtig für Forschungszentren, die bestimmte Compliance-Vorgaben berücksichtigen müssen.
Forschungseinrichtungen, Universitäten oder wissenschaftliche Institute, die eine verteilte Speicherumgebung auf Basis von Huawei OceanStor Pacific Scale-Out nutzen, profitieren darüber hinaus von folgenden Vorteilen:
– Kosteneffizienz: Die Installation der verteilten Speichersysteme ist im Vergleich zu handelsüblichen Storage-Lösungen kostengünstiger. Forschungszentren können herkömmliche Hardware verwenden und den Speicher bedarfsweise skalieren, sodass keine Vorabinvestitionen in teure Speicher-Arrays erforderlich sind.
– Einfache Datensicherung und -wiederherstellung: Verteilte Speichersysteme minimieren das Risiko von Datenverlust. Da die Daten über mehrere Knoten verteilt sind, lassen sich Backups effizienter und schneller erstellen. Im Falle eines Ausfalls stellen die verteilten Systeme sicher, dass die Daten aus redundanten Kopien wiederhergestellt werden können.
– Datenzugriff und Zusammenarbeit: Mithilfe von Shared Storage können Forscher aus verschiedenen Bereichen oder sogar über Instituts- und Universitätsgrenzen hinweg effizient auf Daten zugreifen und diese gemeinsam nutzen. Dies fördert interdisziplinäre Forschung und einen regen Wissensaustausch.
– Verarbeitung großer Workloads: Die Lösungen von Huawei eignen sich hervorragend für Big Data und KI-Workloads und die damit verbundene Verarbeitung großer Datensätze und Zugriffsmuster mit hohem Durchsatz.
– Zukunftssicherheit: Verteilte Speicherumgebungen sind so konzipiert, dass sie sich leicht an neue Technologien und Anforderungen anpassen lassen. So können Forschungszentren ihre Daten- und Speicherinfrastruktur zukunftssicher aufstellen.
Huawei OceanStor Pacific Scale-Out eignet sich besonders gut für datenintensive Workloads. Das Ultra-High-Density-Design der Systeme ermöglicht es, große Datenmengen auf kleinstem Raum zu speichern und zu verarbeiten. So sparen Forschungseinrichtungen im Rechenzentrum oder Serverraum viel Platz ein, was ihre Gesamtbetriebskosten (Total Cost of Ownership, TCO) deutlich senkt. Beim Verarbeiten von rechen- und datenintensiven Workloads – also von hybriden Workloads – spielt außerdem das integrierte Dateisystem OceanFS sein Stärken aus, welches große Bandbreiten und schnelle Input/Output-Operationen pro Sekunde (IOPS) unterstützt.
Die OceanStor-Scale-Out-Speicherserie von Huawei basiert auf innovativen, hochmodernen Architekturen und Technologien, die Forschung und Wissenschaft zuverlässig in die Yottabyte-Ära begleiten. Die Lösungen wurden für zahlreiche Anwendungen entwickelt – von Virtualisierung und Cloud-Ressourcenpools über Backup und Archivierung bis zu Big Data Analytics und High Performance Data Analytics (HPDA). So wird eine robuste, sichere Dateninfrastruktur gewährleistet, die effiziente hybride Arbeitslasten, effizientes Datenmanagement sowie eine verbesserte Datenausfallsicherheit bietet.
Um mehr über dieses Thema zu erfahren, klicken Sie hier.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…