Distributed oder auch Grid Computing verspricht in diesem Jahrzehnt eine der einflussreichsten Strömungen der Branche zu werden. Nun geht das europäische Forschungszentrum CERN in Genf daran, ein weltweites Wissenschafts-Grid-Netzwerk aufzubauen, das schon jetzt als das schnellste der Welt bezeichnet wird. Die deutsche Schaltstelle wird gerade im Forschungszentrum Karlsruhe aufgebaut.
Auslöser für das „World Wide Grid“ sind Großexperimente der Physik, bei denen gigantische Datenmengen anfallen: Bis zum Jahr 2006 wird beim CERN unter dem Namen LHC (Large Hadron Collider) der größte Beschleuniger der modernen Teilchenphysik aufgebaut. Unter anderem hat Intel (Börse Frankfurt: INL) schon seine Mithilfe zugesagt (ZDNet berichtete). In einem 27 Kilometer langen, kreisförmigen Teilchenbeschleuniger werden dann Protonen oder Bleikerne mit nahezu Lichtgeschwindigkeit aufeinander geschossen. Beim Zusammenstoß werden sie in Unmengen kleinerer Elementarteilchen zerplatzen und dadurch Einblick in die innerste Struktur der Materie geben. Dabei müssen in jeder Sekunde über 100 Millionen Messdaten registriert werden. Drei Millionen Gigabyte an Daten müssen jährlich gespeichert und für weltweit verteilte Wissenschaftlergruppen aufbereitet werden. Auf CD-ROM gepresst ergäbe die Datenmenge einen Stapel, der doppelt so hoch ist wie die Zugspitze.
Ein einzelnes Rechenzentrum kann den Bedarf nicht mehr abdecken. So entstand die Idee, die Daten und die benötigte Rechenleistung in einer hierarchischen Schichtenstruktur über die ganze Welt zu verteilen und die einzelnen Standorte über eine besonders leistungsfähige Internet-Struktur miteinander zu verknüpfen. Die Datenleitungen sollen auf Kapazitäten von sechs GBit/s ausgelegt sein, so viel wie 100.000 ISDN-Leitungen. Weltweit sollen sieben große Rechenzentren den Informationsfluss kontrollieren.
Die europäische Organisation für Nuklear-Forschung (CERN), definiert als Schicht 0, wo die Experimente durchgeführt werden, wird die Daten weltweit auf voraussichtlich sechs Rechenzentren der so genannten Schicht 1 verteilen, von dort laufen sie auf einige Dutzend Zentren der Schicht 2, bis sie schließlich mit Schicht 3 in wissenschaftliche Institute und mit Schicht 4 auf mehrere tausend Arbeitsplätze der beteiligten Wissenschaftler verteilt sind.
Mit dem Aufbau eines Rechenzentrums der Schicht 1 hat das Forschungszentrum Karlsruhe nun für Deutschland begonnen. Unter dem Namen „Regional Data and Computing Center Germany“ (RDCCG) – regionales Daten- und Rechenzentrum Deutschland – entsteht hier ein Knoten für das wissenschaftliche Rechnen von morgen. Weitere fünf solcher Knoten werden in Europa und den USA entstehen.
„Ein solches Datennetz ist nicht nur für die Auswertung der LHC-Experimente notwendig“, erläuterte Klaus-Peter Mickel, Leiter der Hauptabteilung Informations- und Kommunikationstechnik des Forschungszentrums Karlsruhe. „Schon heute gibt es riesige Datenmengen aus US-amerikanischen Teilchenbeschleunigern, die bisher in Deutschland nur unzureichend ausgewertet werden können.“
|
Schränke voller Prozessoren – im Forschungszentrum Karlsruhe ist der Aufbau des „Regional Data and Computing Center Germany“ (RDCCG) als Teil des „World Wide Grid“ in vollem Gange (Foto: Forschungszentrum Karlsruhe) |
Das RDCCG wird deshalb zunächst der Auswertung von Experimenten an den schon bestehenden Teilchenbeschleunigern dienen, aber auch schon zur detaillierten Simulation der in den Experimenten am LHC zu erwartenden Ereignisse benutzt werden. Gleichzeitig wird das RDCCG in großen Schritten so erweitert, dass ab 2006 auch die gewaltigen Datenmengen aus den LHC-Experimenten verarbeitet werden können.
Für die fünf-schichtige Rechnerstruktur, bei der Computer und Datenbanken über das Internet verknüpft werden, hat sich der Begriff „World Wide Grid“ oder einfach „Grid“ eingebürgert. Damit soll an das Elektrizitätsnetz (englisch: Grid) erinnert werden, aus dem man mittels einer Steckdose überall auf der Welt elektrische Leistung beziehen kann. Genauso soll die Arbeit im „World Wide Grid“ ablaufen: Ein Wissenschaftler wird seinen Rechner an das Grid anstöpseln und sein Problem formulieren. Das Grid soll mit Hilfe intelligenter Software selbständig feststellen, wo im globalen Netz die Daten abgelegt sind, in welchem angeschlossenen Rechenzentrum die benötigte Rechenkapazität zur Verfügung steht und wie die Datenübertragung am schnellsten geht. Die Ergebnisse werden dem Forscher direkt auf seinen Rechner geliefert.
Kontakt: Forschungszentrum Karlsruhe, Tel.: 0721/843992 (günstigsten Tarif anzeigen)
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…