ZDNet: Sie hatten in einem früheren Gespräch anklingen lassen, dass der Vergleich Garching und Jülich dem von Äpfel und Birnen gleichkomme. Können Sie das näher erläutern?
Biardzki: Die beiden Systeme unterscheiden sich grundlegend in ihrer Architektur: Der mit 8192 Dual-Prozessorboards mit jeweils eigenen 512 MB RAM bestückte JUBL eignet sich hervorragend für extrem parallelisierbare Applikationen, bei denen ein Problem effizient auf die einzelnen Prozessoren und deren Speicher zerlegt werden kann. Die Software muss dafür jedoch vergleichsweise aufwändig optimiert werden, und leider ist nicht jeder Algorithmus für einen solchen Rechner geeignet.
Die SGI Altix hat in Phase 1 weniger Rechenleistung und weniger Prozessoren, verfügt jedoch im Vergleich über einen wesentlich größeren und durch die NUMA-Architektur in einem einheitlichen Adressraum zusammenhängenden Arbeitsspeicher (jeweils 1 TByte für 256 Prozessoren). Dabei können „normale“ Linux-Applikationen ausgeführt werden, so dass die Anwender des HLRB2 auf eine sehr breite Palette von – auch kommerziellen – Programmpaketen zurückgreifen können, die sie vielleicht schon von kleineren Systemen am LRZ kennen. Das verkleinert die Einstiegsschwelle zum Supercomputing und erleichtert gleichzeitig die Programmierung.
ZDNet: Welches Ziel hat sich Garching gesteckt: Kann man zur Nummer Eins in Europa aufsteigen?
Biardzki: Der Zusammenschluss der drei nationalen Höchstleistungsrechenzentren – John-von-Neumann-Institut für Computing (NIC), LRZ und Höchstleistungsrechenzentrum Stuttgart (HLRS) zum Gauss Centre for Supercomputing (GCS) bildet eines der größten und leistungsfähigsten Höchstleistungsrechenzentren in Europa. Dadurch wird die Position von Deutschland unter den Bewerberländern für europäische Petaflops-Höchstleistungsrechner natürlich gestärkt. Ein europäischer Petaflops-Rechner mit Standort in Jülich, Stuttgart oder Garching ist also in Zukunft durchaus denkbar.
Alle großen europäischen Höchstleistungsrechenzentren, also auch Jülich, Barcelona und das LRZ, kooperieren übrigens in gesamteuropäischen Grid-Computing-Projekten wie DEISA, um die vorhandene Rechenleistung zu bündeln, Ressourcen besser zu nutzen und auch neue Arten von verteiltem Supercomputing zu ermöglichen. Eine wichtige Rolle spielen auch die verteilte Datenhaltung und die Frage, wie man riesige Datenmengen effizient zwischen entfernten Rechenzentren übertragen kann. Das LRZ ist mit zahlreichen Mitarbeitern an mehreren solcher Grid-Projekte aktiv beteiligt und möchte so seinen Beitrag für die europäische HPC-Community leisten.
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…
Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…
Höchste Zeit für eine schnelle Kupfer-Glas-Migration. Bis 2030 soll in Deutschland Glasfaser flächendeckend ausgerollt sein.
Schon im April 2025 soll Android 16 den Status Plattformstabilität erreichen. Entwicklern gibt Google danach…
Die Hintermänner setzen KI-Chatbot-Tools als Köder ein. Opfer fangen sich den Infostealer JarkaStealer ein.