Supercomputing 2006: Deutschland in der Rezession

Auf dem asiatischen Markt ist offensichtlich, dass das künftige substanzielle Wachstum wohl kaum noch von Japan ausgehen dürfte. Professor Dr. Yoshio Oyanagi von der University of Tokyo zeichnete nämlich auf der Supercomp in Dresden ein düsteres Bild der aktuellen Lage: Die japanische Position habe sich dramatisch verschlechtert. Ein Earth Simulator alleine unter den Top-20 mache eben noch keinen Sommer.

Das Land hat nach Auffassung von Oyanagi zu lange auf eine Supercomputing-Monokultur gesetzt und sich auf den Lorbeeren des vektorbasierten NEC Earth Simulators ausgeruht, kritisiert Oyanagi. Auch reiche es nicht aus, sich nur auf das Design von Applikationssoftware zu beschränken und die Entwicklung von High End Maschinen zu vernachlässigen.

Derzeit investiert Japan mit dem auf sieben Jahre angelegten Projekt „KEISOKU“ nur bescheidene Finanzmittel in neue Vektor-Architekturen, obwohl der weltweite Trend eher gegen diese einseitige Ausrichtung spricht: „Eine Technologie, die nicht zu mehr Commodity führt, kann als Ökosystem auf die Dauer nicht überleben“, gab Oyanagi zu bedenken. Stattdessen benötige das Land in der HPC-orientierten Forschung und Entwicklung eine von oben nach unten klar geordnete „Cyber-Infrastruktur“.

Ganz anders präsentiert sich die Situation im aufstrebenden China. Das Land dürfte Europa mit Massenprodukten unter Zugzwang setzen. Ein Beleg hierfür war auf der Supercomp die Präsenz von Steve Chen. Er war als einer der legendären Designer der erfolgreichen Cray XMP- und YMP-Serien bereits in den siebziger Jahren erfolgreich und kehrte nun unter freudigem Beifall der Community auf die Bühne zurück.

Seine Botschaften waren handlich verpackt: „Supercomputing sollte auf eine größere Anzahl von Nutzern ausgerichtet sein, um die Kreativität der Systeme auch in breiter Form nutzbar zu machen“, lautet das Credo des Chefarchitekten in dem von ihm im chinesischen Shenzhen gegründeten Unternehmen Galactic Computing.

China hat in den letzten Jahren nach Einschätzung von Experten mehrere hundert Millionen Euro in diverse HPC-Zentren investiert. Das Geld für diese Neugründungen stammt sowohl aus staatlicher Hand als auch von Seiten privater Investoren. Als nationale Aushängeschilder gelten etwa das Shanghai HPC-Center mit insgesamt elf Teraflop/s Rechenleistung, gefolgt von Beijing mit fünf Terafllop sowie dem Galactic Super Blade Center mit vier Teraflop. Tendenziell bewegen sich die meisten dieser Cluster Architekturen mittlerweile auf ein Wachstum in Richtung 25 bis 100 Teraflop zu.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Vorinstallierte Schadsoftware auf IoT-Geräten

Mit dem Internet verbundene Digitale Bilderrahmen oder Mediaplayer können mit Schadsoftware infiziert werden und sind…

6 Tagen ago

iOS und iPadOS 18.2 beseitigen 21 Sicherheitslücken

Schädliche Apps können unter Umständen einen Systemabsturz auslösen. Mindestens eine Anfälligkeit erlaubt eine Remotecodeausführung.

6 Tagen ago

Top-Malware im November: Infostealer Formbook bleibt Nummer 1

Sein Anteil an allen Infektionen steigt in Deutschland auf 18,5 Prozent. Das Botnet Androxgh0st integriert…

6 Tagen ago

Google schließt schwerwiegende Sicherheitslücken in Chrome

Betroffen sind Chrome 131 und früher für Windows, macOS und Linux. Angreifer können unter Umständen…

7 Tagen ago

Data Analytics: Dienstleister wachsen zweistellig

Marktforscher Lündendonk erwartet für das Jahr 2025 ein durchschnittliches Umsatzwachstum von 14,9 Prozent.

7 Tagen ago

Open-Source-Malware auf Rekordniveau

Alarmierender Anstieg von Open-Source-Malware / Seit 2019 haben Sonatype-Analysen mehr als 778.500 bösartige Pakete aufgedeckt

1 Woche ago