Supercomputing 2006: Deutschland in der Rezession

Integriert haben die Redmonder nicht nur Standardkomponenten wie Scheduler und Nodes, sondern auch ein MPI-Interface. Bereits vor zwei Jahren kündigte Microsoft den Einstieg ins HPC-Segment an, bisher allerdings ohne durchschlagenden Erfolg. Ab August trägt nun das Unternehmen dem weltweiten Trend zu Cluster Systemen Rechnung und offeriert den Produktbaustein Windows Compute Cluster Server 2003. Ein zentrales Management, die einheitliche Oberfläche sowie Supportleistungen sollen den Markt überzeugen. Laut Tromsdorf soll das integrierte Standard-System rund 450 Dollar kosten.

Microsoft visiert damit neue Kundensegmente nicht nur in den klassischen HPC-Segmenten wie Engineering und Manufacturing an, sondern auch im Bereich von Finanzdienstleistungen, etwa in der Simulation von Investitionsrisiken. Zahlreiche Referenzkunden aus dem Bankenbereich scheinen diesen Trend zu bestätigen. Einen kleinen Spalt ist die Türe sogar für Unternehmen offen, die selbst Applikationen entwickeln, auch unter Einbeziehung von Linux-Anwendungen.

Weiterhin propagiert im Umfeld der Supercomp wurde auch der Mythos des „kleinen Supercomputer für den Schreibtisch“. So ist der bereits auf der Cebit 2006 vorgestellte Typhoon Personal Supercomputer von Tyan jetzt auch in Deutschland auf dem Markt vertreten. Allerdings liegt die Rechenleistung mit 70 Milliarden Gleitkomma-Operation pro Sekunde nur im zeitlichen Vergleich zu früheren Systemen auf der Höhe der Zeit. Zudem ist der stolze Preis von rund 4000 Euro nur für ambitionierte Nutzer erschwinglich. Schließlich stellt sich die Frage, ob gemeinsam genutzte virtuelle Kapazitäten im professionellen Ambiente nicht die bessere Variante sind.

Zum Schluß aus deutscher Sicht noch eine tröstliche Nachricht: Im wissenschaftlichen Umfeld gibt es auch künftig einheimisches Innovationspotential zu bestaunen. So etwa im neuen Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften (BAdW) in München. Dieses soll schon bald über zwei neue Supercomputer verfügen, den sogenannten Bundes-Höchstleistungsrechner HLRB-II. Dabei handelt es sich um ein SGI-Altix-4700-System mit 6656 Igtanium2-Prozessorkernen, einem 40 TByte großen, einheitlich nutzbaren Arbeitsspeicher sowie 660 TByte Plattenspeicher. Schon im Herbst soll das System mit einer Leistung von 69 TF/s an den Start. Jülich, Stuttgart und München sind damit zumindest im internen Länderranking weiterhin ganz vorne positioniert.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

KI-Modell „Made in Germany“

Telekom bietet als erstes Unternehmen kommerzielles Angebot mit Teuken-7B von OpenGPT-X.

1 Woche ago

Studie: Mitarbeiterverhalten verursacht IT-Sicherheitsrisiken

Zur Arbeitserleichterung umgehen Mitarbeiter unter anderem Cybersicherheitsrichtlinien. Dazu gehört wie Wiederverwendung von Kennwörtern für geschäftliche…

1 Woche ago

Lichtgeschwindigkeit für generative KI

Optiktechnologie könnte elektrische Verbindungen in Rechenzentren ersetzen und so Geschwindigkeit und Energieeffizienz für KI erheblich…

1 Woche ago

Meta kündigt neues Rechenzentrum für 10 Milliarden Dollar an

Es entsteht im US-Bundesstaat Louisiana. Meta sichert damit den Rechenbedarf für seine KI-Dienste.

1 Woche ago

Autonomes Fahren: Deutsche sehen eher Risiken

Weniger Lärm und ein besserer Verkehrsfluss sind die einzigen Vorteile, der die Mehrheit der Bevölkerung…

1 Woche ago

Jeder zweite hat Probleme mit Internetanbieter

Laut EY haben innerhalb eines Jahres 22 Prozent der Haushalte ihren Provider gewechselt – nirgendwo…

2 Wochen ago