In den USA kostet die von HPC benötigte Energieleistung von einem Megawatt zwischen 1,3 und 1,8 Millionen Dollar. IBM gibt deshalb neue Design-Parameter für Pentaflop-Systeme aus und will die Kosten pro Megawatt deutlich senken, und zwar „von derzeit 75 Megawatt (MW) pro Pentaflop auf unter sieben MW“, gibt Turrek vor. Wie das konkret geschehen soll, lässt der Branchenprimus aber noch offen.
Alan Gara vom IBM T. J. Watson Research Center illustriert die Problematik an einigen hausgemachten Beispielen wie dem Earth Simulator, Blue Gene/L und MareNostrum: „Wenn wir die Systeme ohne technische Innovation weiter aufrüsten, müssen wir mit einer Verdoppelung des Energiebedarfs alle 18 Monate rechnen.“ Eine Patentlösung für diese Problematik existiere noch nicht, sei aber auf der Basis von Kooperationen mit unterschiedlichen Partnern in Reichweite.
Mittelfristig könnten die USA unter der Führung von IBM sogar einen Teil ihrer Vormachtstellung einbüßen. Big Blue hat bereits reagiert und will mit dem Aufbau von Entwicklerkapazitäten in Asien rechtzeitig gegensteuern. Doch die Konkurrenz schläft nicht: Der asiatische Spitzenreiter Japan verfügt nach der neuen Top500-Liste bereits über 23 HPC-Systeme und hat damit schon fast die Hälfte des deutschen Volumens von derzeit 40 erreicht.
In ganz Asien sind 58 Systeme installiert, auch dies macht schon fast die Hälfte des europäischen Volumens mit 114 aus. Auf der HPC-Landkarte immer auffallender präsent ist außerdem China mit derzeit 19 Systemen. Das Reich der Mitte unterstrich seine künftige Bedeutung auch durch mehrere Vertreter auf der International Supercomputing Conference (ISC).
- Supercomputing: Mooresches Gesetz verliert an Bedeutung
- Dezentrale Nutzerkonzepte gefragt - Wann kommen Personal Supercomputer?
- Steigender Energieverbrauch erschwert wirtschaftliche Konzepte
- Reine Leistungsstärke wie in der Formel 1 reicht nicht mehr aus
- Konkreten Nutzwert für kleine und mittelständische Unternehmen
- Zwiespalt zwischen Nutzer und Öffentlichkeit
Neueste Kommentare
2 Kommentare zu Supercomputing: Mooresches Gesetz verliert an Bedeutung
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
Zitat meines alten Informatiklehrers:
"… aber Speicherplatz kostet ja heutzutage nix mehr"
(Und das war 1995!)
Andererseits musst du mal hochrechnen, was billiger ist: Die benötigte (Arbeits-) Zeit um einen perfekten, kompakten, (unwartbaren) … Code zu schreiben ODER die doppelte Menge an Rechenleistung und Speicher.
Auf der anderen Seite: um nen Brief uaf meinem 286er zu schreiben reichte damals etwa das in MHz, was heute in GHz … naja, mit DER Aussage warte ich lieber noch 1-2 Jahre, dann Stimmts ;-)
sanfte Grüße aus der Eifel,
eifelbauer
p.s.: Was waren dass noch für Zeiten, als man den Englischen Tastaturtreiber geladen hat, damit für "Indiana Jones" die fehlenden 3kB Hauptspeicher frei wurden… andererseits war es damals offensichtlich auch schon so, dasa gerade Spiele die Hardware am meisten forderten.
Personal Supercomputer?!!
Also mal ehrlich… wenn ich meinen heutigen Mittelklasse PC (AMD Athlon, 2.2GHz mit 3x256MB RAM 200 GB Festplatte und 128 MB GeForce3) mit meinem ersten Computer (C64 mit revolutionären 39kB nutzbarem Arbeisspeicher und 985 kHz Prozessorfrequenz) vergleiche denke ich, das wir für "personal Supercomputer" nicht die Hardware weiter optimieren müssen und uns 90 Prozessoren in den Keller Stellen müssen um dann damit doch nur "Pong" zu spielen…
Man muß das aktuelle Design nur mal komplett überarbeiten und dann die vorhandene Hardware richtig nutzen. Ich habe Druckertreiber gesehen die waren so groß wie meine komplette Diskettensammlung damals…