Supercomputing: Mooresches Gesetz verliert an Bedeutung

ZDNet befragte Michael Resch, Direktor des Höchstleistungs-Rechenzentrums (HLRS) in Stuttgart, zur Zukunft des High Performance Computings und zur Bedeutung der Top-500-Liste:

ZDNet: Herr Resch, was waren denn für Sie und die übrigen Organisatoren die Highlights der diesjährigen Supercomputing?

Resch: Der zentrale Punkt war sicher die Diskussion über mögliche zukünftige Petaflopsysteme. Wo bisher immer optimistisch in erster Linie von Zeithorizonten die Rede war – und im Vordergrund die Frage stand, wann wir Petaflops erreichen – wurde nun erstmals offen diskutiert vor welchen Problemen wir in Wirklichkeit stehen. Das besonders Positive daran ist, dass mit dieser Diskussion auch erstmals begonnen wurde vom Supercomputing über die reine Rechenleistung hinaus zu diskutieren.

ZDNet: Rein hardwarebasierte Konzepte haben etwas von dem Glanz früherer Tage verloren, worin liegt denn Ihrer Meinung nach die Zukunft des High Performance Computing?

Resch: Die Zukunft des High Performance Computing liegt noch immer in der Qualität der Konzepte – das war seit Seymour Crays Zeiten so und das gilt auch noch heute. Das bezieht sich sowohl auf die Hardware als auch auf die Lösungen, die wir im High Performance Computing anbieten können. Die rein quantitativen Konzepte mit Leistungssteigerungen einzig aufgrund der enormen Anzahl von Prozessoren sind zwar ein notwendiger Weg um neue Erkenntnisse zu gewinnen, taugen aber auf Dauer nicht als Lösung für eine Ära des Petaflopscomputing. Wir brauchen qualitativ neue Hardwarekonzepte. Darüber hinaus müssen wir uns als Community aber auch für neue Nutzergruppen öffnen.

ZDNet: Sie wiesen in Ihrem Vortrag darauf hin, dass mehr User als bisher vom Supercomputing profitieren sollten, wie stellen Sie sich die konkrete Umsetzung des von Ihnen als „kontextzentriertes Computing“ beschriebenen Trend vor?

Resch: Konkret heißt das, dass wir von einem hardwarezentrierten Konzept Abschied nehmen müssen. Der Rechner kann nicht mehr im Mittelpunkt stehen, sondern ist nur noch eines von vielen Werkzeugen, das im Entwicklungsprozess eingesetzt wird. Diese Umsetzung bedeutet, dass wir stärker in Prozessketten und Arbeitsabläufen denken müssen. Es heißt aber vor allem, dass wir uns stärker mit unseren Benutzern auseinander setzen müssen. Das sind aber nicht einfach dieselben Gruppen wie bisher, sondern wir müssen Ärzte, Investmentbanker, Entwicklungsingenieure und andere als die eigentlichen Endkunden endlich ernst nehmen.

Page: 1 2 3 4 5 6

ZDNet.de Redaktion

Recent Posts

Google stopft weitere fünf Löcher in Chrome 128

Betroffen sind Chrome für Windows, macOS und Linux. Das von den Anfälligkeiten ausgehende Risiko stuft…

1 Woche ago

Steuerstreit mit der EU: Apple muss 13 Milliarden Euro nachzahlen

Der Gerichtshof der Europäischen Union entscheidet „endgültig“ über den Rechtsstreit. Dem Urteil zufolge sind von…

1 Woche ago

September-Patchday: Microsoft schließt kritische Zero-Day-Lücke in Windows Update

Sie betrifft ältere Versionen von Windows 10. Ein weiterer kritischer Bug steckt aber auch in…

1 Woche ago

CloudEye für 18 Prozent aller Malware-Infektionen in Deutschland verantwortlich

Der Downloader nimmt Windows-Rechner ins Visier. RansomHub festigt seine Position als führende Ransomware-Gruppe weltweit.

1 Woche ago

Funeral Scams: Neue perfide Online-Betrugsmasche auf Facebook

Britische Bestattungsunternehmen haben bereits reagiert und weisen darauf hin, dass ihre Beerdigungen nicht gelivestreamt werden.

1 Woche ago

Builtforbest – Individuelles Gesundheitscoaching für nachhaltige Transformation auf Basis von Blut- und Genanalysen

Builtforbest setzt neue Maßstäbe im ganzheitlichen Gesundheitscoaching mit einem innovativen, wissenschaftlich fundierten Ansatz, der auf…

1 Woche ago