Aussagekräftige Statistiken darüber zu finden, warum PCs ausfallen, ist sehr schwer. Wer weiß schon, wie oft PC-Anwender Windows neu installieren? Für große Clustersystem dagegen haben Bianca Schroeder und Garth Gibson von der Carnegie Mellon University jetzt interessante Ergebnisse vorgelegt. Sie beobachteten dazu über zehn Jahre lang Ausfälle der Großrechner der Los Alamos National Laboratories (LANL) – mit teilweise überraschenden Ergebnissen.
Eine der Überraschungen ist, dass neue Hardware nicht zuverlässiger ist als alte. Wenig überraschend dagegen, dass sich auch bei einem von so hochqualifizierten Spezialisten betreuten System nicht für alle Ausfälle vernünftige Erklärungen finden lassen. Wenigstens ist die Zahl der durch die Anwender verursachten Fehler vergleichsweise gering – aber nicht in jedem Unternehmen kann man es sich leisten, nur promovierte Mitarbeiter an die Rechner zu lassen.
Trotz der unglaublichen Leistungsfähigkeit des von den LANL betriebenen Supercomputers Roadrunner benötigt er für manche Aufgaben mehrere Monate. Bei über 3000 Computing Nodes sind Fehler und Ausfälle unvermeidlich. Die LANL-Experten stoppen in so einem Fall den Rechenjob und setzen einen Kontrollpunkt. Fällt ein Knoten aus, können sie zum letzten Kontrollpunkt zurückgehen und einen Neustart vornehmen. Die bis zum Kontrollzeitpunkt bereits erledigte Arbeit bleibt so zwar erhalten, die nachfolgenden Berechnungen allerdings gehen verloren.
Hardware ist in der Untersuchung der größte Fehlerfaktor und für rund die Hälfte aller Ausfälle verantwortlich. Software wurde nur in 20 Prozent der Fälle als Ursache ausgemacht. Aufschlussreich ist, das die Fehlerrate eines Systems proportional zur Zahl der in dem System verwendeten Prozessoren ansteigt. Für große Multiprozessorsysteme, wie sie auch in Supercomputern genutzt werden, ist das natürlich ein ernstes Problem.
Was last sich daraus für den Desktop-PC ableiten? Man sollte zum Beispiel nicht erwarten, dass neue Komponenten zuverlässiger arbeiten als alte. Nicht zu leugnende Verbesserungen werden wohl durch den Zuwachs an Komplexität wieder zunichte gemacht. Außerdem sollten sich Nutzer von Multiprozessorsystemen darauf einstellen, dass dadurch zwar die Leistung, nicht aber die Zuverlässigkeit besser wird. Auch wenn die negativen Auswirkungen sich wahrscheinlich in Grenzen halten, da sich Effekte der 3000-Prozessor-Systeme nicht in gleichem Maße bei Systemen mit zwei oder vier Prozessorkernen bemerkbar machen werden.
In einem Punkt allerdings unterscheidet sich der Desktop gewaltig vom Superrechner: Die meisten Ausfälle lassen sich nach wie vor auf Software zurückführen. Und das wird sich so schnell auch nicht ändern.
OutSystems-Studie: 62 Prozent der Befragten haben Sicherheits- und Governance-Bedenken bei Softwareentwicklung mit KI-Unterstützung.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…