Categories: KomponentenWorkspace

Google-Ingenieur: Energie könnte teurer werden als die Server-Hardware

Der Google-Ingenieur Luiz Andre Barroso warnt davor, dass die Energiekosten für den Betrieb von Servern bald höher sein werden als deren Anschaffungskosten, wenn sich das Performance-per-Watt-Verhältnis nicht verbessert. Das könne ernste Konsequenzen auf das Computing-Umfeld haben.

Die Äußerungen von Barroso sind im Magazin „Queue“ der Association for Computing Machinery nachzulesen. „Wenn das Performance-per-Watt-Verhältnis über die nächsten Jahre konstant bleibt, können die Energiekosten die Hardwarekosten schnell übersteigen, möglicherweise ganz erheblich“, so der Google-Ingenieur. Wenn der Stromverbrauch von Computern außer Kontrolle gerate, habe dies möglicherweise ernsthafte Auswirkungen auf die Realisierbarkeit computergestützter Anwendungen.

Als Lösungsansatz schlägt Barroso den Weg vor, den Sun Microsystems mit dem Niagara-Prozessor gegangen ist: Die parallele Ausführung möglichst vieler Threads auf einem Prozessor. Während die meisten Server-CPUs parallel maximal vier Threads ausführen können, sind es beim Niagara 32. Barroso, der früher bei Digital Equipment selbst in der CPU-Entwicklung tätig war, hat damals an einem Projekt mit ähnlichen Eigenschaften gearbeitet. Es kam jedoch nie auf den Markt.

Der Stromverbrauch der Niagara-CPU liegt, trotz der bei bestimmten Anwendungen deutlich höheren Performance, mit 72 Watt unter AMDs Opteron, der sich bis zu 95 Watt genehmigt. Xeon-Chips von Intel benötigen sogar zwischen 110 und 165 Watt. Das Unternehmen wird seine leistungshungrige Netburst-Architektur in der zweiten Jahreshälfte 2006 daher in Rente schicken und durch ein deutlich sparsameres Design auf Pentium-M-Basis ersetzen. Der Trend, immer mehr Rechenkerne auf einer CPU unterzubringen, ist bei allen CPU-Herstellern zu beobachten.

Barroso räumt allerdings ein, dass auf dem Weg in die Multi-Core-Welt noch erhebliche Hürden überwunden werden müssen. So seien bei der Programmierung neue Methoden gefragt, um die potentielle Leistung in der Praxis auszureizen.

Außerdem könne man das Energieproblem nicht alleine mit Multithreading in den Griff bekommen. Langfristig seien tiefgreifende Innovationen bei der Architektur und den Schaltkreisen notwendig.

Gerade für Betreiber großer Rechenzentren ist der Energieverbrauch von entscheidender Bedeutung. So nutzt Google Cluster mit mehreren tausend Servern. Neben dem Stromverbrauch ist in diesem Umfeld auch die entstehende Abwärme ein wichtiges Thema. Der ZDNet-Artikel Googles Technologien: Von Zauberei kaum zu unterscheiden“ gibt einen Überblick über die Infrastruktur und beschreibt die besonderen Herausforderungen.

ZDNet.de Redaktion

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

12 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

1 Tag ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

1 Tag ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

1 Tag ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

2 Tagen ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

2 Tagen ago