Gedämmtes Licht, schwarze Bildschirme und heruntergedrehte Heizungen – neben dem Klimanotstand zwingen auch in die Höhe schießende Stromkosten Unternehmen dazu, an jeder Ecke Energie einzusparen. Besonders große Energiefresser sind Rechenzentren. Rund 16 Milliarden Kilowattstunden weltweit haben sie im Jahr 2020 benötigt. Die Nutzung von Ressourcen für Strom, Kühlung und Wasserbedarf sowie der CO2-Ausstoß wachsen dabei mit der Datenflut fast exponentiell. Und ohne Gegenmaßnahmen ist kein Ende in Sicht: Allein in der EU wird bis 2030 der Energiebedarf von Rechenzentren auf 3,2 Prozent des Gesamtverbrauchs steigen.
Doch Unternehmen und Service-Anbieter dürfen nicht einfach den Aus-Knopf betätigen. Denn ohne funktionierende Rechenzentren gibt es keine Anwendungen, kein Hybrid Work, keine virtuelle Collaboration und Unternehmen müssen sich aufgrund der fehlenden Cloud wieder selbstständig um ihre Security kümmern – kurzum, das moderne Enterprise Networking wird unmöglich. Fällt das Rechenzentrum weg, steigen die Energiebedarfe an anderer Stelle sogar umso mehr, etwa durch Geschäftsreisen und den Verlust von Konsolidierungseffekten. Daher bleibt nur, Rechenzentren künftig nachhaltiger zu gestalten. Hier gibt es mittlerweile zahlreiche Optionen.
Moderne modulare Hardware nutzen
Zunächst sollten Unternehmen prüfen, welche Bereiche im Rechenzentrum die meiste Energie fressen. Hier anzusetzen, bietet gleich zwei wesentliche Vorteile: direkte Kostensenkung und das Verringern des CO2-Ausstoßes. So benötigen Kühlung und Rack-Betrieb in einem klassischen Rechenzentrum rund die Hälfte des Stroms. Etwa ein Viertel geht auf das Konto der eigentlichen Datenverarbeitung und -speicherung bei Server und Storage. Unnötige Energieverluste und der Netzwerkbetrieb tragen jeweils zirka zehn Prozent bei. Den Rest verbraucht die Beleuchtung mit unter fünf Prozent.
Das heißt: Jedes Watt, das die IT-Infrastruktur benötigt, erzeugt einen zusätzlichen Lastfaktor von 1,8 bis 2,5 für den Verbrauch durch Kühlung, Verluste und Beleuchtung. Dieser Faktor ist die PUE (Power Usage Effectiveness). Darunter versteht man das Verhältnis zwischen dem Energieverbrauch durch die eigentliche IT-Ausstattung und dem Bedarf durch die restlichen Bestandteile des Data Centers. Ein geringerer Server-Verbrauch zieht damit unter anderem einen geringeren Kühlungsbedarf nach sich.
Um den Energieverbrauch zu senken, sollten Unternehmen statt Rack-Servern modulare Systeme wie Nodes und Blades einsetzen. Außerdem eignen sich Power Capping und geeignete Kühlungsregeln. So ist bei höherer Betriebstemperatur der Komponenten weniger Kühlung nötig. Schnell lassen sich Einsparungen auch durch Investitionen in moderne Server-Hardware, Router und Switches erzielen. Zum Beispiel erhält man durch neue ASICs, wie den Silicon One von Cisco, im Datacenter Networking eine 30-mal bessere Ratio von Energieverbrauch (KWh) zu Datenübertragung (Gbit/s). Das steigert gleichzeitig die Flexibilität sowie die Effizienz.
Einheitliche Systeme und optimierter Workload
Im Architekturdesign lohnt es sich, ein vereinheitlichtes System aus Server, Speicher und Netzwerk aufzubauen. Dieses bietet eine integrierte Infrastruktur mit Policy-basiertem Management zur automatischen und schnellen Bereitstellung aller Anwendungen, einschließlich Virtualisierung und Cloud Computing. Das konsolidierte Hardware-Paket ermöglicht Überbuchung, um den Ressourcenverbrauch weiter zu reduzieren.
Einen großen Unterschied macht auch die Konsolidierung tatsächlich genutzter Applikationen auf einem Server. Workload-Optimierer erkennen kontinuierlich, wenn ein Server nur unwichtige oder kaum genutzte Anwendungen hostet, wodurch sich diese auf andere Server verlagern lassen. Nicht benötigte Hardware wird abgeschaltet, wodurch die Effizienz steigt. Gleichzeitig bekommen Anwendungen nur genau die Ressourcen zugewiesen, die sie zu einem bestimmten Zeitpunkt benötigen.
Laut der von Cisco in Auftrag gegebenen Studie „The Total Economic Impact of Cisco Secure Firewall“ haben Kunden auf diese Weise ihren Ressourcenverbrauch für Prozessoren und Speicher um 20 Prozent reduziert – bei gleichbleibender oder sogar verbesserter Leistung. Dazu sind ständige Messungen und eine umfangreiche Observability erforderlich. Am besten werden auf diese Weise gleich alle Ressourcen erfasst, um noch mehr Echtzeit-Einsparungen zu ermöglichen.
Lieber Kreislauf statt abgelaufen
Zwar ist die Versuchung groß, ältere Geräte so lange wie möglich zu verwenden, um Abfall zu vermeiden. Doch leider bieten diese zu wenig Sicherheit in der heutigen Cyberbedrohungslage. Die Geräte müssen auf dem neuesten Stand sein und mit neuester Software betrieben werden. Immer mehr Unternehmen wie beispielsweise Cisco integrieren ihre Produkte und damit auch ihren Rücklauf in eine Kreislaufwirtschaft. Sie erschaffen aus deren Einzelteilen neue Produkte, die Klimafreundlichkeit und Sicherheit vereinen. Kreislaufwirtschaft mit 100-prozentiger Rückgabemöglichkeit wird so zu einem Enabler für ein besseres Klima und sichere Infrastrukturen.
Für Unternehmen mit ausreichend Ressourcen besteht die Option, ein eigenes Green IT Data Center aufzubauen. Dafür sollten spezialisierte Partner mit Rat und Tat bei der geeigneten Gebäudearchitektur, dem Bezug umweltfreundlicher Energiequellen und einem hocheffizienten Betrieb unterstützen.
Das Fazit lautet: Sparen durch Abschalten ist nicht die Lösung. Vielmehr empfiehlt sich moderne oder recycelte Hardware, eine permanente Bewertung des tatsächlichen Ressourcenbedarfs und ein optimierter Einsatz der Kapazitäten. In Kombination mit effizienter Architektur und organisatorischen Maßnahmen spüren Unternehmen schnell und nachhaltig, dass sich das Energiesparen auf smarte Weise lohnt.
Neueste Kommentare
Noch keine Kommentare zu Smart Energie sparen im Rechenzentrum
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.