Kosten für Cloud-Computing: So kalkuliert man richtig

Man sollte unbedingt gewisse Grundkenntnisse in Bezug auf die finanziellen Aspekte des Cloud-Computing besitzen, gerade weil es so schwierig ist, die vielen verschiedenen Optionen, die der Unternehmens-IT zur Verfügung stehen, exakt nach ihren Kosten zu bewerten und zu vergleichen.

Auf den ersten Blick wird man die hinter dem Cloud-Computing stehende finanzielle Logik nicht gleich erfassen. Cloud-Anbieter verwenden die gleichen Basiskomponenten wie jedes andere umfangreiche IT-System, beispielsweise nahezu die gleichen Server, Speicher und Netzwerke. Sie verursachen jedoch zusätzliche Kosten und benötigen eine umfassende Internet-Konnektivität, die auch ihren Preis hat.

Denn wenn alle Unternehmens-IT-Abteilungen eine beständige und unterbrechungsfreie Auslastung ihrer Ressourcen erreichen könnten, würde das Cloud-Computing nicht funktionieren. Doch dies ist praktisch nie der Fall: In der Praxis fallen die meisten Rechenanforderungen im Unternehmen schubweise an. Dann belegen sie erhebliche Mengen an Ressourcen, allerdings nur kurzfristig. In der übrigen Zeit bleibt die Hardware und Software ungenutzt. Diese Ressourcen müssen dennoch für Spitzenlasten stets verfügbar sein, soweit sich diese vorhersehen lassen.

Cloud-Computing funktioniert, insbesondere in Form von Infrastructure-as-a-Service, weil es nur die tatsächlich von einem Unternehmen genutzten Ressourcen in Rechnung stellt. Statistisch betrachtet, legen die Cloud-Anbieter ihre Ressourcen so aus, dass diese immer ausreichen, um Spitzenlasten einzelner Kunden abzudecken. In der Regel sind die verfügbaren und die tatsächlich insgesamt genutzten Ressourcen gut abgestimmt. Auf diese Weise ermitteln die Anbieter die Durchschnittsnutzung ihrer Infrastruktur und können diese daher nach Bedarf verkaufen.

Um festzustellen, ob eine bestimmte Aufgabe oder organisatorische Anforderung in der Cloud finanziell sinnvoll ist, muss man deren Nutzungsmuster verstehen: Wie viele Ressourcen belegt sie und wie viele lässt sie ungenutzt – und wie oft? Dies lässt sich gewöhnlich anhand eines Arbeitstages nachvollziehen: Von morgens bis zur Mittagszeit sowie nach der Mittagspause bis Geschäftsschluss gibt es zwei Phasen intensiver Nutzung. Rechnet man dies als acht von 24 Stunden um, erhält man ein Verhältnis von Nutzung zu Nicht-Nutzung von 1 zu 2. Dies entspricht einem Lastzyklus von 33 Prozent.

Ein Cloud-Anbieter wird die Menge der erbrachten Rechenleistungen in Rechnung stellen sowie den dauerhaften Speicher, den man benötigt, um Serverinstanzen in Niedriglastzeiten zu betreiben. Es ist recht einfach, diese Abrechnung über einen gewissen Zeitraum zu verfolgen, um dann einen Vergleich mit den Gesamtkosten für den Betrieb eigener Hardware und Software für denselben Zeitraum anzustellen. Je nachdem, wie ein Unternehmen IT-Kosten abschreibt, kann ein Zeitraum von drei oder fünf Jahren angemessen sein.

Entscheidend ist die Auswahl von Instanzen, die eine gute Ergänzung für eigene Hardware-Konfiguration darstellen, mit klaren Vorgaben für CPU und Speicher, da die mögliche Nutzung des Cloud-Service direkt davon abhängt. Für nicht interaktive Aufgaben, die eine erhebliche Rechenlast verursachen, aber keine direkte menschliche Beteiligung vorsehen, kann dies den Lastzyklus und somit auch die diesbezüglichen finanziellen Aspekte drastisch verändern.

Außerdem ist es dezeit nach wie vor einfacher, einen physischen Server mit sehr großen (ab 64 GByte) Mengen an Speicher zur Nutzung durch verschiedene Prozessoren einzurichten, als entsprechende Instanzen in der Cloud zu spezifizieren. Für manche Prozesse kann die Aufteilung einer Aufgabe auf verschiedene kleinere Speicherpools zudem erhebliche Performance-Einbußen bedeuten.

Weitere Komplikationen ergeben sich aus der Bewertung der Kosten, die der Cloud-Anbieter trägt, beispielsweise für Personal, Strom, Einrichtungen und so weiter. Wenn ein Unternehmen das Hosting intern handhabt, hat es diese Kosten selbst zu tragen. Viele Unternehmen haben keine klare Vorstellung von diesen Zahlen. Es kann aber weit über die IT-Abteilung hinausreichende Vorteile bringen, wenn diese genau erfasst und verstanden werden.

Wenn Sie alle oben genannten Faktoren genau kennen, ist es vergleichsweise einfach, die entsprechenden Zahlensätze in Tabellen zu erfassen, um so zu bestimmen, in welchen Bereichen ein Wechsel zur Cloud finanziell sinnvoll ist und in welchen die reinen Zahlen dagegen sprechen. Veränderte Lastzyklen, zu erwartende Senkungen der Hardwarekosten, die Anfangsinvestitionen für Hardware und weitere Faktoren werden rasch sinnvolle Optionen erkennen lassen.

Ein weiterer Vorteil dieses quantitativen Ansatzes für die finanzielle Analyse von Cloud-Angeboten besteht in der zusätzlichen Verhandlungsmacht, die Firmen damit gegenüber den Anbietern von Hardware, Software und Services erlangen. Gerade in der heutigen Zeit, in der die Wahl eines Ansatzes langfristige Auswirkungen haben kann und gewöhnlich sehr hart verhandelt wird, sollten Anbieter auf fundierte Kostenberechnungen eingehen und bereit sein, Kompromisse zu machen, um den Zuschlag zu erhalten. Obgleich heute mehr Alternativen als je zuvor für die IT-Strategie verfügbar sind, gibt es keine Alternative zu korrekten Zahlen als Grundlage für jede Entscheidung und Verhandlung.

ZDNet.de Redaktion

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

5 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

23 Stunden ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

1 Tag ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

1 Tag ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

1 Tag ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

1 Tag ago