Geringere Betriebskosten, eine genauere Abstimmung von Anforderungen und Ausgaben und das Vermeiden von unnötigen Investitionen sind entscheidende Punkte, die für die Cloud sprechen. Außerdem dürfte – bei einer gesunden Weiterentwicklung des Marktes – die große Konkurrenz unter den Cloud-Anbietern dafür sorgen, dass die Preise erschwinglich bleiben.
Voraussetzung für all dies ist jedoch, dass man genau weiß, wie effizient man die Dienste nutzt, seien es die Services in einer öffentlichen Cloud oder selbst bereitgestellte Services in einer privaten Cloud. Vier Hauptfaktoren bilden die internen Parameter für die Cloud-Bereitstellung. Nur wenn man diese kennt, lassen sich die geeigneten Strategien zur Überwachung der Cloud-Nutzung in Hinblick auf Effizienz, Relevanz und Rentabilität auswählen.
Netzwerk
Cloud-Systeme nutzen Netzwerke ganz anders als herkömmliche Computeranwendungen. Ein mittelgroßes Unternehmen, das selbst bereitgestellte Services einsetzt, nutzt das Netzwerk auf uneinheitliche Weise, mit einzelnen Benutzern und Gruppen im Unternehmen, die jeweils über eine eigene Auswahl an externen Standorten und Datenquellen verfügen. Wenn dieses Unternehmen dagegen eine ähnliche Nutzung mit einem Cloud-Anbieter umsetzt, geht der Großteil seines Netzwerk-Traffics an diesen Anbieter – was dann eher einer herkömmlichen Punkt-zu-Punkt-Standleitung ähnelt.
Nicht alle ISPs kommen gleich gut mit dieser Art von Traffic zurecht, weshalb man unbedingt Latenzzeiten, Durchsatz und Zuverlässigkeit überwachen sollte. Eine Neukonfiguration innerhalb des Netzwerks kann große Auswirkungen auf die Konnektivität haben, weshalb sich die Ausgabe für das Sammeln solcher Analysedaten in jedem Fall lohnt.
Speicher
Wie bei allen Parametern kann man auch seine Speicheranforderungen nur dann genau kennen, wenn man das Nutzerverhalten im Detail bekannt ist. Der Speicher ist besonders stark davon abhängig, da die Speicheranforderungen zwar immer weiter zunehmen, aber nicht abzusehen ist, mit welcher Geschwindigkeit dies geschieht. Anbieter stellen daher gerne zu viele Ressourcen bereit oder lassen sich eine diesbezügliche Flexibilität teuer bezahlen. Wenn man eine private Cloud aufbaut, muss man sich dagegen mit den üblichen Problemen selbst bereitgestellter Speicherressourcen auseinandersetzen und dazu noch den Bedarf für Flexibilität und Skalierbarkeit berücksichtigen.
Die wichtigsten Kriterien, auf die man achten sollte, sind Verfügbarkeit – sie sollte eindeutig im SLA definiert und in eindeutiger Weise messbar sein –, Zuverlässigkeit – auch hier sollten klare Vorgaben bestehen –, Einfachheit und Eignung des Web-Service-API-Zugangs für verwendete Funktionen, sowie die angebotenen Zugangsmethoden – welche Archivierungssysteme werden exponiert und mit welchen Folgen für die Performance. Was wird berechnet, für welchen Zeitraum, in welchen Preisstufen und mit welchen Skalierungsbeschränkungen?
Vor allem aber sollte man den Aspekt der Sicherheit beachten, der derzeit meist zu kurz kommt. Die Branche hat noch keine nennenswerten Sicherheitsstandards für die Umstellung auf Cloud-Strukturen geschaffen und es ist so schnell auch nicht damit zu rechnen. Dennoch gilt auch hier der alte Grundsatz, dass zwischen dem Kunden und dem Anbieter klar sein muss, welche Sicherheitsmechanismen geboten und wie diese gewährleistet werden, welche Prüfungen man ausführen kann, welche Kommunikationskanäle im Notfall bestehen und so weiter.
Prozessor
Anbieter von Infrastructure-as-a-Service-Lösungen wenden zahlreiche Variablen für ihre CPU-Bereitstellung an. Dies spiegelt sich auch im Fehlen eines Branchenstandards wider, der festlegt, wie diese zu messen sind. Der EC2-Service von Amazon ist einer der am längsten etablierten Services und verwendet ECUs (Elastic Compute Units), die in etwa einem veralteten 2006-Xeon-Prozessor mit 1,7 GHz entsprechen. VMWare verfügt über VPUs, die vermutlich etwa einem AMD-Core mit 2,9 GHz entsprechen, aber die Parameter sind hier weniger gut definiert. Andere Services werden pro Core oder pro GHz abgerechnet.
Da es sich hierbei meist um virtualisierte Prozessoren handelt, gibt es weitere Variationen. So wird meist nur ein Prozentanteil an einem Core bereitgestellt, so dass der Cloud-Anbieter den Rest für andere Instanzen zuweisen kann. Dies kann zu Problemen mit den Messparametern führen, wenn eine Instanz durch ihre CPU eingeschränkt ist, aber die Messung der internen CPU-Aktivität ergibt, dass sie deutlich unter Vollauslastung liegt. Hier sollte man den CPU-Wert im Ruhemodus prüfen – wenn dieser unter etwa 20 Prozent liegt, benötigt man mehr Leistung. Ein anderer, zunehmend gängigerer Messparameter ist der „CPU Steal“ beziehungsweise der Anteil der Fremdnutzung der CPU. Er zeigt an, wie viel der eigenen CPU an anderer Stelle verwendet wird.
Dennoch gibt es keinen Ersatz für ein Benchmarking. Genau wie bei physischen Servern hängt die Auswahl und Relevanz jedes Benchmarks stark vom Arbeitslastprofil der tatsächlich anfallenden Aufgaben ab. Auch hier ist noch kein nennenswerter plattformübergreifender Benchmark verfügbar. Im Rahmen einer allgemeinen Messparameter-Strategie stellt ein Verfahren zur Erkennung und Korrektur von CPU-gebundenen Instanzen sowie zur Überprüfung der Einhaltung der SLA-Versprechen eine Mindestanforderung dar.
Energie
Der letzte Messparameter ist der am wenigsten angewandte. Da der Energieverbrauch pro CPU und pro Server in einem Datenzentrum einen entscheidenden Faktor darstellt, achten Cloud-Anbieter sehr darauf. Diesen Wert teilen sie auch nur ungern mit, höchstens irgendwo in den Gesamtkosten versteckt. Da sich im Energiebereich zunehmend intelligente Modelle durchsetzen, bei denen die Unternehmen Verantwortung für ihren IT-Energieverbrauch übernehmen und Vorteile aus dessen Optimierung anstreben, sollten Cloud-Anbieter entsprechende Informationen liefern, die eine Abstimmung dieses Aspekts der Computing-Anforderungen im Unternehmen ermöglichen. Bislang tun sie dies nicht, und sie werden dieses Verhalten erst dann ändern, wenn die Kunden entsprechenden Druck ausüben.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…
Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…