Die Unternehmens-IT steckt in einem radikalen Wandel. Mehr und mehr lösen Cloudtechniken traditionelle IT-Konzepte im Rechenzentrum ab. Dabei begünstigen mehrere Trends diese Entwicklung, die zu einem neuen Ansatz, den man auch als Enterprise Cloud bezeichnen kann, führt:
Public Cloud hilft der IT, mehrere Ziele gleichzeitig zu erreichen: Durch Nutzung und Bezahlung nach Bedarf spart sie Investitionskosten. Hardware-Investitionszyklen sind kein Thema mehr. Die Bereitstellung und Abschaltung von Ressourcen erfolgt quasi sofort per Mausklick. In der Public Cloud finden sich heute alle Komponenten, um Applikationen im Nu verfügbar zu machen und nahezu unbegrenzt mit entsprechenden Kostenvorteilen zu skalieren. Gleichzeitig wächst die Sicherheit der Public Cloud. Durch sie wird die IT zum aktiven Business Enabler beim Einstieg in neue Geschäfts- und Erlösmodelle.
Allerdings kann Public Cloud sehr teuer sein. Bei Workloads mit vorhersehbarem, relativ hohem Infrastruktur, Leistungs- und Bandbreitenbedarf, zum Beispiel bei ERP, Produktivitätstools für Endanwender, Business Intelligence oder Analytik-Suiten, ist eigene Infrastruktur häufig effizienter. Denn für diese Qualitäten berechnen Public-Cloud-Provider mehr.
Auch die Private Cloud hat Tücken, denn Virtualisierung reicht nicht. Dazu kommen komplexe Funktionen wie Selbstbedienung, Skalierbarkeit, Workloadmanagement und Automatisierung. Deren Implementierung mit OpenStack, vCloud oder Azure ist kompliziert. Das Problem der Infrastrukturkosten bleibt.
Kurz: Jede Erbringungsform hat spezifische Stärken und Schwächen. Unternehmen sollten deshalb applikationsbezogen die jeweils insgesamt bessere Alternative wählen. Das kann auch heißen, bandbreitenintensive Anwendungen ins eigene Rechenzentrum zurückzuholen, sobald sie ein stabiles Entwicklungsstadium erreichen.
Besondere Aufmerksamkeit erfordern Anforderungen an die Daten-Lokalität, wenn Daten aus regulatorischen, organisatorischen oder technischen Gründen an einem bestimmten Ort oder in einer bestimmten Region aufbewahrt werden müssen. Nicht jeder Public-Cloud-Provider kann hier mithalten. Im Rahmen der Hybrid oder modalen IT ist es notwendig, die Netzwerk Komponenten zu abstrahieren. Nur so ist es möglich auf Daten der gesamten Enterprise Cloud zugreifen zu können. In Naher Zukunft werden Workload in der Cloud abgearbeitet, die Daten bleiben aber im Rechenzentrum. Eine weitere Schwachstelle sind die häufig nur wenige, relativ grob differenzierten Service Level Agreements. In einer Private Cloud lassen sich Service Levels ganz individuell am Bedarf der Nutzer ausrichten.
Ziel ist eine hybride Infrastruktur, bei der Workloads anforderungsgesteuert bruchlos und schnell zwischen Private und Public Cloud verschoben werden können. Dieses neue Paradigma des Unternehmens-Rechenzentrums bezeichnet man als Enterprise Cloud. Eine Enterprise Cloud ist flexibel, agil und bietet für jede Applikation die freie Wahl der Infrastruktur.
Eine Enterprise Cloud mit OpenStack und ähnlichen Cloud-Management-Plattformen zu realisieren, ist fast unmöglich: Sie verwenden meist komplexe Speichersysteme, die nur durch Austausch gegen leistungsfähigere Komponenten skalieren (Scale-up). Das ist teuer und macht die Leistung unvorhersehbar. Leider gilt das auch für viele aktuelle Scale-out-Plattformen. Gerade in Umgebungen mit strikten Lokalitätsanforderungen sinkt deren Leistung, je mehr sie wachsen. Deshalb muss die ideale Plattform der Enterprise Cloud Scale-Out-Storage mit der freien Wahl des physischen Speicherortes für verbinden.
Wie gestaltet man den Übergang von überkommener „Silo“-Umgebung zur Enterprise Cloud? An erster Stelle steht das Umdenken. Bisher wollten die IT-Verantwortlichen die Schatten-IT beseitigen. Doch Anwender wollen nicht mehr auf Gedeih und Verderb von der IT abhängig sein, sondern ihre Arbeit selbst gestalten, was aber zu Sicherheitsrisiken, Konsistenzproblemen und möglicherweise erhöhten Kosten führt.
Abschalten ist aber keine Alternative. Die Schatten-IT sollte in die unternehmensweiten Managementprozesse integriert und Verfahren entwickelt werden, wie man entsprechende Services rechtmäßig und sicher erwerben und nutzten kann. Services, die das Unternehmen wirklich braucht, sollte die IT regelkonform bereitstellen.
Nach dem überkommenen Pareto-Prinzip der IT fließen 80 Prozent des Budgets in den laufenden Betrieb und 20 Prozent in Innovationen. Diese Relation lässt sich auf 60/40 oder sogar 20/80 verschieben – 20 Prozent für die Basisaufgaben, 80 Prozent für die Generierung von Mehrwert! Diesen Weg sollte die Unternehmens-IT gehen, um mit dem schnellen Wandel in Wirtschaft und Unternehmen mitzuhalten. Ideal dafür geeignet ist hyperkonvergente Infrastruktur.
Bimodale IT – eine Gruppe unterstützt die hergebrachten Umgebungen und Anwendungen, die andere moderne – ist teuer und ineffizient. Sie kuriert Symptome, nicht Ursachen. Neue Strukturen sollten rund um Supportmodelle für Applikationen und Infrastrukturen entstehen. Optimale Infrastrukturen wie die Enterprise Cloud unterstützen beide Supportmodelle – Legacy-Anwendungen und moderne Apps.
Die Mitarbeiter sollten rechtzeitig auf die Veränderungen der IT-Organisation und –Infrastruktur vorbereitet werden: Spezialisten für einzelne Infrastrukturbereiche werden beim Einsatz hyperkonvergenter Infrastruktur durch IT-Generalisten mit breitem Wissen ersetzt, die das Systemchaos im Rechenzentrum lichten. Dadurch aufgabenlose Mitarbeiter übernehmen neue Rollen mit breiterem Aufgabenspektrum.
Auch Prozesse und Infrastruktur verändern sich, insbesondere der Investitionszyklus. An Stelle von Überkapazitäten auf der einen und Knappheit auf der anderen Seite treten mit Enterprise Cloud und hyperkonvergenter Infrastruktur genau bedarfsbezogene Erweiterungen. So entsteht eine Public-Cloud-ähnliche Ökonomie ohne ROI-Berechnungen und mit sofortigem Nutzen. Ressourcen werden nun gemeinsam verwaltet, beschafft und annähernd linear skaliert.
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…
Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…
Es kommt angeblich 2028 auf den Markt. Das aufgeklappte Gerät soll die Displayfläche von zwei…
Das System basiert auf Hardware von HPE-Cray und Nvidia. Die Inbetriebnahme erfolgt 2027.
Die Bundesnetzagentur hat ihr Gigabit-Grundbuch aktualisiert. Drei von vier Haushalten sollen jetzt Zugang zu Breitbandanschlüssen…