Categories: Cloud

Ohne Cloud geht immer weniger

Wer IDCs mittlerweile acht Cloud-Studien verfolgt hat, wurde Zeuge einer erstaunlichen Entwicklung: Anfangs zagten und zögerten Anwender erheblich, wenn es darum ging, sich mit ihren Infrastrukturen, Plattformen und Anwendungen auf die Cloud als Erbringungsplattform zu verlassen. Sicherheit, Kosten, Beherrschbarkeit und Sinn an sich lauteten die großen Fragen, die die IT-Manager bewegten.

Und heute? „90 Prozent der Befragten haben eine Cloud-Strategie definiert“, so Matthias Zacher, Manager Research & Consulting IDC anlässlich der Präsentation der aktuellen Cloud-Studie von IDC. Teilgenommen hatten 200 deutsche Unternehmen ab 100 Mitarbeitern aus vielen Branchen, wobei die Industrie mit 30 Prozent den Löwenanteil verbucht.

In Frage stehen heute nur noch die Cloud-Deployment-Modelle: von Private über Public hin zu den Mischformen von Multicloud und Hybrid Cloud. Von den Cloud-Nutzern könne man rund die Hälfte als fortgeschritten begreifen, meinte Zacher. Sie nutzen Cloud schon selbstverständlich in diversen Bereichen. Die andere Hälfte bestehe aus Unternehmen, die sich noch mit Piloten oder der Migration erster Anwendungen befassen.

Die Beliebtheit der Erbringungsformen IaaS, SaaS und PaaS aus der Public Cloud unterscheidet sich nur leicht voneinander. Bei der heutigen Nutzung liegt IaaS mit 54 Prozent vorn vor SaaS mit 51 Prozent und PaaS mit 49 Prozent. Schließt man jedoch die Anwender ein, bei denen sich die besagten Technologien in der Evaluierung befinden, so landen alle drei Public-Cloud-Erbringungsformen bei rund 80 Prozent, wobei PaaS ein winziges Prozent zurückhängt. Demgegenüber kommen selbst betriebene Enterprise Private Clouds auf 72 Prozent und Hosted Private Clouds auf 70 Prozent, haben also weniger Anhänger.

Datenintensive Anwendungen in die Cloud

Wenig überraschend, sind datenintensive Aufgaben mit teuren Infrastrukturen diejenigen, die besonders gern in irgendeine Form der Cloud verlagert werden: Big Data wollen nur neun Prozent nicht auf Cloud-Infrastrukturen verlagern, Backup und Archivierung nur zehn Prozent. Etwas mehr Misstrauen gegenüber Cloud-Technologien gibt es bei und Business Intelligence/Data Warehouse (jeweils 13 Prozent) sowie Enterprise-Anwendungen (14 Prozent).

Einer Public Cloud allerdings trauen bezüglich dieser Anwendungen nur zwischen 32 Prozent (E-Commerce/Transaction Processing/Streaming) und 24 Prozent (Backup/Archivierung/DR) zu, die richtige Plattform zu sein. Hinsichtlich der fünf wichtigsten Anwendungen, die auf Cloud-Infrastrukturen verschoben werden, setzt der größte Anteil der Anwender auf eine Private Cloud beim Provider: zwischen 37 Prozent (Business Intelligence und Data Warehousing) und 31 Prozent (E-Commerce/Transaktionsverarbeitung/Streaming). Auch die private Cloud im Unternehmen wird wohl auf absehbare Zeit nicht aussterben – ein knappes Drittel (zwischen 34 und 23 Prozent je nach Applikation) sieht in ihr die richtige Plattform für die genannten fünf Workloads. Immerhin 68 Prozent haben mehrere Anwendungen auf die Cloud migriert.

Für den erfolgreichen Betrieb einer Cloud sind klare Indikatoren der wichtigste Gradmesser: Ein Viertel der Anwender überprüft vierteljährlich ITSM-Daten, Kundenzufriedenheit und Kosten, weitere 25 Prozent belassen es bei der Messung der SaaS-Kosten pro User respektive bei IaaS pro VM. 19 Prozent wählen die Zeit bis zur Behebung von Zwischenfällen als entscheidenden Indikator, 9 Prozent analysieren Ticketing- und IT-Metriken. Nur 19 Prozent verlassen sich ausschließlich auf die SLAs der Provider.

Multicloud-Boom steht bevor

Der wichtigste Cloud-Trend der nächsten Jahre wird wohl der zur Multicloud werden. Auf entsprechende Fragen gaben 15 Prozent der Studienteilnehmer an, bereits Multicloud zu nutzen – nach der Zukunft befragt, sagten erstaunliche 60 Prozent, man werde 2020 Multicloud-Infrastrukturen verwenden.

Die Vorteile von Multicloud sehen die Anwender in mehr Agilität, besserer Unterstützung der Geschäftsprozesse und schnellerer Bereitstellung neuer Lösungen und Funktionen. Wobei Sicherheit, Compliance, Datenschutz, Integration und Orchestrierung herausfordernd bleiben, aber durch Vorteile wie Agilität, Flexibilität und Skalierbarkeit überroffen werden.

Die eben genannten Zahlen sind allerdings mit einer gewissen Vorsicht zu genießen. Denn, so Zacher: „Nicht jeder versteht unter Multicloud dasselbe.“ Viele betrachten die Bezeichnung Multicloud beispielsweise auch dann als zutreffend, wenn einfach verschiedene Cloud-Typen, etwa Public und Private Cloud, parallel genutzt werden – nach der klassischen Definition würde man hier eher von Hybrid Cloud sprechen.

IDC selbst definiert Multicloud so, dass entweder Instanzen derselben Anwendung in einer Private- und einer Public Cloud über APIs verknüpft sein müssen oder aber ein Unternehmen für dieselbe Aufgabe wahlweise mehrere Cloud-Provider nutzt, wobei eine zentrale Kontrolle stattfindet. IDCs Prognosen für weltweite und regionale Public IT Cloud Services untermauern die lokale IDC-Einschätzung: Danach sollen bis 2021 90 Prozent der Unternehmen Multicloud verwenden, wobei der Cloud-Markt bis dahin das erstaunliche Volumen von 276 Milliarden Dollar erreichen soll.

Datenintensive Anwendungen werden am liebsten in die Cloud verschoben (Bild: IDC).

Neuer Hardwarezyklus steht bevor

Für viele Anwender bedeutet das Cloud-Engagement Hardware-Neuanschaffungen: 78 Prozent der Befragten wollen ihre Hardware aktualisieren. Das betrifft vor allem den Austausch der Client-Architekturen gegen Thin Clients und den Einsatz von Composable- und/oder Hyperkonvergenz-Architekturen, die keine separaten Infrastruktursäulen mehr besitzen.

Neben Anschaffungen gibt es auf dem Weg in die Multicloud selbstverständlich weiter Herausforderungen: Ungebrochen wichtig, aber nicht mehr komplett dominant ist in einer Multicloud-Welt das Compliance-Thema mit 35 Prozent Nennungen. Es folgen Kostentransparenz (34 Prozent) und Bandbreite respektive Netzgeschwindigkeit (30 Prozent).

Die Themen Sicherheit und Shadow-IT dagegen verlieren langsam an Brisanz, wenn auch nicht an Bedeutung. Kurt Knochner, Cyber Security Strategist bei Fortinet während der an die Präsentation der Studienergebnisse anschließenden Diskussion: „Die Unternehmen haben gelernt, damit umzugehen. So arbeiten Fachabteilungen und IT heute enger zusammen.“ Und Cloud-basierte Sicherheitsservices sowie intelligente Produkte, die nicht nur IP-Adressen sortieren oder blocken, sondern eine Fülle von Daten auswerteten, sorgten für neue, erfolgversprechendere Ansätze beim Kampf gegen digitale Attacken.

Bleiben Sie in Kontakt mit ZDNet.de

ZDNet-Newsletter

Täglich alle relevanten Nachrichten frei Haus.

Jetzt anmelden!

Digitalisierung häng von der Cloud ab

Einig waren sich die Diskutanten von Netapp, Fortinet und LG darüber, dass viele neue Geschäfttsmodelle ohne die Cloud nicht möglich seien. Peter Wüst, Senior Dirctor Cloud Infrastructure & Cloud Data Services EMEA bei Netapp: „In den produzierenden Industrien wurden in den vergangenen Jahren Massen von Sensoren verbaut, aber man braucht die Cloud, um mit den Daten etwas anzufangen.“ Mit Anwendungen wie Predictive Maintenace, also vorbeugender Wartung vor Ausfällen aufgrund von Ergebnissen umfangreicher Datenanalysen, ließen sich neue Services kreieren und die Produktqualität über die von Nachbauten heben. Das bedeute letztlich einen Wettbewerbsvorteil.

Heinz-Dieter Speidel, Business Development Manager, Information System Products ISP bei LG, ist sich sicher: „Ohne die Cloud wäre der Datenaustausch über das Internet in dem Umfang wie das notwendig wird, nicht möglich.“ Speidel prognostiziert den baldigen Einzug sogenannter New Workplaces in die Unternehmen, bei denen der allfällige Arbeitsplatz-PC oder -Laptop durch Thin Clients ersetzt wird, bei denen der Rechner in den Bildschirm integriert ist und die Software irgendwo in einer respektive mehreren Clouds läuft.

Konsens war auch, dass die Private Cloud bleiben wird und in Zukunft lediglich der Anteil der diversen Cloud-Formen im Markt schwanken werde. Multicloud sei schon allein deshalb ein sinnvoller Ansatz, weil sich die Umsetzungen verschiedener Funktionen auch bei den Hyperscalern im Detail durchaus unterscheiden.

Die Begrifflichkeiten zum Thema Multicloud sind noch sehr heterogen (rot umrandet: Multicloud-Verständnis von IDC) (Bild: IDC).

Applikationen müssen sich ändern

Hinsichtlich zukünftiger Engpässe bei Rechenzentrumsressourcen fürs Cloud-Computing gibt es kaum Befürchtungen. Anders sieht es aber bei Latenz und Bandbreite aus. Wüst: „Lift and Shift funktioniert nicht. Hier muss man umdenken und die Applikationen entsprechend anpassen.“ Die Lösung liege in Ansätzen wie Edge-Computing, durch APIs verbundenen Infrastrukturen und Ähnlichem.

Letztlich seien aber alle Workoads prinzipiell Multicloud-fähig, war die übereinstimmende Meinung. Knochner: „Die Lernkurven sind hier teils schon durchlaufen worden.“ So würden auch geschäftskritische Anwendungen wie SAP heute bereits häufig in die Cloud ausgelagert, um Infrastrukturkosten zu sparen und flexibler zu sein. Im Finanzbereich definiere die Bundesaufsicht für Finanzdienstleistungsaufsicht heute klare Anforderungen an Provider. Wer diese erfülle, dürfe als Finanz-Provider seine Dienste anbieten.

Viel mehr als technische Hindernisse komme es, so Wüst, darauf an, wo Unternehmen ihre Wertschöpfung erzeugen. „Die wirklich wertschöpfenden Anwendungen werden tendenziell eher in einer privateren Umgebung landen.“
Anwendungsfälle zeigten schließlich, wie selbstverständlich Unternehmen schon heute mit Cloud-Technologien umgehen. So berichtete Knochner von einem Unternehmen aus der Energiebranche, das eine Komponente seiner Smartgrid-Softwareinfrastruktur in die Cloud auslagert und binnen nur dreier Tage das gesamte Skripting für diese Aufgabe erledigt hatte.

Knochner: „Das hat mich sogar etwas erschreckt.“ Verlage wie Lexware/Hauffe entwickelten, so berichtete Netapp-Manager Wüst, mit Hilfe von Azure als Entwicklungsumgebung um Dimensionen schneller als früher neue Services, die den Umsatz des Unternehmens in Schwung bringen. Und einem weiteren Verlag sei es gelungen, sein gesamtes Redundazrechenzentrum Disaster-Recovery-Zwecke in die Cloud zu verlagern. Dort fallen Serverkosten nur dann an, wenn wirklich ein Ausfall zu kompensieren ist. Raum-, Kühlungs- und sonstige Kosten, die mit dem Eigenbetrieb eines Zweit-RZ zwangsweise verknüpft sind, entfallen vollständig. Wüst: „Dieser Verlag spart jedes Jahr Millionen.“

HIGHLIGHT

Report: State of Digital Transformation EMEA 2019

Zu den größten Hürden der digitalen Transformation zählen der mobile Zugriff auf Unternehmensdaten und Anwendungen, die Nutzung unsicherer Netzwerke und nicht verwalteter Geräte. Das geht aus dem Report „State of Digital Transformation EMEA 2019“ von Zscaler hervor. Jetzt den vollständigen Report herunterladen!

Kai Schmerer

Kai ist seit 2000 Mitglied der ZDNet-Redaktion, wo er zunächst den Bereich TechExpert leitete und 2005 zum Stellvertretenden Chefredakteur befördert wurde. Als Chefredakteur von ZDNet.de ist er seit 2008 tätig.

Recent Posts

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

7 Stunden ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

11 Stunden ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

12 Stunden ago

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

13 Stunden ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

13 Stunden ago

Netzwerk-Portfolio für das KI-Zeitalter

Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…

15 Stunden ago