Categories: CloudCloud-Management

Der passende Cloud-Cocktail für Firmen

Egal ob beruflich oder privat – alles wird immer digitaler. Die enormen Potenziale, die die digitale Transformation bietet, können Unternehmen nur mithilfe der Cloud wirklich ausschöpfen. Denn ohne die Rechenpower aus der Wolke lassen sich die wachsenden Datenmengen nicht mehr sinnvoll analysieren, speichern und verarbeiten. Das zeigt sich auch daran, dass 2015 mit 54 Prozent erstmals die Mehrheit aller Unternehmen Cloud-Dienste nutzte (Bitkom/KPMG: Cloud-Monitor 2016).

Frank Strecker, der Autor dieses Gastbeitrags für ZDNet.de, ist als Senior Vice President Cloud Partner Products & Ecosystems bei T-Systems für das weltweite Cloud-Geschäft der Deutschen Telekom verantwortlich. (Bild: DTAG)

Die eine Cloud, die alle Ansprüche der digitalen Welt bedient, gibt es allerdings nicht. Multi-Clouds sind die Zukunft. Denn durch die Kombination aus Private und Public Clouds zur Hybrid Cloud lässt sich die Datenkomplexität besser und schneller bewältigen. Statt nur auf die Private Cloud zu setzen und die internen Infrastrukturen immer weiter ausbauen zu müssen, verlagern die Unternehmen die Daten in die Public Cloud – und können zudem schnell und unkompliziert Anwendungen aus ihr beziehen, ohne die eigenen Kapazitäten zu belasten.

In Echtzeit in die Zukunft – schnell in die Cloud

Wer Echtzeitservices nutzt beziehungsweise anbietet – wie beispielsweise die Paketverfolgung per App oder vernetzte Services im Auto – kommt an der Public Cloud ohnehin nicht mehr vorbei, da nur sie die nötige Skalierbarkeit dafür bietet. Immer dann, wenn Daten vernetzt werden, benötigt man cloudbasierte Plattformlösungen für den reibungslosen – und sicheren – Datentransfer.

Man denke etwa an die elektronische Patientenakte im Gesundheitsbereich oder das „Couponing“ im Handel. Von Vorteil ist hier eine flexible Lösung, die als autoskalierbares Backend agiert und quasi „frei atmen“ kann, wie bespielsweise die Platform-as-a-Service-Lösung AppAgile.

Diese Skalierbarkeit ist auch bei Online-Spielen unerlässlich: 2,3 Millionen Spiele-Downloads verbuchte zum Beispiel „Sea Hero Quest„, das von T-Systems zusammen mit internationalen Partnern aus Wissenschaft und Forschung entwickelt wurde. Während der Nutzer durch Landschaften navigiert oder Verfolgungsjagden meistert, sammelt das Spiel wertvolle Daten für einen guten Zweck ein – anonymisiert versteht sich.

Das Spiel Sea Hero Quest erforscht das Navigationsverhalten von Menschen und hilft damit der Demenzforschung (Screenshot: silicon.de)

So gibt es Aufschluss über das Navigationsverhalten von Menschen jeden Alters, was wiederum der Demenzforschung zugute kommt. Während die vertraulichen Informationen in der Private Cloud gespeichert werden, läuft der Spielbetrieb in der Public Cloud, um das anfallende und nicht vorhersehbare Datenvolumen jederzeit bedarfsgerecht zu bewältigen.

Die richtige Mixtur finden

Diese Einblicke in die Praxis zeigen: Hybride IT-Landschaften bieten Flexibilität, Skalierbarkeit und Kostenvorteile. Doch gleichzeitig sind die multiplen Cloud-Umgebungen hochkomplex und stellen die Unternehmen häufig vor große Anforderungen. Was sollten Unternehmen beachten und wie kommen sie wirklich sicher in die neue Hybrid- beziehungsweise Multi-Cloud?

Viele sehen in der Hybrid Cloud die Zukunft und 57 Prozent planen den konkreten Einsatz (Quelle: IDC: Hybrid Cloud in Deutschland 2016). Doch um die richtige Cloud-Strategie zu finden, ist erst einmal „Vorarbeit“ angesagt. In Form einer genauen Analyse der bestehenden Situation und der Ableitung der notwendigen Schritte. Denn das universelle Erfolgsrezept gibt es nicht: Jede Cloud-Strategie sollte bedarfsgerecht entwickelt werden.

Doch wie reif ist die IT-Umgebung für die Cloud? Wann sollte man bestehende IT-Landschaften und Prozesse in die Cloud transferieren – und wann auf komplett neue Landschaften setzen? Wer in die Wolke geht, muss klassische IT-Strukturen und Prozesse aufbrechen und die aktuellen IT-Landschaft möglichst reibungslos um die neuen Cloud-Lösungen ergänzen. Das macht es erforderlich, die verschiedenen Lösungen auf Infrastruktur-, Software- und Plattformebene optimal zusammenzubringen.

Dafür wiederum braucht es einen Partner, der bereits andere Kunden erfolgreich in die Cloud begleitet hat und weiß, worauf es ankommt. Denn alleine auf sich gestellt stoßen viele Unternehmen an ihre Grenzen: Laut Cloud-Readiness-Studie 2015 von IDG haben weniger als ein Viertel eine standardisierte Vorgehensweise etabliert, um zu prüfen, wie sich eine Cloud-Lösung in die vorhandene Architektur und IT-Infrastruktur einbinden lässt – und umgekehrt.

Komplexitäten reduzieren

Die zum Teil überaus komplexen IT- und Applikationslandschaften zu „cloudifizieren“ ist kein einfaches Unterfangen. Mehr als 10.000 Anwendungen haben sich teilweise in Großunternehmen im Laufe der Zeit angesammelt, wurden miteinander verflochten und erweitert. Dazu gehören oft auch Geschäftsanwendungen, die durch Fusionen hinzugekommen oder an neuen Standorten entstanden sind. Der Betrieb erfolgt häufig auf unterschiedlichen technischen Plattformen.

Da ist „Tabula rasa“ angesagt: Alle Applikationen sollten erfasst, bewertet und gegebenenfalls aussortiert werden. Die Erfahrung zeigt, dass Unternehmen etwa zwei Drittel der Applikationen in die Cloud transferieren können. Der Rest wird abgeschaltet, neu entwickelt, modernisiert oder konsolidiert. Die Folge: Die IT-Systeme arbeiten stabiler und effizienter und die Kosten für Pflege und Betrieb gehen nach unten.

Licht ins Dunkel bringen

Nicht zu vergessen ist das Problem der „Schatten-IT“. Sie entsteht, wenn sich Fachabteilungen ohne Rücksprache mit der IT-Abteilung mit Software eindecken. Das erhöht die Komplexität zusätzlich und führt zu unnötig hohen Kosten, weil aufgrund mangelnder Absprache Services möglicherweise doppelt gebucht werden. Zudem können Ausfälle und Sicherheitsrisiken entstehen, weil niemand den Gesamtüberblick hat.

Hier können Tools Abhilfe schaffen, die die Verwaltung hybrider Cloud-Strukturen unterstützen. Diese Anwendungen stellen aufschlussreiche Reportings zur Verfügung, enthalten ein Rollen- und Rechtemanagement und ordnen Daten und Workloads der jeweils „richtigen“ Cloud zu. Doch wie lassen sich alle Daten über Applikationen hinweg miteinander integrieren und synchronisieren?

Bei der Nutzung mehrerer Cloud-Services ist das eine entscheidende Frage, denn die Daten liegen nicht mehr zentral in einem System, sondert verteilt in mehrern Datenbanken und Applikationen. Wird in einem System etwas geändert – bedingt durch den Anbieter, durch Updates oder weil sich eine E-Mail-Adresse verändert hat – muss das auf alle anderen übertragen werden. Mit Data-Orchestration-as-a-Service wird es möglich, Änderungen in Datensätzen automatisiert und synchron in allen Systemen einzupflegen. Darüber hinaus müssen sich Unternehmen keine Gedanken über Veränderungen in den Cloud-Services und Updates machen: Die Integrationsplattform hält die nötigen „Konnektoren“ bereit und sorgt vorausschauend für Upgrades, wenn sich Schnittstellenveränderungen oder neue Funktionalitäten seitens der Cloud-Anbieter ankündigen.

Abhängigkeiten vermeiden

Viele Köche verderben den Brei? Die Frage ist vielmehr: Wie lassen sich die Cloud-Systeme bezeihungsweise Technologien verschiedener Anbieter unter einen Hut bringen – und wie behält man dabei die Fäden in der Hand? Denn mehr als jeder Dritte (36 Prozent) befürchtet, abhängig von externen Cloud-Anbietern zu werden (Quelle: IDC), also sich durch ein sogenanntes „Vendor Lock-in“ zu binden.

Unternehmen sollten daher einen Dienstleister wählen, der sich mit allen „Zutaten“ für die hybriden IT-Umgebungen auskennt und anbieterübergreifend bei der Wahl der Cloud, der Inbetriebnahme und dem Management aller Applikationen über die verschiedenen Clouds hinweg unterstützen kann. Gefragt ist ein Gesamtkoordinator, der Ende-zu-Ende berät und technologisch State-of-the-art ist.

ANZEIGE

Sie haben Optimierungsbedarf bei Ihren Logistikprozessen?

Die Lösung lautet: Dokumentenmanagement. Erfahren Sie im kostenlosen E-Book, wie ein Dokumentenmanagement-System (DMS) Ihnen helfen kann, Ihre Logistikprozesse zu verbessern – von der Artikelnummer bis zur Zustellung. Lesen Sie außerdem, wie Sie ein DMS auch im laufenden Betrieb zeit- und kostensparend implementieren können.

T-Systems hat ein Ökosystem aus rund 50 Technologie- und Software-Partnern geschaffen, um ein umfassendes Portfolio an Private und Public Clouds anzubieten und diese zu managen – und bietet dabei dank der Nutzung von OpenStack-Standards Unabhängigkeit. Durch den offenen Standard binden sich Unternehmen nicht an einen Anbieter, sondern können ohne großen Aufwand Cloud-Dienste wechseln oder kombinieren. Im Cloud Integration Center werden die Unternehmen zur passenden Lösung geführt und können auf dieser Plattform auswählen, was zu ihnen passt.

Nur zahlen, was passt

Das neue digitale Zeitalter ist schnelllebig. Wer nicht flexibel agiert, verliert. Nach Bedarf bestellen und wieder abbestellen, wenn man die Lösung nicht mehr braucht, so sollte das Rezept der Zukunft aussehen. Inzwischen gibt es auch die Clouds „on demand“. Dabei können Unternehmen mittels Konfigurator passende Lösungen auswählen und diese per Knopfdruck im Cloud-Portal der Telekom ordern. Der Service-Katalog des Cloud Integration Centers zeigt die Auswahl unter den möglichen Cloud-Anwendungen: Unternehmen können Anwendungen installieren, benutzer- und rechtekonform konfigurieren, skalieren und automatisiert zu- oder abschalten. Mit der Software-as-a-Service-Lösung kann man sich Schritt für Schritt an die Wolke „herantasten“, statt gleich große Investitionen tätigen zu müssen. Dabei zahlt jeder nur, solange er zufrieden ist.

Auf Sicherheit „Made in Germany“ setzen

Nach wie vor sind Sicherheitsbedenken das größte Hemmnis gegenüber der Public Cloud. Laut „Cloud-Monitor“ befürchten 58 Prozent der Unternehmen den unberechtigten Zugriff auf Unternehmensdaten, 45 Prozent haben Angst vor Datenverlusten und mehr als 76 Prozent erwarten, dass ihr IT-Dienstleister ein Rechenzentrum in Deutschland betreibt.

Das Telekom-Rechenzentrum in Biere bei Magdeburg (Bild: Deutsche Telekom)

Ein Beispiel für Security auf höchstem Niveau ist Deutschlands größtes Rechenzentrum von T-Systems in Biere, in dem rund 600 Großkunden Cloud-Dienste nutzen. Seit Ende September bietet dort auch Microsoft seine Cloud-Dienste in Kooperation mit T-Systems an. Die Großkundensparte der Telekom übernimmt dabei die Rolle des „Datentreuhänders“. Ein vier Meter hoher Erdwall sowie zwei Meter hohe Sicherheitszäune sind nur die Basis der physischen Security-Maßnahmen. Es folgen über 300 Überwachungskameras, Bewegungsmelder und Überwachungspersonal mit Spezialausbildung auf dem Gelände. Hinzu kommen zahlreiche Sicherheitsschleusen, Handflächen-Scanner und eine speziell gesicherte Hochbrücke, die zum Kern des Gebäudes führt, in dem etwa 20.000 Server stehen.

Vor virtuellen Angriffen sind diese mit extra gesicherten IP-VPN-Tunneln sowie Firewalls und Intrusion-Detection- und -Prevention-Systemen geschützt. Eine zusätzliche Verschlüsselung der Kundendaten stellt sicher, dass diese nur von speziell autorisierten Mitarbeitern eingesehen werden können – und zwar nur dann, wenn dies zwingend erforderlich ist. Die Stromversorgung stellen leistungsstarke Notstromaggregate sicher. Zwölf Dieselmotoren gewährleisten den Betrieb für mindestens zwei Tage, sollte das benachbarte Umspannwerk ausfallen. Mit diesen Maßnahmen wird eine permanente Datenverfügbarkeit von bis zu 99,999 Prozent sichergestellt.

Entspannt in die Digitalisierung reisen

Es gibt sie schon: Multi-Cloud-Ecosysteme mit höchster Verfügbarkeit, umfas-sender Flexibilität und größtmöglicher Sicherheit. Mit einem Partner, der State-of-the-Art-Technologie und Ende-zu-Ende-Beratung bietet und dabei skalierbare Angebote mit garantiertem Datenschutz und Sicherheit kombiniert, können Unternehmen sich entspannt in die Wolke begeben – und die Erfolge des Cloud-Mixes genießen.

Peter Marwan

Für ZDNet veröffentlicht Peter immer wieder Beiträge zum Thema IT Business.

Recent Posts

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

2 Stunden ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

6 Stunden ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

7 Stunden ago

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

8 Stunden ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

8 Stunden ago

Netzwerk-Portfolio für das KI-Zeitalter

Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…

10 Stunden ago