Hyperkonvergente Systeme nehmen ihren Anwendern viele administratorische Aufgaben ab. Diese Systeme werden als Appliance geliefert, aber auch als Software-Referenz-Architektur. In beiden Fällen sorgt eine Software-Schicht für die Entkopplung von Software und Hardware und ermöglicht damit eine umfassende Automatisierung und Orchestrierung der IT. Für Anwender bedeutet eine SDI (Software Defined Infrastructure) eine agilere und modernere Umgebung, die auch die Einbindung von Cloud-Anwendungen oder Partnernetzen deutlich vereinfacht.
Bei einer SDI steckt die Intelligenz nicht mehr in den Hardware-Komponenten, sondern wird von einer höheren Ebene aus gesteuert. SDI bedeutet, dass Storage, Network und Server auf Basis von Software automatisch und ohne menschliche Interaktion gesteuert werden. Je nachdem, welche Anforderungen eine Anwendung hat, können die entsprechenden Ressourcen über die Software definiert und automatisiert bereitgestellt werden.
Virtualisierte Workloads können damit nicht nur konfiguriert, sondern auch bereitgestellt, skaliert, migriert und repliziert werden. Ein weiterer Vorteil ist, dass sich diese Umgebungen versionieren lassen. Das heißt, neben dem Kloning ist auch ein Rollback auf eine ältere Version möglich.
Als Workloads kommen ganz unterschiedliche Anwendungen wie Datenbanken, Web-Applikationen oder auch unternehmenskritischen ERP- oder CRM-Anwendungen in Frage. In der Frühphase von hyperkonvergenten Infrastrukturen wurden diese häufig als Ressource für eine Virtual Desktop-Infrastructure eingesetzt.
Vorteil einer Software Defined Infrastructure gegenüber integrierten Appliances ist, dass Anwender Investitionen in Hardware schützen können. Zudem bleiben SDI-Anwender von den Herstellervorgaben der Hardware-Lösungen eines Appliance-Ansatzes unabhängig. Das ist vor allem in Hinsicht auf einen Vendor-Lock-in von Bedeutung. Trotz der neuen Orchestrierung können damit bestehende Ressourcen wie zu Beispiel eine Datenbank oder eine Transaktionsverarbeitung weiter genutzt werden.
Den ersten Schritt für eine SDI haben viele Unternehmen bereits mit der Einführung von Virtualisierung von Servern, Storage und Netzen getan. Derzeit vereinen erste Anwender Software Defined Compute, Software Defined Storage und Networking in konvergenten Systemen. Über eine automatisierte Management-Umgebung und eine Orchestrierung wird nun die IT-Infrastruktur in kleinen Schritten auf die nächste (hyperkonvergente) Stufe gehoben.
Wie der aktuelle Verbreitungsgrad in Deutschland ist, illustrieren derzeit vor allem zwei Studien. Eine Untersuchung von Crisp Research, die den Einsatz von hyperkonvergenten Systemen, wie sie etwa von Spezialisten wie Nutanix angeboten werden, bei Unternehmen Ende 2015 untersucht hat, kam zu dem Ergebnis, dass nur knapp zwei Prozent der Unternehmen hyperkonvergente Systeme produktiv einsetzen. Immerhin 19 Prozent planen den Einsatz. Dabei wurde nicht zwischen Hardware- und Software-basierten Installationen unterschieden.
Eine weitere Untersuchung hat das Marktforschungsinstitut IDC unter deutschen Unternehmen mit mehr als 250 Mitarbeitern im März dieses Jahres durchgeführt. Allerdings hatte IDC lediglich Unternehmen befragt, die sich bereits mit SDI eingehend beschäftigten, daher liegt in dieser Untersuchung der Anteil derjenigen, die SDI produktiv einsetzen, naturgemäß deutlich höher. In dieser Untersuchung aber zeigen die Marktforscher vor allem auch, welche Ziele und Herausforderungen die Anwender mit dieser Architektur verfolgen.
25 Prozent der befragten Unternehmen nutzen SDI seit mehr als 12 Monaten für Produktivsysteme. IDC sieht in dieser Zahl den Beleg, dass derzeit der Druck auf die IT-Abteilungen groß ist, Geschäftsprozesse mit modernen IT-Lösungen und Architekturen zu unterstützen.
In den kommenden Jahren dürfte die Zahl der produktiv genutzten SDI-Installationen weiter steigen. So planen laut IDC 40 Prozent der befragten Unternehmen SDI in den nächsten zwei Jahren für geschäftskritische Anwendungen wie ERP, CRM und branchenspezifische Lösungen einzusetzen.
„Diese Workloads stellen besonders hohe Anforderungen hinsichtlich Verfügbarkeit, Ausfallsicherheit und Servicequalität. SDI ist die Basis für die Erfüllung dieser Anforderungen und kann ein Ansatz für einen kostengünstigeren IT-Betrieb sein“, so Matthias Zacher, Senior Consultant & Projektleiter bei IDC, in der Studie.
Anwender, die aus verschiedenen Gründen sich nicht an die Hardware eines Herstellers binden wollen, können durch den Software-Ansatz weitere Optionen realisieren und das muss auch nicht den Komplettumstieg bedeuten.
„Die Teams für Infrastructure und Operations, die nicht vollständig auf ein hyperkonvergentes Angebot umsteigen wollen, können sich auch für einen Software-Ansatz von Storage-Playern wie Hedvig, Maxta und SpringPath entscheiden, die liefern Produkte, die Server- und Storage-Hardware-Ressourcen zusammenbringen“, kommentiert Forrester-Analyst Richard Fichera.
„Diese Sofware-only-Storage-Produkte erlauben es Anwendern, Direct-Attached-Storage-Server (DAS) mit Netzwerk-Storage zu verbinden.“ Fichera vergleicht diesen Ansatz mit VMwares VSAN und HPE StoreVirtual VSA. Anwender würden dadurch den Vorteil eines vereinfachten Packgings von aktuellen hyperkonvergenten Angeboten verlieren. „Aber dieser Ansatz erlaubt es Infrastructure und Operations, den Vendor-Lock-in von pyhsischen hyperkonvergenten Plattformen zu umgehen, Anbieter von Software-only-Storage bieten damit eine Do it Youself-Option.“
Zunächst einmal der Blick auf die Soll-Seite: Welche Probleme wollen IT-Verantwortliche mit dem Einsatz einer SDI begegnen? Laut IDC ist das wichtigste Anliegen, Cloud-Computing umzusetzen – die Hälfte der befragten Unternehmen will in den nächsten 12 Monaten entsprechende Projekte realisieren.
Alle Unternehmen aus der Studie haben bereits Virtualisierung in irgendeiner Form im Einsatz, doch angesichts der drastischen Verschiebungen bei den Herausforderungen für die IT, reicht das nicht mehr aus. Schnell müssen Resssourcen bereitgestellt und auch wieder eingefroren werden. Der Rückgriff auf Cloud-Ressourcen scheint da praktisch unvermeidlich.
Über eine SDI lassen sich IT-Ressourcen nahtlos und automatisiert bereitstellen, egal ob diese Ressourcen in der Public-Cloud oder aus einer hybriden Cloud stammen, oder ob diese mit entsprechenden Schnittstellen mit der Hardware in dem eigenen Rechenzentrum abgedeckt werden.
Auch die Storage-Provisionierung vereinfacht sich durch SDI, denn Storage wird auf Compute-Ebene abgebildet und lässt sich nach Bedarf erweitern. Zudem kann der Bedarf an Speicherplatz genauer bestimmt werden
Weniger Probleme bei Upgrades und Wartung ist daher auch für etwa 35 Prozent der Anwender ein wichtiges Ziel und damit etwa gleichauf mit der höheren Produktivität von Mitarbeitern (34 Prozent). Durch die Automatisierung von Aufgaben haben diese mehr Zeit für andere Projekte. Planbare Performance und besseres Security Management spielt laut IDC für 33 Prozent eine größere Rolle.
Anders als bei hyperkonvergenten Infrastrukturen, wo im Prinzip alles vom Hersteller vorgegeben wird und sich Anwender bewusst auf einen Vendor-Lock-in einlassen, wollen Anwender von SID offenbar die Vorteile integrierter Infrastrukturen doch mehr Freiheiten. Daher sind laut der IDC-Untersuchung unter den 252 befragten SDI-Anwendern auch 85 Prozent der Meinung, dass Open-Source-Komponenten in diesem Ansatz eine große Rolle spielen.
Das ist auch zu einem gewissen Grad historisch bedingt, denn viele Komponenten, die Anwender für Software Defined Networking, Software Defined Storage und Software Defined Compute sowie Orchestrierung und Automatisierung einsetzen, sind entweder quelloffen oder basieren auf Open-Source-Technologien. Jüngste Beispiele sind Container-Technologien wie Docker oder auch OpenStack. Beide stehen jedoch noch mehr oder weniger am Anfang ihrer Entwicklung. Andere Technologien wie Virtualisierung sind dagegen seit Jahren im Einsatz, hier sehen die Autoren von IDC ein gewisses Spannungsfeld.
Ein Spannungsfeld, das aber langfristig vielversprechend ist und für Anwender zahlreiche Vorteile biete, wie René Büst, Analyst von Crisp Research, festhält: „Aus dem Open-Source-Universum kommend bilden OpenStack und OpenDaylight die ideale Kombination und gehören derzeit zu den gefragtesten Ansätzen für den Aufbau einer Software-defined Infrastructure.“
OpenStack setzte dabei OpenDaylight als Netzwerkmanagementlösung ein. OpenDaylight übernehme sozusagen die Verwaltung der Netzwerkkommunikation der OpenStack Compute Nodes. Auch wenn sich vor allem diese beiden Technologien gut ergänzen, sei das bei weitem nicht der wichtigste Grund, warum sich Unternehmen derzeit aktiv mit diesen beiden Technologien beschäftigen, die beide von namhaften Unternehmen sowie zahlreichen Individuen weiterentwickelt werden.
„Insbesondere der Hardware-agnostische Ansatz, den sowohl OpenStack als auch OpenDaylight verfolgen, macht es für Unternehmen zunehmend interessant, ihre bestehende Hardwarelandschaft (Server, Storage, Router, Switches, etc.) in eine Software-defined Infrastructure zu überführen, ohne in neue Hardwarekomponenten zu investieren und stattdessen die Existierenden weiter zu verwenden“, so Büst weiter.
Tatsächlich ist die Einführung einer SDI mit Einstiegshürden und einigen organisatorischen Vorleistungen verbunden. Das gilt im besonderen Maße für den Einsatz von Open-Source-Technologien. Dennoch geht IDC davon aus, dass Anwender durch die Effizienzsteigerung Einsparungen bei den operativen Kosten realisiert werden können. Viel mehr als der Aspekt der Kostensenkung aber sollten die Wettbewerbsvorteile wiegen, denn die Unternehmens-IT werde dadurch agiler und schneller.
Auch für die einzelnen Fachbereiche werde die Bereitstellung von IT-Ressourcen einfacher, schneller und transparenter. So können neue Anwendungen beispielsweise aus einem App-Store heraus bezogen werden und durch die Automatisierung der Infrastruktur zudem günstiger.
SDI klingt einfach, allerdings ist es nicht so einfach, an diesen Punkt zu kommen. Im Vorfeld steht eine Bestandsaufnahme der gesamten Topologie und Rechenzentrumsarchitektur. Verantwortlichkeiten, Prozesse, Rollen Abhängigkeiten und Abläufe müssen dafür geprüft und dokumentiert werden. Erst dann kann gegebenenfalls eine Änderung der Architektur vorgenommen werden. Und erst dann ist es möglich, die vorhandenen Ressourcen und Workloads mit den neuen Schichten zu verbinden und das Data Center Design zu ändern.
Doch es gibt noch andere Hürden: Anwender sollten im Vorfeld die Kosten genau planen und kalkulieren. Für knapp 40 Prozent der Befragten standen nur geringe Budgets zur Verfügung. Für 34 Prozent der Befragten, waren die oben genannten Schritte zu hoch. 29 Prozent stehen vor dem Problem, Sicherheit und Compliance mit einer SDI nicht gewährleisten zu können und für 27 Prozent sind fehlende personelle Ressourcen sowie Bedenken aus den Fachabteilungen ein Problem.
Etwa ein Viertel der Anwender kämpft mit fehlendem internen Know-How und 23 Prozent mit der Tatsache, dass Produkte noch nicht ausgereift sind. Etwas mehr als ein Fünftel der Anwender bemängelt fehlende Transparenz und einen Überblick über die Anbieter, die am Markt sind.
Die Marktforscher von Gartner haben klare Vorstellungen, für wen sich der Software-definierte, hyperkonvergente Ansatz lohnt. Hyperkonvergente Infrastrukturen sind aus der Sicht von Gartner vor allem für kleine und mittelständische Unternehmen interessant, weil eben dadurch vor allem Administrationskosten eingespart werden können.
Die Nachteile eines Vendor Lock-ins sollten Anwender in diesem Fall billigend in Kauf nehmen, erklärt auch Forrester-Analyst Fichera. Gartner rät, dass Anwender dieser Größenordnung daher vorassemblierten Systemen den Vorzug geben sollten, anstatt eigene Umgebungen aufzubauen. „Die Ausnahme für den Software-only-Ansatz könnte dann eine Option für mittelständische Unternehmen sein, wenn diese aufgrund des aktuellen Hardware-Portfolios und den Professional Services sehr stark von Value-Added-Resellern abhängig sind – und das auch bleiben wollen“, so Gartner-Analyst George J. Weiss.
Kostengünstiger Mini-PC mit AMD Ryzen 7 5825U-Prozessor, 16 GB Arbeitsspeicher (RAM) und 512 GB SSD.
Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.
Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…