Der Wunsch vieler Unternehmen, datenzentrische Geschäftsmodelle zumindest zu erproben oder projektbezogen einzuführen und somit Big Data in irgendeiner Form zu nutzen, setzt eine IT-Infrastruktur voraus, die den damit einhergehenden Anforderungen auch gerecht werden kann. Der Beitrag eines SDN (Software-defined Network) erweist sich dabei als besonders wertvoll: Damit ist es möglich, mit dem Datenverkehr flexibler umzugehen, ihn laufend neu zu gestalten und einigen Ärger zu vermeiden, indem immer die bestmögliche Netzwerkperformance garantiert wird. Umgekehrt trägt Big Data in Kombination mit Analytics seinen Teil zum Funktionieren und Erfolg von SDN und „on demand“-Angeboten der Telekommunikationsunternehmen bei.
Die Nutzung von Big Data in Unternehmen und öffentlichen Einrichtungen, darunter auch Universitäten und Forschungsinstituten, nimmt kontinuierlich zu. IDC prognostiziert für 2020 einen Umsatz von über 200 Milliarden Dollar für Big Data & Business Analytics (BDA). 2016 lag der von den Marktforschern ermittelte, weltweite Umsatz in dem Segment bei gut 130,1 Milliarden Dollar.
Cisco hat festgestellt, dass zwar immer mehr Unternehmen sich über die Vorteile der Analyse ihrer Daten klar werden, aber gleichzeitig darauf hingewiesen, dass sie sich dabei stark auf diverse Anwendungen in der Cloud verlassen und dabei von diesen auch bereits in hohem Grade abhängig sind. Um das sich daraus ergebende Problem zu erkennen, muss man kein Netzwerkexperte sein: Das öffentliche Internet droht schnell an seine Grenzen zu stoßen.
Big-Data-Konzepte zu nutzen, etwa in Form einer Apache-Hadoop-Plattform, bringt enorme Anforderungen an das Netzwerk mit sich. Denn in aller Regel hat die Verarbeitung einer Aufgabe in Hadoop einen direkten Einfluss auf eine für das Geschäft wichtige Anwendung. Oder anders gesagt: Die Analyse umfangreicher Datenbestände lohnt sich oft nur, wenn sie dazu dient, anwendbare Erkenntnisse daraus unmittelbar oder zumindest nach sehr kurzer Zeit nutzen zu können.
Ceyoniq beleutet in diesem Whitepaper anhand von sechs Thesen die wichtigsten Aspekte zum Thema und gibt Tipps für eine erfolgreiche Migrationsstrategie.
Niemand will auf die Frage nach dem günstigsten Flug von A nach B über C, die Frage, ob das Verhalten eines mobilen Clients im Netzwerk gerade der normalen Nutzung entspricht oder verdächtig ist oder die Frage, ob es möglich ist, von einem mit Radiowerbung beworbenen Aktionsprodukt die voraussichtlich benötige Anzahl in den Filialen vorrätig zu haben, bis morgen warten.
Die Antwort soll am besten sofort, mindestens aber innerhalb einer Minute zur Verfügung stehen. Denn schließlich erscheint sie dem Nutzer nicht komplizierter als die Anfrage bei einer Web-Suche – dass anders als bei der, nicht eine im Vorfeld erstellte Liste ausgegeben wird, sondern komplexe, möglicherweise so nur einmal überhaupt erforderliche Abfragen und Berechnungen im Hintergrund ablaufen, spielt für die Anwender dabei keine Rolle.
Im Falle von Hadoop ist es zum Beispiel unumgänglich, über Werkzeuge zu verfügen, die eine Performance-Analyse ermöglichen und bei der Fehlerbehebung helfen, um etwa Datenkonflikte oder Datenstaus zu beseitigen oder Probleme mit der virtualisierten Infrastruktur, etwa die virtuellen Ports zu konfigurieren oder die Namen der Netzwerkknoten und deren Rolle zu verwalten.
Außerdem ist eine umfassende Kontrolle über den Datenverkehr auf den primären und sekundären Verbindungen erforderlich, damit das HDFS (Hadoop Distributed File System) funktioniert. Damit das wirtschaftlich möglich ist, wird wiederum eine dynamische und intelligente Zuweisung der Bandbreite vorausgesetzt. Und auch dabei muss es möglich sein, die bei der Zusammenführung der Ergebnisse des Analyseprozesses möglicherweise auftretenden Flaschenhälse zu identifizieren und zu beheben.
Wer ein Big-Data-Projekt auf Basis eines SDN angehen will, muss also sicher sein, dass er über eine zuverlässige Netzwerkinfrastruktur mit hohen Bandbreiten verfügt. Dazu kommt als zusätzliche Anforderung dann noch, dass sich Probleme damit unmittelbar beheben lassen die Administratoren jederzeit den Datenfluss optimieren und an die sich wechselnden Anforderungen anpassen können.
Solche Netzwerke in Eigenregie aufzubauen ist teuer, aufwändig und langwierig. Außerdem stellt sich für die meisten Firmen wahrscheinlich die Frage, ob sie sich damit überhaupt auseinandersetzen sollten, wenn der Netzbetrieb nicht ihr Kerngeschäft ist. Dann bietet es sich an, auf einen Dienstleister zu setzen, der sich gezielt nur darum kümmert.
Einer davon ist Colt Technology Services mit seinem IQ Network. Darüber lassen sich bis Bandbreiten bis zu 100 GBit/s einrichten, wodurch sich die Risiken in Bezug auf mangelnde Bandbreite schon einmal minimieren. Neben Unternehmen aus dem Finanzwesen, insbesondere solchen, die Konformität zu Regelwerken wie MiFID II oder FRTB nachweisen müssen, profitieren davon auch Firmen, die bei der Nutzung der Daten verteilter Objekte im Rahmen von IoT-Projekten mit Big-Data-Komponenten bereits weit fortgeschritten sind, oder die diesbezüglich ambitionierte Pläne haben.
Die Netzbetreiber arbeiten aber auch daran, Vorteile von SDN auf aus ihrer Sicht weniger komplexe und fordernde Infrastrukturen anzuwenden. Dazu gehören etwa Ethernet-Verbindungen zwischen Rechenzentren und zu Public-Cloud-Services bei Azure (Microsoft) und AWS (Amazon), also dorthin, wo die Verarbeitung von Big Data rasch zunimmt. Auch hier bieten Netzwerkservices, die „on demand“ abgerufen oder umkonfiguriert werden können, viel Flexibilität und enorme Vorteile
Umgekehrt spielen bei der Konzeption des Backbone für die Telekommunikationsdienste Predictive Analytics und die Auswertung von Metadaten, die mithilfe von Big Data gewonnen werden, eine immer größere Rolle. Sie helfen den Betreibern in einem bisher nicht gekannten Umfang bei der Anpassung und Steuerung ihrer Dienste.
Insbesondere hilft Big Data bei SDN den Traffic zu steuern, die Kommunikation zwischen den einzelnen Services und den Schichten von Services zu optimieren. Aber auch für Cyber-Security oder die Vernetzung von Rechenzentren – sei es innerhalb eines SDN oder über mehrere SDN hinweg – ist Big Data als Hilfsinstrument unverzichtbar.
Alle SDN-Plattformen bauen auf NFV (Network functions virtualization) auf. Die sind dafür gedacht, bislang von Menschen getroffene und umgesetzte Entscheidungen zu automatisieren und damit auch zu beschleunigen. Damit das nach Wunsch funktioniert, wird in großem Umfang auf APIs – programmierbare Schnittstellen – zurückgegriffen.
Der Grundgedanke dabei ist es, durch die Nutzung von Big Data zunächst einmal umfassende Daten über einmal getroffene Entscheidungen und deren Auswirkungen zu sammeln um Feedback-Schleifen zu entwickeln, die dann der Verbesserung der Plattform dienen. Dabei fließen auch Informationen darüber ein, welche Anforderungen die Kunden an die Konnektivität haben und wie sich diese bestmöglich erfüllen lassen.
Das ist schon keine Zukunftsmusik mehr: Kunden können sich bereits jetzt beim Service-Portal anmelden und Kapazitäten selbst an die Anforderungen unerwarteter Ereignisse anpassen. Wobei das nicht nur eine Bestellung im klassischen Sinne ist, sondern die Bereitstellung der gewünschten Kapazitäten innerhalb von Minuten erfolgen kann.
In einem SDN kann der Rückgriff auf Big Data und Data Analytics aber auch zu neuen Geschäfts- und Nutzungsmodellen führen. Unternehmen sind an flexibleren und weniger kostspieligen WAN- Services interessiert. Sie wollen nicht unbedingt eine bestimmte Kapazität für ein oder gar zwei Jahre buchen, wenn sie die zum Beispiel nur einmal im Monat oder während weniger Tage im Jahr benötigen.
In SDN-Umgebungen werden Dienste, die diesen Bedarf erfüllen, nahezu von selbst entstehen. Die Netzbetreiber können dazu auf Daten zurückgreifen, die sie über die Nutzung der Infrastruktur im laufenden Betrieb erhalten. Das können etwa Daten über die Bandbreite, die Performance und die Einhaltung von SLAs oder Charakteristiken der Anwendungen und die Einschätzung der Servicequalität durch den Nutzer sein. Damit ist dann der Weg frei, weg von einer mehr oder weniger umfangreichen aber fixen Preisliste hin zu adaptiv gestalteten.
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…
Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…