Wissen ist Trumpf. Denn nur mit der fundierten Kenntnis über eigene Optimierungspotenziale und die wirtschaftlichen Trends von morgen lässt sich die Konkurrenz überholen. Zukunftweisende Big-Data-Technologien stellen somit für viele Unternehmen den Schlüssel zum Erfolg dar. Doch Big Data ist nicht gleich Big Data und nicht jede Lösung ist für jeden Anwender geeignet. Wer erfolgreich auf diese Technologie setzen möchte, muss frühzeitig die Weichen stellen.
Marketing, Sales, Risiko Management, Betriebsführung, Kundenservice und vieles mehr: Dank der Auswertung von Massendaten mit Cloud Computing gewinnen Unternehmen in unterschiedlichen Geschäftsbereichen die entscheidende Erkenntnis – branchenübergreifend und unabhängig. Das Rechnen in der Wolke ermöglicht die Speicherung von Massendaten und stellt sie jederzeit zur Verfügung. So ist Cloud Computing gleichzeitig Treiber und Lösungstechnologie für den Umgang mit Big Data.
Doch erst durch die Echtzeitanalyse der zusammengetragenen Daten entsteht der Mehrwert für das Business. Sie erlaubt Unternehmen gezielt Informationen abzurufen und somit eine wesentlich schnellere Reaktion auf Markt- und Kundenanforderungen sowie eine effizientere Gestaltung firmeninterner Prozesse. Beispielsweise liefern Diagnosedaten in der Automobilindustrie frühzeitig Hinweise auf Ungereimtheiten, sodass Werkstätten den Autofahrer präventiv informieren und ihm einen Kontrolltermin anbieten können.
Auch der Hersteller selbst profitiert von der Analyse der Diagnosedaten und kann Rückrufaktionen vermeiden oder die Fahrzeugproduktion optimieren. Die Informations- und Kommunikationstechnik entwickelt sich somit zum ausschlaggebenden Faktor für Erfolg und Wirtschaftlichkeit. Dies stellt jedoch vor allem die firmeninterne IT vor eine nicht zu unterschätzende Herausforderung, denn im Umgang mit Big Data stoßen die meisten Datenbanken schnell an ihre Grenzen.
Die richtige Analyse kommt aus der Wolke
Aufgrund der Fülle an Anforderungen lagern immer mehr Unternehmen ihre Infrastrukturen – ob partiell oder vollständig – an externe Dienstleister aus. Um Daten wirklich verfügbar, sicher und verwendbar zu halten, bedarf es umfassender Maßnahmen sowie hochmoderner Technologien. Anforderungen, denen die meisten Unternehmen selten gewachsen sind – vor allem nicht 24 Stunden am Tag. Somit ist die Verlagerung der eigenen Daten und Anwendungen in eine Cloud in vielen Fällen das effizienteste Vorgehen.
Es sollte aber im Blick behalten werden, dass Sicherheit und Verfügbarkeit der Daten gewährleistet sind. Ein Unternehmen sollte großes Vertrauen in den Dienstleister haben, wenn es seine Infrastrukturen aus der Wolke bezieht. Der Provider wiederum muss über die entsprechende Expertise und vor allem zukunftssichere Technologien verfügen, damit die flexible Infrastruktur wirklich die gewünschte Performance bringt.
Bei T-Systems vefolgen wir einen Ansatz, den wir Twin Core nennen: Fällt ein Rechenzentrum aus, übernimmt ein Zwillings-Rechenzentrum unterbrechungsfrei. Die Hochverfügbarkeit der Geschäftsdaten ist damit gewährleistet. Dieses Konzept stellt den Kern einer strikten Null-Fehler-Strategie dar. Erst in Kombination mit einer IT-Umgebung dieser Art gelingt es, leistungsfähige Datenanalyseverfahren wirksam einzusetzen und kritische Informationen permanent verfügbar zu halten.
Ein weiterer Faktor, der beim Thema Sicherheit vernachlässigt wird, ist die Gefahr des Datenmissbrauchs und Kontrollverlustes. Durch die unkontrollierbare Vermehrung von Informationen – gerade im Bereich Web 2.0 – müssen Anbieter äußerst sensibel darauf achten, dass die Auswertung ausschließlich anonymisiert erfolgt und einer Überprüfung durch Datenschutzbeauftrage von Bund oder Ländern jederzeit standhält. Eine Zuordnung entsprechender Daten zu einer Person darf zu keiner Zeit möglich sein. Daher muss der Datenschutz bereits im Design der Lösung vorhanden sein.
In-Memory: Analysen in Echtzeit
Wie eingangs erwähnt, existiert eine Vielzahl von Lösungstechnologien, die je nach Anwendungsgebiet unterschiedlich sinnvoll ausfallen. Wenn beispielsweise die Geschwindigkeit der Datenabfrage im Fokus steht – wie an der Strombörse oder beim Investmentbanking – dann ist der Einsatz einer In-Memory-Technologie die richtige Wahl.
Das Konzept ist zwar nicht die einzige High-Performance-Technologie auf dem Markt, aber laut der IDC-Studie „Big Business dank Big Data“ aus dem Jahr 2012 der derzeit meist genutzte Ansatz, wenn es um den Umgang mit Big Data geht. Informationen liegen bereits im Arbeitsspeicher des Computers vor und stehen damit in Rekordzeit zur Verfügung.
Genau darin liegt die große Stärke: Komplexe Analysen strukturierter Massendaten lassen sich nahezu in Echtzeit realisieren. SAP HANA etwa verarbeitet Datenbestände bis zu 3600-mal schneller als herkömmliche Datenbanken. Da die Kapazitäten des Hauptspeichers jedoch begrenzt sind, gilt dies auch für die Menge der Daten. Diese ist zwar wesentlich größer als das Volumen, das beispielsweise mit Legacy-BI-Lösungen erfasst werden kann, bei 16 Terabyte ist aber in der Regel das Limit erreicht.
Mit Hadoop die Trends von Morgen verstehen
Steht bei der Datenanalyse vor allem das Verstehen roher Datenmenge im Vordergrund, geht kein Weg an einer Lösung vorbei, die auch die größte Informationsflut bändigt. In diesem Fall bietet sich ein Hadoop-Cluster an, der komplementär zu anderen Big-Data-Anwendungen ist. Der Server-Cluster lässt sich beliebig erweitern, was eine nahezu unendliche Speicherkapazität ermöglicht. Zusätzlich erfasst das Software-Framework auch heterogene Datensätze aus unterschiedlichen Quellen.
Das ist eine entscheidende Eigenschaft, denn neben den strukturierten Daten aus dem eigenen Betrieb, steigt vor allem das Volumen unstrukturierter Informationen dank diverser Social-Media-Plattformen. Allein Facebook generiert täglich über 500 Terabyte neue Daten – bei Twitter sind es immerhin 12 Terabyte pro Tag. Für Unternehmen ist ein Großteil dieser Daten kritisch, denn diese liefern ihnen die geschäftsentscheidenden Informationen: Was denken meine Kunden über mich und den Wettbewerb? Welche Produkte und Dienstleistungen wünschen sie? Und was sind die Markttrends der Zukunft?
Ein Hadoop-Cluster ermöglicht im Zusammenspiel mit einer Analyse-Software, sämtliche Informationen nicht nur rückblickend sondern auch vorausschauend auszuwerten. Indem die Lösung Muster identifiziert, stellt sie Anwendern Schlussfolgerungen über zukünftige Entwicklungen zur Verfügung. Solche Prognosen verschaffen einen Wissensvorsprung gegenüber den Mitbewerbern. Sie erlauben eine frühzeitige Bewertung potenzieller Handlungsoptionen und bilden eine zuverlässige Informationsbasis für strategische Unternehmensentscheidungen.
Fazit
Wer auch morgen konkurrenzfähig bleiben möchte, ist auf die professionelle Auswertung seiner Geschäftsdaten angewiesen. Der Einsatz einer entsprechenden Lösung ist daher für viele Unternehmen eine Grundvoraussetzung, um mit dem Wettbewerb Schritt zu halten. Damit der Einstieg in Business Analytics allerdings nahtlos verläuft, müssen schon früh die richtigen Entscheidungen getroffen werden: Dies betrifft die zu analysierenden Daten sowie den Zweck der Auswertung.
Zudem muss der Anwender gemeinsam mit dem Provider definieren, ob er auf Echtzeitanwendungen, eine Auswertung unstrukturierter Daten oder sogar auf eine Kombination aus beidem angewiesen ist. Welcher Dienstleister in Betracht kommt, hängt außerdem stark davon ab, ob dieser die Ansprüche an Sicherheit sowie Hochverfügbarkeit erfüllt.
Wenn diese Anforderungen hinreichend geklärt sind, steht der Implementierung einer entsprechenden Anwendung nichts mehr im Weg – am besten mit einem zuverlässigen Partner, der die Einführung einer Big-Data-Strategie von der Planung bis zur Implementierung und darüber hinaus begleiten kann. Mit einem leistungsfähigen Architekturkonzept zur Speicherung und Analyse von Informationen entwickelt sich Big Data dann zum klaren Wettbewerbsvorteil.
Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.
Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…