Pharma, Healthcare, Finanzwesen und Einzelhandel gehören zu den Branchen, die sich besonders viele neue Chancen vom Einsatz analytischer Algorithmen versprechen. Typische Anwendungen sind etwa:
Doch ist die Anwendung von Big-Data-Analytik, KI und ML natürlich nicht auf diese Bereich beschränkt. Im Grunde kann jede Branche von neuen analytischen Fähigkeiten profitieren. Das weiß auch HPE und verstärkt sich nun gezielt durch den Aufkauf des innovativen Analytik-Plattformanbieters BlueData.
Zwar konnte die 2012 gegründete Firma Bluedata erst einige Dutzend Kunden überzeugen. Allerdings gehören die meisten in ihren Branchen (siehe oben) weltweit zu den Marktführern. Sie setzen die EPIC-Plattform testweise oder auch schon im Echtbetrieb ein – oft auf Dell EMC als Hardwarebasis, denn der Allrounder diente BlueData bislang als einer der Vertriebskanäle. Über den Kaufpreis schweigt sich HPE aus.
„Wir wollten unser analytisches Portfolio verbreitern und uns hat die Technologie von EPIC überzeugt“, erklärt Patrick Osborne, Vice President Big Data und Secondary Storage bei HPE. Man habe diverse Hardwareplattformen im Programm, die gut zu EPIC passen. Außerdem passt EPIC gut zum HPEs Hybrid-Cloud-Philosophie. Mit dem Dienstleistungszweig HPE Pointnext sei umfassendes Beratungs- und Implementierungs-Know-how vorhanden, um Kunden wirksam beim Aufbau einer EPIC-Lösung zu unterstützen, sagt Osborne. Schließlich sei HPE dank der nutzungsorientierten Abrechnung von HPE Greenlake, die auch für EPIC-Systeme verfügbar ist, imstande, den Kunden am tatsächlichen Gebrauch orientierte Kostenstrukturen anzubieten.
Für mittlere und Kleinunternehmen ist das Angebot trotzdem eher nichts, der Einstiegspreis liegt im sechsstelligen Bereich. „Wir wenden uns an Firmen, die mehrere verteilte analytische Teams betreiben, wahrscheinlich eine hybride Cloud und verteilte Datenressourcen nutzen“, umschreibt Osborne. Auch der HPE-Channel vertreibt in Zukunft die BlueData-Lösung.
Der vor Kurzem angekündigte Aufkauf des Superrechner-Herstellers Cray steht nicht im Zusammenhang mit der Akquise, betont Osborne. Vielmehr denkt HPE, wenn es um passende Hardware für BlueData geht, beispielsweise an die Apollo-Plattform, an Memory-driven-Lösungen und an Systeme, die mit viel GPU-Power ausgerüstet sind, um Aufgaben wie beispielsweise die Bilderkennung schneller zu bewältigen.
Grundsätzlich ist EPIC aber unabhängig von Hardwareplattformen und eine reine Softwarelösung. „Kunden implementieren EPIC On-Premises gern Bare Metal. Das geht, weil die Lösung auf Docker-Containern basiert“, erklärt Osborne. Docker-Container sind nicht auf einen Hypervisor als Unterlage angewiesen. Hyperskalierende Plattformen, die ja in der Regel Hypervisoren nutzen, sind nicht die ideale Basis für eine EPIC-Implementierung, meint Osborne. Nichtsdestotrotz sei es möglich, die Softwareplattform auch dort laufen zu lassen, allerdings innerhalb einer virtuellen Maschine.
Was steckt nun technisch hinter der Lösung? Wie schon gesagt, ist EPIC containerbasiert und auf die hybride Cloud ausgerichtet. Die Technologie trennt konsequent Storage von Compute. Die Grundeinheit von EPIC sind sogenannte Nodes oder vCPUs (virtuelle CPUs). Es gibt sie in drei vordimensionierten Größen. Nodes werden nach Angabe ihrer Dimensionen automatisch eingerichtet. Jede vCPU/jeder Node entspricht einem Container. Die Kosten für EPIC berechnen sich nach der Zahl der insgesamt auf dem System nutzbaren Nodes.
Kunden konfigurieren bei der Installation, wie viele vCPUs sie auf den für EPIC vorgesehenen physischen CPUs auf dem physischen Host unterbringen wollen. Direkt auf dem Host befindet sich auch der Arbeitsspeicher der vCPUs und der nutzbare Stateless-Speicher. Jedem Container können zudem bis zu 20 GByte persistenter Speicherraum außerhalb des EPIC-Systems auf Remote-Storage zugewiesen werden. Dort bleiben wichtige Containerdaten auch bei Verschieben oder Löschen des Containers im Zugriff. Das benötigen viele Applikationen.
Hosts können sich überall befinden und Cluster überall erzeugt werden: inhouse oder beim Cloud-Provider zum Beispiel. Nodes werden zu Clustern gebündelt, die Controller oder Worker sein und die Grenzen physischer Hosts überschreiten können. Controller steuern Worker, können aber auch selbst Worker sein. Worker erledigen die eigentliche analytische Arbeit. Hochverfügbarkeit ist ab einer Mindestzahl von drei Controllern möglich, die sich gegenseitig im Ernstfall ersetzen und auf nur einem Cluster laufen dürfen.
EPIC bietet mehrere Funktionen, die das System deutlich von anderen differenzieren. Beispielsweise DataTaps. Hier handelt es sich um mit Namen bezeichnete sichere Pfade, die zu analytisch genutzten Datenquellen führen. Die dort befindlichen Daten können analytisch genutzt werden, ohne dass man sie zu den Rechnern transportieren muss. Damit lassen sich Daten sowohl in zentralen Data Lakes als auch irgendwo im Unternehmen verteilte Datenquellen relativ unkompliziert an die Analytik anbinden. IOBoost ist ein Beschleunigungsmechanismus für die Datenein- und ausgabe in respektive aus Speichermedien.
EPIC erlaubt die Multi-Tenant-Nutzung. Nutzergruppen, Standorte, bestimmte analytische Aufgaben, Fachbereiche und so weiter lassen sich als Tenant mit spezifischen Zugriffsrechten und individuellen Zugriffswegen (DataTaps) einrichten. Mehrere Tenants können sich Hosts und Cluster teilen. Das ist wichtig für Unternehmen, die zum Beispiel Zugriffsbeschränkungen aus rechtlichen Gründen beachten müssen.
Besonders wichtig aus Sicht der Datenwissenschaftler, die die tägliche analytische Arbeit zu verrichten haben, sind die Tenant-spezifischen Selbstbedienungsportale, deren Einrichtung EPIC gestattet. „Heute müssen sich diese raren Spezialisten oft ihre aufgabenspezifische Infrastruktur erst zeitaufwändig zusammenbasteln“, sagt Osborne. Das birgt das Risiko, dass Analysen für den geplanten Zweck noch immer viel zu lange auf sich warten lassen.
Mit EPIC stehen im Portal die zugänglichen Komponenten zum Zusammenklicken bereit. Neben EPIC können das je nach Wunsch des Unternehmens, das die Plattform implementiert, unter anderem auch zahlreiche einschlägige Open-Source-Tools sein. Ausgewählte Komponenten verbindet EPIC automatisch zur für die spezielle Aufgabe gewünschten analytischen Umgebung.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…
Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…