Categories: Workspace

CeBIT 2017: HPE zeigt „The Machine“

Hewlett Packard Enterprise (HPE) zeigt auf der CeBIT (20.-24.3.2017, Halle 4, Stand A04) den ersten Protoytpen seiner seit mehreren Jahren in Vorbereitung befindlichen Computing-Architektur „The Machine“. Elemente aus der neuen Architektur sollen bereits 2018 und 2019 für HPE-Produkte verwendet werden. Mit der weltweit ersten Arbeitsspeicher-zentrische Computer-Architektur will der Hersteller die seit rund 60 Jahren gebräuchlichen Rechnerarchitekturen ablösen.

Diese sind nach Ansicht von HPE nämlich nicht geeignet, die künftigen Aufgaben, die durch Cloud Computing und das Internet der Dinge (IoT) sowie mobile Netzwerke und Machine-to-Machine-Computing auf sie zukommen, noch zufriedenstellend zu lösen.

Bei „The Machine“ kommunizieren dagegen auf bestimmte Arbeitslasten spezialisierte Prozessoren über optische Verbindungen mit einem universellen Speicher. Die Trennung von Hauptspeicher und Massenspeicher wird somit aufgehoben. Für den neuen Speicher setzt HPE auf Memristoren.

Der Prototyp von „The Machine“ ist laut HPE bereits seit Oktober 2016 in Betrieb und wurde erstmals auf der Hausmesse Discover Ende letzten Jahres gezeigt. Er habe erfolgreich belegt, dass die vier wesentlichen Säulen des Konzepts kurz vor der Marktreife stehen. Erstens funktioniert der Ansatz, dass zahlreiche Compute Nodes auf einen gemeinsamen Pool von „Fabric Attached Memory“ zugreifen. Zweitens läuft das optimierte Linux-Betriebssystem auf dem maßgeschneiderten System on a Chip (SOC). Drittens haben sich Komponenten zur optischen Datenübertragung als funktionsfähig erwiesen. Sie sollen den Rechner nicht nur wesentlich schneller, sondern auch energieeffizienter machen. Und viertens sind wohl auch die Entwicklungswerkzeuge, die es überhaupt ermöglichen Anwendungen zu konzipieren, um den umfangreichen, nicht-flüchtigem Arbeitsspeicher nutzen können, so weit, dass sie allgemein genutzt werden können.

Benchmarks liegen noch nicht vor. HPW wirbt aber damit, dass „mithilfe von Simulationen“ errechnet worden sei, dass die Verarbeitungsgeschwindigkeit mit der neuen Architektur „bei zahlreichen Workloads“ im Vergleich zu heutigen Computern 8000-mal schneller sein wird. „HPE erwartet ähnliche Resultate, wenn die Kapazität des Prototyps um weitere Knoten und weiteren Arbeitsspeicher erweitert wird“, teilt das Unternehmen heute mit.

Im Rahmen der Forschung an „The Machine“ wurden von HPE mehrere Technologien entwickelt. Neuerungen gibt es vor allem bei nichtflüchtigem Speicher sowie der Vernetzung der Netzwerk-Komponenten (Fabric und Photonik).

Byte-adressierbaren nichtflüchtigen Speicher plant HPE dagegen 2018 oder 2019 vorzustellen. Er soll die Vorteile von DRAM bei der Leistung und die Vorteile von traditionellem Speicher in Bezug Kapazität und Beständigkeit in sich vereinen. Ein Schritt auf dem Weg dahin ist HPE Persistent Memory. Es wurde im Frühjahr eingeführt und steht als Option für die HPE-Server ProLiant DL360 und DL380 Gen9 zur Verfügung. Sie sind vor allem darauf ausgelegt, Workloads für Datenbanken und Analytics-Anwendungen zu unterstützen und sollen dazu beitragen, Flaschenhälse bei traditionellen Storage-Umgebungen zu eliminieren.



Die für „The Machine“ entwickelten optischen Technologien sollen mit den für 2017 angekündigten HPE-Synergy-Systemen auf dem Markt eingeführt werden. Ab 2018 soll die Photonik-Technologie von „The Machine“ in weiteren Produktlinien, auch in einigen aus dem HPE-Storage-Portfolio, integriert werden. Das Unternehmen plant anschließend dann auch Fabric Attached Storage-Produkte auf den Markt zu bringen, die auf dem vom kürzlich gegründeten Gen-Z-Konsortium entwickelten Hochleistungs-Interconnect-Protokoll basieren. Neben HPE gehören dort zum Beispiel auch IBM, DellEMC, Lenovo, Huawei und Cray sowie ARM, Micron, SK Hynx und Samsung zu den Mitgliedern.

Damit bei der Markteinführung der neuen Rechnersysteme mit „Memory-Driven Computing“ auch Software zur Verfügung steht, die davon profitieren kann, arbeitet HPE seit 2016 mit Hortonworks zusammen, die mit Apache Sparks über eine In-Memory-Datenbank-Engine verfügen. Seit Juni 2016 steht außerdem Code auf Github zur Verfügung, um Programmierer an die Memory-Driven-Architecture heranzuführen. 2017 soll der Code in vorhandene Systeme integrieren werden und dann die Grundlage für künftige Analytics-Anwendungen bilden.


Kai Schmerer

Kai ist seit 2000 Mitglied der ZDNet-Redaktion, wo er zunächst den Bereich TechExpert leitete und 2005 zum Stellvertretenden Chefredakteur befördert wurde. Als Chefredakteur von ZDNet.de ist er seit 2008 tätig.

Recent Posts

Studie: Ein Drittel aller E-Mails an Unternehmen sind unerwünscht

Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…

2 Tagen ago

HubPhish: Phishing-Kampagne zielt auf europäische Unternehmen

Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…

3 Tagen ago

1. Januar 2025: Umstieg auf E-Rechnung im B2B-Geschäftsverkehr

Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.

3 Tagen ago

Google schließt schwerwiegende Sicherheitslücken in Chrome 131

Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…

3 Tagen ago

Erreichbarkeit im Weihnachtsurlaub weiterhin hoch

Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…

4 Tagen ago

Hacker missbrauchen Google Calendar zum Angriff auf Postfächer

Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…

5 Tagen ago