Categories: CloudServer

AWS nutzt ARM-Prozessoren und verbessert Netzwerk-Performance

Amazon Web Services (AWS) setzt künftig auch Prozessoren der ARM-Architektur für seine Clouddienste ein. Das kündigte Amazons Cloudsparte auf ihrer Technologiekonferenz re:Invent 2018 in Las Vegas an. Die ab sofort verfügbaren ARM-Chips stellen damit eine dritte Option neben Prozessoren von Intel und AMD dar – und sind nicht zuletzt auch eine Herausforderung für Intels Dominanz bei Serverprozessoren.

Peter DeSantis, als Vice President für die Infrastruktur von AWS verantwortlich, hielt sich mit technischen Details zum dem als AWS Graviton bezeichneten Prozessor zurück – eine erste Analyse verrät jedoch schon mehr. Der Amazon-Manager beschrieb die erstmals in der Cloud verfügbaren ARM-Chips als besonders geeignet für Scale-out-Workloads, bei denen die Auslastung über eine Gruppe kleinerer Instanzen verteilt werden kann.

Im Vergleich zu x86-Instanzen mit den Serverprozessoren Intel Xeon oder AMD Epyc sollen die Instanzen auf ARM-Basis um rund 45 Prozent günstiger zu nutzen sein. AWS bezeichnet seine neuen Instanzen als EC2 A1 und gibt ihre allgemeine Verfügbarkeit in drei US-Regionen sowie einer europäischen Region (Irland) an. Auf ihnen lauffähig sind Anwendungen, die für Ubuntu, Red Hat Enterprise Linux (RHEL) und Ubuntu geschrieben wurden.

Über die Jahre hinweg bemühten sich viele Firmen vergeblich, markttaugliche Serverprozessoren auf ARM-Basis zu schaffen. Die Entwicklung bei AWS geht auf die 2015 erfolgte Übernahme von Annapurna Labs zurück. Dieser Entwickler maßgeschneiderter Chips und ARM-Lizenznehmer konzentrierte sich ursprünglich auf IoT-Projekte, stellte sich dann aber als AWS-Sparte der Aufgabe der Graviton-Entwicklung. Auf dem Geekwire Cloudtech Summit (siehe Video) führte Amazon-Manager DeSantis schon vor einigen Monaten diesen Hintergrund aus und erwähnte dabei auch den eigenen Prozessor sowie Instanzen mit ARM-CPU.

„Heute ist ARM bereit, zum Mainstream der Cloud zu gehören“, schreibt in einem Blogeintrag Jon Masters, seit Jahren bei Red Hat als „Chief ARM Architect“ aktiv. Er verspricht sich davon eine neue Innovationswelle mit spannenden Lösungen für Endverbraucher wie Entwickler. Als maßgeblich für den Durchbruch der ARM-Server sieht er Standardisierungen, die für mehr Gemeinsamkeit mit anderen Architekturen sorgten: „Und deshalb nutzen ARM-Server ACPI, UEFI und andere bestehende Standards. Es hätte nichts gebracht, das Rad neu zu erfinden, während viel zu gewinnen war durch die Übernahme dessen, was gut funktionierte. Dank Standardisierung können Betriebssysteme wie RHEL, Fedora, CentOS ‚einfach laufen‘ auf ARM-Server-Plattformen wie den heute von Amazon angekündigten.“

AWS Global Accelerator

Zu den zahlreichen weiteren Produktankündigungen während der re:Invent 2018 zählt AWS Global Accelerator. Der Netzwerkdienst soll mit automatischem Routing von Datenverkehr in mehrere Regionen für Beschleunigung sorgen. DeSantis versprach damit verbesserte Verfügbarkeit sowie Leistung für die Endbenutzer von AWS-Kunden.

ZDNet.de Redaktion

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

11 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

1 Tag ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

1 Tag ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

1 Tag ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

1 Tag ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

1 Tag ago