Categories: Cloud

re:Invent: AWS kommt zu seinen Kunden

Der Siegeszug der Hybrid Cloud ist nun auch bei AWS angekommen. Zwar berichteten auf der jährlichen, weltweiten re:invent eine ganze Reihe von Kunden davon, wie sie ihre komplette Infrastruktur in die Cloud verlagern oder verlagert haben, beispielsweise der weltbekannte Gitarrenhersteller Fender. Doch andererseits musste auch AWS-CEO Andy Jassy zugeben: „Ich habe mit Kunden gesprochen, die mir versichert haben, dass sie aus unterschiedlichen Gründen niemals alle Workloads in die Cloud verlagern werden.“

Schon im vergangenen Jahr kündigte sich mit der engen Zusammenarbeit mit VMware an, dass AWS Kunden, die viel in Technologien und Virtualisierung des eigenen Rechenzentrums investiert haben, entgegenkommen will. Der Service VMware Cloud on AWS entpuppte sich als Erfolgsmodell, denn damit können Anwender im eigenen Unternehmen und in der Cloud denselben Stack benutzen, ohne auf die Cloud-Vorteile wie große Skalierbarkeit oder die gewohnte VMware-Technologie verzichten zu müssen.

Andy Jassy, CEO AWS, stellt die neue On-Demand-Kapazitätsanpassung für Dynamo DB vor (Bild: AWS)

In diesem Jahr nun folgt die Ankündigung eines Schachzuges in Gegenrichtung: AWS will direkt in die firmeneigenen Rechenzentren oder zu den Kollokateuren seiner Kunden kommen. Der dazugehörige Service heißt AWS Outposts und gehört zu den relativ wenigen Hardware-basierten Services, die AWS bislang für spezifische Aufgaben bereitstellt. Ein Beispiel ist der für den Transport großer Datenmassen gedachte Lösung AWS Snowball – jetzt auch in der Variante Snowball Edge Optimized erhältlich, der möglichst lange ohne Stromversorgung auskommt.

Outposts sind Racks voll mit AWS-Originaltechnik einschließlich der Virtualisierungs- und Managementlösung AWS Nitro System sowie AWS-Treibern und -Stack, die von Technikern des Cloud-Providers im Kunden-Rechenzentrum oder beim Kollokateur installiert und als Managed Service betrieben werden sollen. Auf ihnen läuft wahlweise VMware Cloud on AWS oder aber AWS-Dienste im Original, ganz nach Kundenwunsch. „Das ist vor allem eine Ausdehnung des Public-Cloud-Modells in Richtung Endkunde“, meint dazu Alexander Hille, Senior Analyst beim Marktforschungsunternehmen Crisp.

Fast eine ganze Woche stand Las Vegas ganz im Zeichen der AWS re:invent 2018, zu der etwas über 50.000 Besucher kamen (Bild: Rüdiger)

Damit zieht AWS mit Microsoft gleich, das den Azure-Stack schon länger auf HP-Hardware zum Hausgebrauch anbietet. Auch OpenStack ist als Vor-Ort-Lösung beispielswese auf HPE-Servern erhältlich. Allerdings weist AWS einen Vergleich mit diesen Lösungen weit von sich. „Weil es sich um einen Managed Service handelt, sind wir für Aktualisierungen, Support und Wartung zuständig, bei den beiden anderen Angeboten ist der Kunde diesbezüglich auf sich selbst gestellt“, sagt Dave Brown, Vice President EC2 bei AWS.

Freilich ist hinsichtlich der Details beim Outposts-Service noch vieles unklar, beispielsweise das Pricing oder auch, welche AWS-Services am Ende dort laufen sollen. „Wir wollen zuerst mit unseren Kunden reden“, sagt Peter de Santis, der bei AWS für die weltweite Infrastruktur zuständig ist. Am Ende kann es wohl durchaus sein, dass jede Outposts-Instanz kundenspezifisch etwas anders aussieht. Analyst Hille: „Man darf gespannt sein, wie AWS mit den logistischen Herausforderungen, die sich hier stellen könnten, fertig wird. Auf jeden Fall sollten Anwender für den Support nur einen Ansprechpartner haben, egal, was auf Outposts läuft.“

AWS: Mehr Datenbanken, bessere Vernetzung

Weitere Neuerungen, die besonders Kunden mit internationalen Aktivitäten interessieren dürften: Bis 2020 plant AWS fünf neue Regionen in Stockholm, Hongkong, Kapstadt, Bahrein und Mailand. Mit AWS Global Accelerator gibt es jetzt einen Service, der global verteilte Anwendungen mit Hilfe des Backbone-Netzes des Cloud-Providers beschleunigen kann. Und AWS Transit Gateway, eine weitere angekündigte Neuerung, ermöglicht das zentrale Management von VPN-Verbindungen zwischen unterschiedlichen AWS-VPCs (Virtual Private Clouds).

Weil Windows-Filesysteme sich dank großer Verbreitung in Unternehmen ebenfalls als ziemlich unausrottbar erweisen, unterstützt sie nun auch AWS mit dem Service Amazon FSx for Windows File Server. Und Kunden aus dem Hochleistungsrechnen, die bisher stark auf das Anmieten von Kapazitäten in den wenigen Hochleistungsrechenzentren angewiesen waren, finden jetzt bei AWS das gern genutzten Open-Source-Filesystem Lustre für sehr große Files, etwa Mediendateien, in Gestalt des Service Amazon FSx For Lustre. Außerdem können sie mit dem Elastic Fabric Adapter jetzt die Zahl der Knoten in HPC-Umgebungen unkompliziert und bis zu Tausenden Instanzen skalieren. So soll die Verlagerung von HPC-Apps in die Cloud zur realistischen Option werden.

Wer große Key-Value-Stores, also quasi zweispaltige Tabellen, mit DynamoDB auf AWS verarbeiten wollte, musste sich bisher viele Gedanken über die Dimensionierung dieser Tabellen machen. Der neue Service Dynamo DB On-Demand, der solche Datenbanken automatisch skaliert, sobald Daten hinzukommen, macht das überflüssig. Abgerechnet wird nach wie vor pro Request.

Die zunehmende Zahl der Anwender, die in den entstehenden Edge- und IoT-Infrastrukturen Zeitreihen verarbeiten müssen, können mit Amazon Timestream nun eine spezialisierte Datenbank für diesen Datentyp nutzen. Sie ist, so Jassy „tausendmal schneller als das Bisherige zu einem Zehntel der Kosten“. Die Datenbank hat eine Abfragemaschine, die die eingespeisten Formate versteht und damit arbeiten kann.

Ganz das Gegenteil kontinuierlich hereinströmender Zeitstempeldaten, die meist sofort verarbeitet werden, sind Langzeitarchive – bislang eine klare Domäne von vor-Ort-Technik, in diesem Fall von Tape-Archiven. Nun schickt sich AWS an, auch diesen Markt disruptiv zu beeinflussen. Jassy: „Tape-Archive sind teuer, arbeitsaufwändig, reparaturanfällig und haben extrem lange Zugriffszeiten.“ Alles Gründe, warum Kunden in Zukunft zum Service amazon S3 Glacier Deep Archive greifen sollen. Der Preis: Ein US-Dollar pro Monat und Terabyte. Zugriffszeiten sollen von „Wochen bis Monaten“ (Jassy) auf Tage oder Stunden zusammenschmelzen.

„Outposts-Kunden sollten auf jeden Fall für Wartung und Support nur einen Ansprechpartner haben“, Maximilian Hille, Senior Analyst bei Crisp Research (Bild: Rüdiger)

Schließlich sei noch ein neuer Service erwähnt, der sich an Unternehmen wendet, die Blockchain-Technologie für Systeme mit einem begrenzten Teilnehmerkreis und einer zentralen Vertrauensinstanz verwenden wollen. Dieses Design verzichtet auf die aufwändige verteilte Verifizierung, die beispielsweise Bitcoin so energieintensiv macht. Es taugt etwa für die automatische Vertragsgestaltung von regelmäßigen Lieferbeziehungen in einer Supply Chain und ähnliche Anwendungen. Dafür wurde nun mit Amazon Quantum Ledger DB (QLDB) Datenbankdienst angekündigt. Ein zweiter, Amazon Managed Blockchain, eignet sich für stark skalierende Umgebungen. Dieser Service wird in zwei Varianten angeboten: mit Etherum oder Hyperledger Fabric.

Fazit

Mit seinen neuen Services passt sich AWS an die Wünsche der Kunden und Markttrends an, auch wenn sie nicht immer der Philosophie des Cloud First entsprechen. Interessant ist, dass AWS nun auch im Kundenrechenzentrum physisch präsent sein will. In ein bis zwei Jahren wird sich erwiesen haben, ob der Provider hier seine selbstgesteckten Erwartungen erfüllen kann oder ob On-Premises-Technik letztlich doch eine ganz andere Herangehensweise als die von AWS erfordert. Das würde bessere Überlebenschancen für traditionelle Anbieter von Vor-Ort-Technik bedeuten.

Kai Schmerer

Kai ist seit 2000 Mitglied der ZDNet-Redaktion, wo er zunächst den Bereich TechExpert leitete und 2005 zum Stellvertretenden Chefredakteur befördert wurde. Als Chefredakteur von ZDNet.de ist er seit 2008 tätig.

Recent Posts

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

17 Stunden ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

19 Stunden ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

20 Stunden ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

23 Stunden ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

23 Stunden ago

Latrodectus: Gefährlicher Nachfolger von IcedID

Latrodectus, auch bekannt als BlackWidow, ist auch unter dem Namen LUNAR SPIDER bekannt.

24 Stunden ago