Amazons Cloudsparte entwickelt einen eigenen Spezial-Prozessor für maschinelles Lernen. Amazon Web Services (AWS) verspricht drastisch reduzierte Kosten für Anwendungen der künstlichen Intelligenz durch seinen maßgeschneiderten Chip AWS Inferentia, der gegen Ende 2019 zu erwarten ist. Wie bei anderen AWS-Diensten werden die Kunden entsprechend ihrer jeweiligen Nutzung bezahlen können.
AWS folgt mit Inferentia dem Vorbild Googles, das schon seit 2015 seine für künstliche Intelligenz optimierte Tensor Processing Unit (TPU) zur Beschleunigung von maschinellem Lernen einsetzt und im letzten Jahr bereits ihre zweite Generation als Cloud TPUs vorstellte. Auch die Cloudsparte des E-Commerce-Riesen Alibaba, laut Gartner der größte Anbieter von Public-Cloud-Diensten in China, hat einen eigenen KI-Chip angekündigt.
Während Googles TPU-Chips mit Nvidia beim Trainieren von Machine-Learning-Modellen konkurrieren, konzentriert sich AWS mit Inferentia auf Inferenz, also das Schlussfolgern neuer Aussagen aus einer Wissensbasis. Laut AWS können Kunden Inferentia mit der von Google geschaffenen KI-Software TensorFlow wie auch mit anderen KI-Frameworks nutzen. Der selbstentwickelte Chip für ML-Inferenzen liefert AWS zufolge Hunderte von Teraflops pro Chip und Tausende von Teraflops pro Amazon-EC2-Instanz.
Auf seiner Technologiekonferenz re:Invent 2018 in Las Vegas hat AWS außerdem 13 neue Machine-Learning-Dienste und -Funktionalitäten angekündigt. Das ab sofort verfügbare Amazon Elastic Inference soll Entwicklern helfen, die Kosten für Inferenz um bis 75 Prozent zu reduzieren im Vergleich zur Verwendung einer dedizierten GPU-Instanz. Ebenfalls sofort verfügbar ist ein AWS-optimiertes TensorFlow-Framework für schnellere ML-Trainings.
In der nächsten Woche werden neue GPU-Instanzen der Amazon Elastic Compute Cloud (EC2) verfügbar. AWS bezeichnet sie als die leistungsfähigsten in der Cloud verfügbaren Instanzen, mit denen Entwickler Modelle mit mehr Daten in kürzerer Zeit trainieren können.
Neue Funktionalitäten kommen für Amazon SageMaker, einer vollständig verwalteten Plattform für das Erstellen, Trainieren und Bereitstellen von Machine-Learning-Modellen. Amazon SageMaker Ground Truth soll das Labeling von ML-Trainingsdaten vereinfachen. Der AWS Marketplace for Machine Learning umfasst Algorithmen und Modelle, die auf SageMaker bereitgestellt und von Entwicklern verwendet werden können. Als erster Cloudservice für Reinforcement Learning (RL) kommt Amazon SageMaker RL. Mit Hilfe von SageMaker-trainierten RL-Modellen soll AWS DeepRacer fahren, ein autonomes Rennauto im Maßstab 1:18. Amazon SageMaker Neo ist ein neuer Compiler für Deep-Learning-Modelle, der Kunden nach einmaligem Training von Modellen eine Ausführung mit bis zu doppelter Leistungssteigerung erlauben soll.
Neue KI-Dienste sollen außerdem Intelligenz in Apps bringen, ohne Erfahrungen in maschinellem Lernen vorauszusetzen. Amazon Textract liest gescannte Dokumente, um Text und Daten zu extrahieren. Amazon Comprehend Medical erkennt die Inhalte medizinischer Texte mit Natural Language Processing (NLP). Amazon Personalize generiert in Echtzeit personalisierte Empfehlungen und Suchergebnisse.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…
Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…