Amazons Cloudsparte entwickelt einen eigenen Spezial-Prozessor für maschinelles Lernen. Amazon Web Services (AWS) verspricht drastisch reduzierte Kosten für Anwendungen der künstlichen Intelligenz durch seinen maßgeschneiderten Chip AWS Inferentia, der gegen Ende 2019 zu erwarten ist. Wie bei anderen AWS-Diensten werden die Kunden entsprechend ihrer jeweiligen Nutzung bezahlen können.
AWS folgt mit Inferentia dem Vorbild Googles, das schon seit 2015 seine für künstliche Intelligenz optimierte Tensor Processing Unit (TPU) zur Beschleunigung von maschinellem Lernen einsetzt und im letzten Jahr bereits ihre zweite Generation als Cloud TPUs vorstellte. Auch die Cloudsparte des E-Commerce-Riesen Alibaba, laut Gartner der größte Anbieter von Public-Cloud-Diensten in China, hat einen eigenen KI-Chip angekündigt.
Während Googles TPU-Chips mit Nvidia beim Trainieren von Machine-Learning-Modellen konkurrieren, konzentriert sich AWS mit Inferentia auf Inferenz, also das Schlussfolgern neuer Aussagen aus einer Wissensbasis. Laut AWS können Kunden Inferentia mit der von Google geschaffenen KI-Software TensorFlow wie auch mit anderen KI-Frameworks nutzen. Der selbstentwickelte Chip für ML-Inferenzen liefert AWS zufolge Hunderte von Teraflops pro Chip und Tausende von Teraflops pro Amazon-EC2-Instanz.
Auf seiner Technologiekonferenz re:Invent 2018 in Las Vegas hat AWS außerdem 13 neue Machine-Learning-Dienste und -Funktionalitäten angekündigt. Das ab sofort verfügbare Amazon Elastic Inference soll Entwicklern helfen, die Kosten für Inferenz um bis 75 Prozent zu reduzieren im Vergleich zur Verwendung einer dedizierten GPU-Instanz. Ebenfalls sofort verfügbar ist ein AWS-optimiertes TensorFlow-Framework für schnellere ML-Trainings.
In der nächsten Woche werden neue GPU-Instanzen der Amazon Elastic Compute Cloud (EC2) verfügbar. AWS bezeichnet sie als die leistungsfähigsten in der Cloud verfügbaren Instanzen, mit denen Entwickler Modelle mit mehr Daten in kürzerer Zeit trainieren können.
Neue Funktionalitäten kommen für Amazon SageMaker, einer vollständig verwalteten Plattform für das Erstellen, Trainieren und Bereitstellen von Machine-Learning-Modellen. Amazon SageMaker Ground Truth soll das Labeling von ML-Trainingsdaten vereinfachen. Der AWS Marketplace for Machine Learning umfasst Algorithmen und Modelle, die auf SageMaker bereitgestellt und von Entwicklern verwendet werden können. Als erster Cloudservice für Reinforcement Learning (RL) kommt Amazon SageMaker RL. Mit Hilfe von SageMaker-trainierten RL-Modellen soll AWS DeepRacer fahren, ein autonomes Rennauto im Maßstab 1:18. Amazon SageMaker Neo ist ein neuer Compiler für Deep-Learning-Modelle, der Kunden nach einmaligem Training von Modellen eine Ausführung mit bis zu doppelter Leistungssteigerung erlauben soll.
Neue KI-Dienste sollen außerdem Intelligenz in Apps bringen, ohne Erfahrungen in maschinellem Lernen vorauszusetzen. Amazon Textract liest gescannte Dokumente, um Text und Daten zu extrahieren. Amazon Comprehend Medical erkennt die Inhalte medizinischer Texte mit Natural Language Processing (NLP). Amazon Personalize generiert in Echtzeit personalisierte Empfehlungen und Suchergebnisse.
Transferstelle Cybersicherheit im Mittelstand hat Tool entwickelt, das Unternehmen hilft, einen Vorfall einzuschätzen und in…
Im Jahr 2024 wurden in Deutschland durchschnittlich vier Nutzerkonten von Onlinediensten pro Sekunde kompromittiert.
Die Änderung betrifft Windows 10 und Windows 11. Künftig verzichtet Windows somit auf die lokale…
Es geht um eine Mehrheitsbeteiligung. TSMC soll jedoch den Betrieb der Chip-Produktion von Intel vollständig…
Der Bedeutung von Passwörtern wird selten Aufmerksamkeit gewidmet, bevor es zu einem Bruch der Datensicherheit…
BSI-Abschlussbericht belegt erhebliche Schwachstellen in der Datensicherheit und im Schutz der übermittelten Gesundheitsinformationen von Wearables.