Categories: CloudRechenzentrum

Nvidia stellt GPU-Beschleuniger für maschinelles Lernen vor

Nvidia hat eine Hyperscale-Beschleuniger-Reihe angekündigt, die maschinelles Lernen und die Entwicklung Künstlicher Intelligenz (KI) in Rechenzentren vorantreiben soll. Sie umfasst zwei Modelle: Die leistungsstarke GPU-Beschleuniger-Karte Tesla M40 ist zum Trainieren von Deep-Neuralnetzen konzipiert. Die eher auf niedrigen Stromverbrauch ausgelegte Tesla M4 ist hingegen für den Aufbau solcher Netzwerke im Rechenzentrum gedacht. Als Ergänzung für die Hardware bietet Nvidia auch eine Suite GPU-beschleunigter Bibliotheken an.

Nvidia-CEO Jen-Hsun Huang bei der Vorstellung der GPU-Beschleuniger für maschinelles Lernen (Bild: James Martin/ CNET).„Das KI-Rennen hat begonnen“, sagte Nvidia-CEO Jen-Hsun Huang bei der Vorstellung der neuen Produkte. „Maschinelles Lernen ist ohne Frage eine der wichtigsten Entwicklungen im Computing-Bereich insgesamt, bei PCs, dem Internet und bei Cloud Computing.“ Zugleich bezeichnete er maschinelles Lernen als „die große Rechenherausforderung unserer Generation“. „Wir haben die Tesla-Hyperscale-Beschleuniger-Serie geschaffen, um maschinelles Lernen um den Faktor 10 zu beschleunigen. Die Zeit- und Kosteneinsparungen in Rechenzentren werden signifikant sein.“

Die neue Hard- und Software wurde Nvida zufolge dafür entworfen, die zunehmende Zahl an Webanwendungen zu beschleunigen, die KI-Funktionalitäten integrieren. Diese setzten maschinelles Lernen beispielsweise dazu ein, Sprach- und Gesichtserkennung zu verbessern sowie Objekte und Szenen in Videos oder Fotos automatisch zu identifizieren, um sie für spätere Suchanfragen mittels Tags zu kennzeichnen. Auf maschinellem Lernen und KI aufbauende Dienste können zudem den individuellen Geschmack und die Interessen des Nutzers berücksichtigen, Terminpläne organisieren oder relevante Nachrichten bereitstellen.

Durch solche Services steigen die Arbeitslasten in Rechenzentren deutlich an. Um Deep-Neuralnetze zu trainieren und Neuerungen in sie einzupflegen, während zugleich Milliarden Nutzeranfragen möglichst verzögerungsfrei zu beantworten sind, wird eine sehr hohe Rechenleistung benötigt. Für diese Anforderungen sind Nvidias neue Beschleunigerkarten gedacht.

Die Tesla M40 ist zum Trainieren von Deep-Neuralnetzen konzipiert (Bild: Nvidia).Für den auf 24/7-Betrieb ausgelegten GPU-Beschleuniger Tesla M40 verspricht der Hersteller reduzierte Trainingszeiten um den Faktor 8 im Vergleich zu CPUs. Ein typisches Training des bekannten Neuralnetzwerkmodells AlexNet soll beispielsweise nur noch 1,2 statt 10 Tage dauern. Zudem soll Unterstützung für GPUDirect schnelles Multi-node-Training von neuronalen Netzen erlauben.

Der für Hyperscale-Umgebungen konzipierte Tesla M4 im Low-Profile-PCIe-Design eignet sich Nvidia zufolge nicht nur für maschinellem Lernen, etwa um Schlussfolgerungen zu beschleunigen, sondern auch für Videotranskodierung sowie Bild- und Videoverarbeitung. Gegenüber einer CPU soll er bis zu fünf zusätzliche Videostreams gleichzeitig transkodieren, analysieren und optimieren können. Zugleich bietet er bei diesen Aufgaben mit einer Leistungsaufnahme zwischen 50 und 75 Watt laut Hersteller eine zehnmal bessere Energieeffizienz.

Die ergänzende Hyperscale-Software-Suite umfasst Werkzeuge für Entwickler und Rechenzentrumsmanager. Ein Bestandteil ist der Algorithmus cuDNN zur Verarbeitung von Deep-Faltungs-Neuralnetzen, die für KI-Anwendungen eingesetzt werden. Zur GPU-Beschleunigung von Videotranskodierung und -verarbeitung ist Multimediasoftware FFmpeg enthalten. Nvidia GPU REST Engine erleichtert das Erstellen und Einrichten von Internetdiensten mit hohen Datendurchsätzen und niedrigen Latenzen. Es erlaubt etwa dynamische Größenanpassungen von Bildern, Beschleunigung von Sucheingaben und Bildklassifizierungen.

Nvidias Supercomputing-Modul Jetson TX1 (Bild: Nvidia)Die Tesla-M40-GPU sowie die Hyperscale Suite sollen noch dieses Jahr verfügbar werden. Der Start des Modells Tesla M4 ist für das erste Quartal 2016 geplant.

Ergänzend hat Nvidia auch noch ein kreditkartengroßes Supercomputing-Modul namens Jetson TX1 vorgestellt, das bei einem Verbrauch von unter 10 Watt eine Teraflops-Leistung liefern soll. Es ist beispielsweise für den Einsatz in intelligenten Überwachungsdrohnen gedacht. Ein Entwicklerkit für Jetson wird sich in den USA ab Mittwoch, den 12. November, für 599 Euro bestellen lassen. Die Auslieferung erfolgt ab 16. November. In den nächsten Wochen soll es auch in anderen Ländern verfügbar werden. Eine Endnutzerversion des Moduls will Nvidia Anfang 2016 weltweit auf den Markt bringen. Sie wird bei einer Abnahmemenge von mindestens 1000 Stück 299 Dollar kosten.

[mit Material von Rachel King, ZDNet.com]

ZDNet.de Redaktion

Recent Posts

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

13 Stunden ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

17 Stunden ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

18 Stunden ago

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

18 Stunden ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

18 Stunden ago

Netzwerk-Portfolio für das KI-Zeitalter

Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…

20 Stunden ago