Nvidia hat neue Tesla-GPUs auf Basis der Architektur Pascal offiziell angekündigt. Die diesjährige Generation mit Tesla P4 und P40 ist nach seinen Angaben viermal schneller als der Vorgänger. Insbesondere der ab Oktober verfügbare Chip Tesla P40 eignet sich für neuronale Netze, die ähnlich wie das menschliche Gehirn aufgebaut sind. Der besonders sparsame P4 soll im November folgen.
Die Steigerung der Leistung um Faktor vier bezieht sich auf Nvidias letztjährige Tesla-Modelle M4 und M40. Im Vergleich zu einem Intel Xeon E5-2690v4 verspricht der Hersteller 45-mal höhere Reaktionszeit. Dies bezieht sich allerdings auf 8-Bit-Operationen (INT8). Die Leistungsaufnahme spezifiziert Nvidia mit 250 Watt.
Nvidias Datenblatt (PDF) zufolge bringt die GPU Tesla P40 12 Teraflops Leistung bei Gleitkommaberechnungen mit einfacher Genauigkeit und schafft 47 Billionen Int8-Operationen pro Sekunde. Dies ermöglichen integrierte 24 GByte DDR5-Speicher mit einer Bandbreite von 246 GBit/s und 3840 CUDA-Cores.
Nvidia P4 (PDF) kommt auf 5,5 Teraflops bei Fließkommaberechnungen und 22 Billionen Int-8-Operationen pro Sekunde. In ihr stecken 2560 CUDA-Cores und 8 GByte DDR5-Speicher mit nur 192 GBit/s Bandbreite. Die Leistungsaufnahme beginnt bei 50 Watt. Im Vergleich zum Intel Xeon E5-2690v4 verspricht Nvidia 40-mal bessere Energieeffizienz. Ein einzelner Server mit einer P4-GPU könne bei Videoberechnungen 13 Server nur mit CPU ersetzen, schreibt Nvidia. Die Cost of Ownership betrage nur ein Achtel, wenn man Anschaffung und Strom berücksichtige.
Mehr Sicherheit im smarten Zuhause
Wie Sie Ihr persönliches Internet der Dinge vor versteckten Gefahren schützen
Parallel hat Nvidia seine Library TensorRT auf Version 2 aktualisiert und ein Deepstream SDK verfügbar gemacht. TensorRT kann für 16 oder 32 Bit kompilierten Code für trainierte neuronale Netze für 8 Bit optimieren. Deepstream ist darauf ausgelegt, bis zu 93 HD-Video-Streams simultan in Echtzeit auszuwerten. Nvidia sagt über Deepstream, es löse „eines der großen Probleme Künstlicher Intelligenz: Video-Inhalte im großen Maßstab zu deuten, für Anwendungen wie vernetzte Autos, interaktive Roboter, Filter und Anzeigenplatzierung.“
Die Pascal-Architektur hatte Nvidia im Frühjahr eingeführt. Die im April vorgestellte GPU GP100 ist Grundlage des Chips Tesla P100. Als Speicher kommt beim Tesla P100 die zweite Generation von High Bandwidth Memory (HBM 2) zum Einsatz, die gegenüber dem Vorgänger HBM 1 und herkömmlichem GDDR-RAM wesentlich höhere Transfergeschwindigkeiten und mehr Speicher pro GPU ermöglicht.
Eine Neuerung der Pascal-Architektur ist auch das in Zusammenarbeit mit IBM entwickelte NVLink. Es ermöglicht den Datenaustausch zwischen CPU und GPU sowie zwischen mehreren Grafikprozessoren mit bis zu 80 GByte/s in jede Richtung. Das bisher verwendete PCI Express schafft lediglich 16 GByte/s.
Parallel hat Nvidia auch seine Chip-Plattform für In-Car-Systeme aktualisiert. Drive PX 2 soll etwa in dem selbstlenkenden Fahrzeug zum Einsatz kommen, das das chinesische Unternehmen Baidu entwickelt. Laut NVidia ermöglicht die Lösung automatisches Fahren auf mehrspurigen Autobahnen und Highways sowie HD-Kartendienste. Für Selbstlenktechnik kann sie Daten von Kameras, Radarsystemen, laserbasierter Sensoren (Lidar) und Ultraschallsensoren auswerten.
[mit Material von Chris Duckett, ZDNet.com]
Tipp: Wie gut kennen Sie die Chefs der IT-Firmen? Testen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Neueste Kommentare
Noch keine Kommentare zu Nvidia macht neue Pascal-GPUs für neuronale Netze verfügbar
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.