Auf der GPU Technology Conference hat Nvidia die GPU GV100 und die Beschleunigerkarte Tesla V100 angekündigt. Sie basieren auf der Volta-Architektur, die auf die im Frühjahr letzten Jahres eingeführte Architektur Pascal folgt. Wie damals stehen bei den ersten Volta-Produkten nicht GPUs für den Verbrauchermarkt im Vordergrund, sondern die Einsatzmöglichkeiten für Deep Learning, High Performance Computing (HPC) und Business. Die GPU-Architektur eignet sich sowohl für Computing als auch Grafik.
Das von Nvidia-CEO Jen-Hsun Huang präsentierte Flaggschiff Tesla V100 soll insbesondere Fortschritte für Deep Learning und künstliche Intelligenz bringen. Der Grafikbeschleuniger basiert auf der GPU GV100 und beeindruckt schon durch seine Größe. Der Grafikchip beansprucht eine Fläche von 815 Quadratmillimetern und ist damit der bislang größte aus einer Serienproduktion. Seine Herstellung übernimmt der taiwanische Auftragsfertiger TSMC im 12-Nanometer-FinFET-Verfahren.
Der Hersteller gibt eine maximale Boost-Taktrate von 1455 MHz und eine TDP von 300 Watt an. Die GPU bietet insgesamt 21,2 Milliarden Transistoren und stellt mehr als 5000 Shader-Einheiten bereit. Die 672 Tensor-Kerne sind für Deep Learning optimiert. Nvidia zufolge bieten diese neuen Kerne die vierfache Leistung im Vergleich zum Vorgänger Pascal. Damit könnte die Performance Googles Spezial-Chip Tensor Processing Unit (TPU) übertreffen, der seit 2015 in Googles Rechenzentren zur Beschleunigung von maschinellem Lernen zum Einsatz kommt.
„Tesla V100 wurde für die Konvergenz von HPC und AI entwickelt“, postuliert der Grafikspezialist in einem Blogeintrag zur Volta-Architektur. Es biete eine Plattform für HPC-Systeme, um sich sowohl bei rechnergestützten Wissenschaften als auch bei Data Science zu bewähren und damit neue Einsichten zu liefern.
„Künstliche Intelligenz treibt die größten technologischen Fortschritte in der menschlichen Geschichte voran“, sagte Nvidia-Chef Huang. Das werde Intelligenz automatisieren und eine Welle gesellschaftlichen Fortschritts beflügeln, wie sie seit der industriellen Revolution nicht mehr erlebt wurde. „Deep Learning als eine bahnrechene AI-Herangehensweise, die für lernende Computersoftware sorgt, hat einen unstillbaren Hunger nach Rechenleistung. Tausende von Nvidia-Entwicklern haben über drei Jahre an Volta gearbeitet und damit geholfen, dieser Erfordernis zu entsprechen – damit die Branche das lebensverändernde Potential der künstlichen Intelligenz ausschöpfen kann.“
Tesla V100 wird zuerst in Nvidias maßgeschneiderten Compute-Servern zum Einsatz kommen. Acht der Grafikbeschleuniger finden im DGX-1 Platz, der zum Preis von 150.000 Dollar im dritten Quartal zur Auslieferung kommt. Abgespeckte Versionen der V100 sind ebenfalls in Vorbereitung, darunter eine Karte, die mit 250 Watt TDP auskommt. Mit verringerter Taktrate und deaktivierten Rechenkernen ist außerdem eine 150-Watt-Variante zu erwarten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…
Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…