Nvidia-CEO Jensen Huang hat bei seiner Keynote zur virtuellen Ausgabe der hauseigenen Technologiekonferenz GTC mehrere neue Produkte des Unternehmens vorgestellt. Darunter ist die neue auf Rechenzentren ausgerichtete GPU A100, die auf der neuen Ampere-Architektur basiert.
Nach Angaben des Unternehmens stellt Ampere die bisher größte Weiterentwicklung gegenüber einer Vorgeneration dar. Die für High Performance Computing optimierte Multi-Instanz-GPU soll 20 mal mehr Leistung bieten als ihr Vorgänger Volta. Ermöglicht wird dies unter anderem durch 54 Milliarden Transistoren, die die GPU zum weltweit größten 7-Nanometer-Prozessor machen sollen.
Die neue dritte Generation der Tensor-Kerne unterstützt zudem ein neue Mathematik-Format, das AI-Trainings mit einfacher Präzision beschleunigen soll. Zudem sollen die neuen Tensor-Kerne Huang zufolge flexibler, schneller und einfacher zu nutzen sein.
Neu ist auch eine Multi-Instance GPU genannte Funktion, die es erlaubt, eine einzelne A100-GPU in bis zu sieben unabhängige GPUs aufzuteilen – jede mit eigenen Ressourcen. Die dritte Generation der NVLink-Technologie soll zudem die Geschwindigkeit der Verbindungen zwischen GPUs verdoppeln, was es A100-Servern wiederum erlauben soll, als eine riesige GPU zu agieren.
Basierende auf der A100-GPU bietet Nvidia auch eine neue Generation des AI-Systems Nvidia DGX an. Das Nvidia DGX A100 genannte System soll wiederum der erste 5-Petaflops-Server sein. Jeder DGX A100 wiederum lässt sich laut Huang auf bis zu 56 Applikationen aufteilen, die alle unabhängig voneinander ausgeführt werden.
Erste Abnehmer des DGX A100 sind das Argonne National Laboratory des US-Energieministeriums. Es setze die AI- und Rechenleistung des Systems unter anderem für die Erforschung von COVID-19 ein. Weitere Kunden seien die University of Florida und das Deutsche Forschungszentrum für Künstliche Intelligenz.
Huang betonte bei seiner Keynote auch Kostenvorteile durch die hohe Leistungsfähigkeit des neues Systems. So soll ein Rechenzentrum mit fünf DGX A100 für AI-Training nur 28 Kilowatt Strom benötigen und eine Million Dollar kosten und dieselbe Leistung bieten wie eine Rechenzentrum mit 40 DGX-1-Systemen von Nvidia sowie 600 CPU-Systemen, die zusammen 11 Millionen Dollar kosten und 630 Kilowatt benötigen. „Je mehr Sie kaufen, je mehr sparen Sie“, kommentierte Huang.
Die A100-GPU soll aber auch im Bereich Cloud-Computing zum Einsatz kommen. Huang erklärte, dass unterem Amazon Web Services, Alibaba, Baidu, Cisco, Dell, Google, HPE, Microsoft und Oracle die GPUs in ihre Rechenzentrums-Architektur integrieren.
Darüber hinaus stellte Huang auch ein Merlin genanntes Software Development Kit vor, mit dem sich AI-basierte Empfehlungssysteme entwickeln lassen. Merlin soll die Zeit, die für eine Empfehlungssystem aus 100 Terabyte Daten benötigt werden von vier Tagen auf 20 Minuten reduzieren.
In diesem Webinar stellen wir Ihnen SkySQL vor, erläutern die Architektur und gehen auf die Unterschiede zu anderen Systemen wie Amazon RDS ein. Darüber hinaus erhalten Sie einen Einblick in die Produkt-Roadmap, eine Live-Demo und erfahren, wie Sie SkySQL innerhalb von nur wenigen Minuten in Betrieb nehmen können.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…