Die TU Darmstadt hat ein System der Reihe Nvidia DGX-2 für den Fachbereich Informatik in Betrieb genommen. Die Hochschule sieht darin einen KI-Supercomputer, mit dem sie ihre Spitzenforschung im maschinellen Lernen und in der künstlichen Intelligenz (KI) stärken will. Hersteller Nvidia bewirbt es als „das leistungsfähigste KI-System der Welt für die komplexesten KI-Herausforderungen“.
„Mit der Erweiterung unserer KI-Infrastruktur festigen wir die Führungsrolle der TU Darmstadt in der deutschen Grundlagenforschung zum maschinellen Lernen und der KI und schaffen eine einzigartige Infrastruktur für die Forschung zur systemischen KI“, lässt sich Kristian Kersting zitieren, Leiter des Fachgebiets Maschinelles Lernen und Initiator des KI-Verbundes „AI•DA“ der TU Darmstadt.
DGX-2 geht in seiner Leistung noch einmal deutlich über die Leistung von DGX-1 hinaus, das Nvidia schon zuvor als maßgeschneidertes System für KI-Aufgaben anbot. Es handelt sich um einen 2-Petaflops-GPU-Server, den der Hersteller als relativ kostengünstige Lösung für anspruchsvolle AI- und HPC-Aufgaben empfiehlt. DGX-1 steht mit 399.000 Dollar in der Preisliste, außerdem fallen jährliche Supportkosten an. Nvidia rechnet aber vor, die gleiche Leistung mit x86-Technologie erfordere 300 Dual-Sockel-Xeon-Server in 15 Racks – zu Kosten von rund 2,7 Millionen Dollar.
Zum Einsatz kommen hier 16 verbundene Grafikiprozessoren vom Typ Tesla V100, die auf Nvidias Grafikarchitektur Volta basieren und für Deep Learning und High Performance Computing ausgelegt sind. Die GPU-Architektur eignet sich sowohl für Computing als auch Grafik. Die leistungsfähigen GPUs sind mit der skalierbaren NVswitch-Technologie verbunden. Acht NVMe-SSDs steuern 30 TByte schnellen lokalen Speicher bei, dabei bleiben acht Erweiterungsplätze frei. Auf dem Mainboard sind zwei 24-Core-Prozessoren der Reihe Xeon Platinum platziert, begleitet von 1,5 TByte Arbeitsspeicher.
Die TU Darmstadt will mit DGX-2 ihren systemischen KI Ansatz fortsetzen, den sie damit begründet, dass die nächste Generation von KI-Programmen und Robotern sich selbständig auf neue Situationen und Aufgaben einstellen müssen: „Sie müssen gleichzeitig lernen, denken, sehen, planen und sprechen – also Menschen auch verstehen und sich auf sie einstellen können. Diese nächste KI-Generation erfasst das funktionierende Zusammenwirken einzelner KI-Bausteine in ihrer Gesamtheit mathematisch und algorithmisch. Logik, Wissen, Programmiersprachen, Methoden zum Denken, Planen und Handeln unter Unsicherheiten und das maschinelle Lernen verschmelzen.“ Der KI-Bereich der Hochschule arbeitet deshalb auch mit anderen Informatikdisziplinen und den Kognitionswissenschaften zusammen.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…
Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…