Nvidia hat auf seiner Entwicklerkonferenz GTC 2024 eine neue Generation seiner GPU-basierten Beschleuniger-Chips für KI-Anwendungen vorgestellt. Der neue Chip B200 (Blackwell) hat mehr als doppelt so viele Transistoren wie sein Vorgänger H100 (Hopper).
„Hopper ist fantastisch, aber wir brauchen größere GPUs“, sagte Chief Executive Jensen Huang während seiner Keynote. Der B200 bietet eine Leistung von bis zu 20 Petaflops – der H100 bringt es auf 4 Petaflops. Das Leistungsplus soll es Unternehmen ermöglichen, größere und komplexere KI-Modelle zu entwickeln. Zudem enthält der neue Chip eine Transformer-Engine, die speziell für die Ausführung von Transformer-basierten KI-Modellen wie ChatGPT entwickelt wurde.
Laut Nvidia planen Cloud-Anbieter wie Amazon, Google, Microsoft und Oracle den Einsatz des GB200 Grace Blackwell Superchip, der zwei B200-GPUs zusammen mit einer ARM-basierten Grace-CPU enthält.
Amazon Web Services soll den Bau einer Server-Clusters mit 20.000 GB200-Chips in Angriff nehmen. Das System soll ein Modell mit 27 Billionen Parametern betreiben können. Modelle wie OpenAIs GPT-4 haben rund 1,7 Billionen Parameter.
Nvidia kündigte außerdem den Ausbau seines Softwaregeschäfts an. Ein neues Angebot namens NIM Inference Microservices soll Cloud-native Microservices für mehr als zwei Dutzend populäre Basismodelle bieten, einschließlich von Nvidia entwickelter Modelle. NIM ist so konzipiert, dass Benutzer KI-Modelle auf einer Reihe von Nvidia-Hardware betreiben können, die sie entweder lokal oder in der Cloud besitzen, und nicht auf die Anmietung von Kapazitäten bei einem dritten Cloud-Anbieter beschränkt sind.
Neueste Kommentare
Noch keine Kommentare zu Nvidia stellt neue Generation seiner KI-Beschleunigerchips vor
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.