Die neue Infrastruktur bietet DeepL die zusätzliche Rechenleistung, die zum Trainieren neuer Modelle und für die Entwicklung innovativer Funktionen und Produkte benötigt wird. Dadurch möchte das Unternehmen seine KI‑Sprachtechnologie-Plattform weiter ausbauen.
Die flüssigkeitsgekühlte Rack-Infrastruktur der NVIDIA DGX GB200-Systeme lässt sich auf Zehntausende von Grafikprozessoren skalieren und enthält NVIDIA GB200-Grace Blackwell-Superchips, mit denen DeepL die KI‑Hochleistungsmodelle ausführen kann, die für seine generativen KI‑Anwendungen erforderlich sind. Diese Cluster der nächsten Generation wurden speziell entwickelt, um Höchstleistung und konstante Verfügbarkeit für das Training und die Inferenz von generativen KI‑Modellen in großem Maßstab zu gewährleisten.
DeepL Mercury
Erst vor einem Jahr wurde DeepL Mercury, ein TOP500-Supercomputer vom Typ NVIDIA DGX SuperPOD mit DGX H100-Systemen, in Schweden in Betrieb genommen. Die neueste NVIDIA-Infrastruktur bietet noch mehr Rechenleistung und wird im gleichen schwedischen Rechenzentrum untergebracht.
„Kunden, die KI‑Sprachanwendungen nutzen, erwarten nahezu sofortige Ergebnisse. Daher ist eine effiziente und leistungsstarke KI‑Infrastruktur für die Entwicklung und Bereitstellung von KI in der Produktion entscheidend“, so Charlie Boyle, Vice President der DGX-Plattform bei NVIDIA. „Durch den Einsatz des neuesten NVIDIA DGX SuperPOD wird DeepL seine Forschung und Entwicklung im Bereich KI‑Sprachtechnologie beschleunigen.“
Neueste Kommentare
Noch keine Kommentare zu DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.