Das Angebot soll in der ersten Jahreshälfte 2025 verfügbar sein. Es zielt darauf ab, die Leistung und Energieeffizienz von Gen-AI-Modellen wie etwa im High Performance Computing (HPC) für Unternehmenskunden zu verbessern. Die Zusammenarbeit werde auch die Unterstützung von AMD Instinct MI300X Accelerators innerhalb der IBM watsonx AI- und Datenplattform sowie die Unterstützung von Red Hat Enterprise Linux AI-Inferenz ermöglichen, so IBM weiter.
„Da Unternehmen immer größere KI-Modelle und Datensätze implementieren, ist es von entscheidender Bedeutung, dass die Beschleuniger innerhalb des Systems rechenintensive Workloads mit hoher Leistung und Flexibilität zur Skalierung verarbeiten können“, so Philip Guido, Executive Vice President und Chief Commercial Officer von AMD. „Unsere Zusammenarbeit mit IBM Cloud wird darauf abzielen, Kunden die Ausführung und Skalierung von Gen AI Inferencing zu ermöglichen, ohne dass dies zu Lasten von Kosten, Leistung oder Effizienz geht.“
Large Model Inferencing
Ausgestattet mit 192 GB High Bandwidth Memory (HBM3) bieten AMD Instinct MI300X Accelerators- Unterstützung für Large Model Inferencing und Fine Tuning. Die große Speicherkapazität soll Kunden auch dabei helfen, größere Modelle mit weniger GPUs auszuführen, wodurch die Kosten für die Inferecing möglicherweise gesenkt werden, so IBM weiter. Zudem soll die Bereitstellung von AMD Instinct MI300X Accelerators als Service auf IBM Cloud Virtual Servers for VPC sowie die Unterstützung von Containern mit IBM Cloud Kubernetes Service und IBM Red Hat OpenShift on IBM Cloud können dazu beitragen, die Leistung unternehmensinterner KI-Anwendungen zu optimieren.
Für generative AI Inferencing Workloads plant IBM, die Unterstützung für AMD Instinct MI300X Accelerators in der watsonx AI und Datenplattform von IBM zu ermöglichen und watsonx Kunden zusätzliche KI-Infrastrukturressourcen für die Skalierung ihrer KI-Workloads in Hybrid-Cloud-Umgebungen bereitzustellen. Darüber hinaus können laut IBM auf den Red Hat Enterprise Linux AI und Red Hat OpenShift AI Plattformen Large Language Models (LLMs) der Granite-Familie mit Alignment-Tools unter Verwendung von InstructLab auf MI300X Accelerators ausgeführt werden.
Neueste Kommentare
Noch keine Kommentare zu Big Blue kündigt Zusammenarbeit mit AMD an
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.