Categories: KI

Big Blue kündigt Zusammenarbeit mit AMD an

Das Angebot soll in der ersten Jahreshälfte 2025 verfügbar sein. Es zielt darauf ab, die Leistung und Energieeffizienz von Gen-AI-Modellen wie etwa im High Performance Computing (HPC) für Unternehmenskunden zu verbessern. Die Zusammenarbeit werde auch die Unterstützung von AMD Instinct MI300X Accelerators innerhalb der IBM watsonx AI- und Datenplattform sowie die Unterstützung von Red Hat Enterprise Linux AI-Inferenz ermöglichen, so IBM weiter.

„Da Unternehmen immer größere KI-Modelle und Datensätze implementieren, ist es von entscheidender Bedeutung, dass die Beschleuniger innerhalb des Systems rechenintensive Workloads mit hoher Leistung und Flexibilität zur Skalierung verarbeiten können“, so Philip Guido, Executive Vice President und Chief Commercial Officer von AMD. „Unsere Zusammenarbeit mit IBM Cloud wird darauf abzielen, Kunden die Ausführung und Skalierung von Gen AI Inferencing zu ermöglichen, ohne dass dies zu Lasten von Kosten, Leistung oder Effizienz geht.“

Large Model Inferencing

Ausgestattet mit 192 GB High Bandwidth Memory (HBM3) bieten AMD Instinct MI300X Accelerators- Unterstützung für Large Model Inferencing und Fine Tuning. Die große Speicherkapazität soll Kunden auch dabei helfen, größere Modelle mit weniger GPUs auszuführen, wodurch die Kosten für die Inferecing möglicherweise gesenkt werden, so IBM weiter. Zudem soll die Bereitstellung von AMD Instinct MI300X Accelerators als Service auf IBM Cloud Virtual Servers for VPC sowie die Unterstützung von Containern mit IBM Cloud Kubernetes Service und IBM Red Hat OpenShift on IBM Cloud können dazu beitragen, die Leistung unternehmensinterner KI-Anwendungen zu optimieren.

Für generative AI Inferencing Workloads plant IBM, die Unterstützung für AMD Instinct MI300X Accelerators in der watsonx AI und Datenplattform von IBM zu ermöglichen und watsonx Kunden zusätzliche KI-Infrastrukturressourcen für die Skalierung ihrer KI-Workloads in Hybrid-Cloud-Umgebungen bereitzustellen. Darüber hinaus können laut IBM auf den Red Hat Enterprise Linux AI und Red Hat OpenShift AI Plattformen Large Language Models (LLMs) der Granite-Familie mit Alignment-Tools unter Verwendung von InstructLab auf MI300X Accelerators ausgeführt werden.

Manuel

Recent Posts

Jeder zweite vereinbart Arzttermine online

Ein Viertel der Deutschen wählt Arztpraxen sogar ganz gezielt danach aus, ob sie Internettermine anbieten.

1 Tag ago

Siemens spendiert neuen Rechnern NVIDIA-Chips

Der Technologiekonzern hat Industrie-PCs angekündigt, die mit Grafikprozessoren von NVIDIA ausgestattet sein werden.

1 Tag ago

Bundesbürger misstrauen KI-generierten Ergebnissen

ChatGPT, Google Gemini, MidJourney oder Anthropic Claude: Gut jeder zweite Bundesbürger hat generative KI bereits…

2 Tagen ago

Typische Fehler beim KI-Einsatz im Marketing

KI gehört schon zu den festen Instrumenten des Marketings. Doch viele Unternehmer setzen die KI…

2 Tagen ago

Starbucks von Cyberattacke betroffen

Ransomware-Angriff auf die KI-gesteuerte Lieferkettenplattform Blue Yonder hat weitreichende Auswirkungen.

3 Tagen ago

Was kann die Apple Watch Series 10?

Seit Ende September ist sie also verfügbar: die Apple Watch 10. Auch in Deutschland kann…

3 Tagen ago