Das Angebot soll in der ersten Jahreshälfte 2025 verfügbar sein. Es zielt darauf ab, die Leistung und Energieeffizienz von Gen-AI-Modellen wie etwa im High Performance Computing (HPC) für Unternehmenskunden zu verbessern. Die Zusammenarbeit werde auch die Unterstützung von AMD Instinct MI300X Accelerators innerhalb der IBM watsonx AI- und Datenplattform sowie die Unterstützung von Red Hat Enterprise Linux AI-Inferenz ermöglichen, so IBM weiter.
„Da Unternehmen immer größere KI-Modelle und Datensätze implementieren, ist es von entscheidender Bedeutung, dass die Beschleuniger innerhalb des Systems rechenintensive Workloads mit hoher Leistung und Flexibilität zur Skalierung verarbeiten können“, so Philip Guido, Executive Vice President und Chief Commercial Officer von AMD. „Unsere Zusammenarbeit mit IBM Cloud wird darauf abzielen, Kunden die Ausführung und Skalierung von Gen AI Inferencing zu ermöglichen, ohne dass dies zu Lasten von Kosten, Leistung oder Effizienz geht.“
Ausgestattet mit 192 GB High Bandwidth Memory (HBM3) bieten AMD Instinct MI300X Accelerators- Unterstützung für Large Model Inferencing und Fine Tuning. Die große Speicherkapazität soll Kunden auch dabei helfen, größere Modelle mit weniger GPUs auszuführen, wodurch die Kosten für die Inferecing möglicherweise gesenkt werden, so IBM weiter. Zudem soll die Bereitstellung von AMD Instinct MI300X Accelerators als Service auf IBM Cloud Virtual Servers for VPC sowie die Unterstützung von Containern mit IBM Cloud Kubernetes Service und IBM Red Hat OpenShift on IBM Cloud können dazu beitragen, die Leistung unternehmensinterner KI-Anwendungen zu optimieren.
Für generative AI Inferencing Workloads plant IBM, die Unterstützung für AMD Instinct MI300X Accelerators in der watsonx AI und Datenplattform von IBM zu ermöglichen und watsonx Kunden zusätzliche KI-Infrastrukturressourcen für die Skalierung ihrer KI-Workloads in Hybrid-Cloud-Umgebungen bereitzustellen. Darüber hinaus können laut IBM auf den Red Hat Enterprise Linux AI und Red Hat OpenShift AI Plattformen Large Language Models (LLMs) der Granite-Familie mit Alignment-Tools unter Verwendung von InstructLab auf MI300X Accelerators ausgeführt werden.
Ein Viertel der Deutschen wählt Arztpraxen sogar ganz gezielt danach aus, ob sie Internettermine anbieten.
Der Technologiekonzern hat Industrie-PCs angekündigt, die mit Grafikprozessoren von NVIDIA ausgestattet sein werden.
ChatGPT, Google Gemini, MidJourney oder Anthropic Claude: Gut jeder zweite Bundesbürger hat generative KI bereits…
KI gehört schon zu den festen Instrumenten des Marketings. Doch viele Unternehmer setzen die KI…
Ransomware-Angriff auf die KI-gesteuerte Lieferkettenplattform Blue Yonder hat weitreichende Auswirkungen.
Seit Ende September ist sie also verfügbar: die Apple Watch 10. Auch in Deutschland kann…