Facebooks Forschungsabteilung für Künstliche Intelligenz (KI) hat sich in einem Blogbeitrag zu Plänen für ihre neue Hardwareplattform geäußert. Die beiden Hauptpunkte: Für die Weiterentwicklung wurde eine Kooperation mit dem GPU-Spezialisten Nvidia vereinbart, und das selbst konzipierte Design soll quelloffen gemacht werden.
Für Facebook schreiben die Entwickler Kevin Lee und Serkan Piantino, die von Grund auf selbst konzipierte KI-Hardware sei effizienter und auch flexibler als eine Standard-Lösung, da sie in Rechenzentren eingesetzt werden kann, die auf dem Open Compute Project basieren. „Während viele Hochleistungs-Computing-Systeme spezielle Kühlung und andere Infrastruktur für den Betrieb ermöglichen, haben wir diese neuen Server effizient hinsichtlich Wärmeentwicklung und Stromverbrauch gemacht, damit wir sie auch in unseren mit Außenluft gekühlten Rechenzentren nach Open-Compute-Standards einsetzen können.“
Durch Verwendung des Tesla M40 sei Big Sur zweimal so schnell wie Facebooks vorangegangene Generation, heißt es. Daher könnten zweimal so große Netze mit zweifacher Geschwindigkeit lernen.
Nvidia, das den Ausdruck Maschinelles Lernen gegenüber KI bevorzugt, betreibt seit einigen Jahren selbst Forschungen in diesem Segment. Es weist darauf hin, dass die Facebook-Lösung die erste für Maschinelles Lernen ausgerichtete Hardware-Plattform sein wird, wenn sie in näherer Zukunft beim Open Compute Project eingereicht wird.
Ende September konnte Facebook 1,55 Milliarden monatliche Nutzer melden. Je mehr seine Nutzerschaft anwächst, desto mehr Daten fallen an und desto mehr Einsichten kann es gewinnen. Selbstlernende Systeme sollen dazu einen wesentlichen Beitrag leisten. Die verdreifachten Investitionen bedeuten auch, dass mehr Abteilungen des Unternehmens solche Techniken einsetzen werden.
[mit Material von Rachel King, ZDNet.com]
Tipp: Sind Sie ein Facebook-Experte? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…
Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…