Facebook macht Code für schnelleres Maschinelles Lernen quelloffen

Facebook hat ergänzenden Quellcode für ein Projekt zu Künstlicher Intelligenz namens Torch angekündigt. Es macht mehrere Module und Programme etwa zu Verarbeitung natürlicher Sprache und Spracherkennung verfügbar. Als besonders wichtig beschreibt es einen Code, der schnelleres Lernen durch Convolutional Neural Networks (ConvNets) ermöglicht.

Solche ConvNets bilden biologische Prozesse künstlich durch eine überlappende Anordnung von Neuronen nach. Sie gelten als derzeit beste Methode für Objekt- und Gesichtserkennung, wenn der Code – wie bei Facebook der Fall – auf Grafikprozessoren zurückgreifen kann. Facebook nutzt dafür Nvidias CUDA. Zu seinen Quelltexten zählen auch Container, die parallelen Zugriff auf mehrere CPUs und somit auch paralleles Training ermöglichen.

„Weil verkürzte Trainingszeit dieser Modelle schnellere Forschung und Entwicklung bedeutet, haben wir beträchtlichen Aufwand in die Verbesserung von GPU-Convolution-Schichten gesteckt“, heißt es in Facebooks Ankündigung. „Diese Arbeit hat sich in bemerkenswerten Ergebnissen niedergeschlagen, nämlich einer Beschleunigung um Faktor 23,5 gegenüber dem schnellsten frei verfügbaren Code. Soweit uns bekannt, ist unser Code schneller als jeder öffentlich verfügbare Code fürs Training beliebter Architekturen, etwa typische tiefe ConvNets für Objekterkennung mit ImageNet-Datensätzen.“

Facebooks Ankündigung enthält weiterführende Hinweise zu vielen Details der Techniken. Offenkundig ist, dass nun auch andere Firmen seine schnellen Verfahren für Maschinelles Lernen nutzen können. Torch kommt etwa auch bei AMD, Google, Intel, Nvidia und Twitter zum Einsatz.

Offenlegung von Quelltexten eigener Software ist bei Facebook nicht ungewöhnlich. Im Dezember 2013 hatte es angekündigt, sein Engagement in diesem Feld noch systematisch auszubauen. Auch das Design seiner Server, Racks und anderer Rechenzentrumsausstattung ist Open Source.

Facebooks Forschung zur Künstlicher Intelligenz wird von Professor Yann LeCun von der New York University geleitet – einem weltweit anerkannten Fachmann auf diesem Gebiet. Seine AI Group verteilt sich auf drei Orte: die Zentrale im kalifornischen Menlo Park, eine Niederlassung in der Nähe des Instituts von LeCun in New York City und eine in der englischen Hauptstadt London.

Auch Google hat 2014 ein Labor für Künstliche Intelligenz eröffnet, das offiziell Quantum Artificial Intelligence Lab heißt. Es beschäftigt sich vor allem mit der Frage, ob ein Quantencomputer Probleme lösen können wird, an denen traditionelle Computer scheitern. Google hat auch den Technikpionier und Futuristen Ray Kurzweil eingestellt, der sich als Director of Engineering mit Maschinenlernen und Sprachverarbeitung beschäftigt.

[mit Material von Larry Dignan, ZDNet.com]

Tipp: Sind Sie ein Facebook-Experte? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.

Florian Kalenda

Seit dem Palm Vx mit Klapp-Tastatur war Florian mit keinem elektronischen Gerät mehr vollkommen zufrieden. Er nutzt derzeit privat Android, Blackberry, iOS, Ubuntu und Windows 7. Die Themen Internetpolitik und China interessieren ihn besonders.

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

8 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

1 Tag ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

1 Tag ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

1 Tag ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

1 Tag ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

1 Tag ago