Google hat Version 0.8 seines Machine-Learning-Systems TensorFlow verfügbar gemacht. Die Trainingssoftware für Maschinenlernen kann ab sofort parallel auf „hunderten Maschinen“ eingesetzt werden, wodurch sich die benötigte Rechenzeit im Idealfall von Wochen auf Stunden verringern soll. Außerdem können Entwickler das jüngste Release erstmals auch auf eigener Hardware laufen lassen.
Obwohl erst seit November 2015 unter der Apache-2.0-Lizenz quelloffen verfügbar, ist TensorFlow im Bereich Maschinenlernen bereits die am häufigsten heruntergeladene Software bei GitHub und das Projekt mit den meisten Forks im vergangenen Jahr. Die Resonanz der Entwickler-Community ist also hervorragend, weshalb es nicht überrascht, dass Google Schritte unternimmt, um noch mehr in die Breite gehen zu können.
Die neuen HPE-Server der Generation 10 bieten einen erweiterten Schutz vor Cyberangriffen. Erfahren Sie in unserem Webinar, warum HPE-Server die sichersten Industrie-Standard-Server der Welt sind und wie Sie ihr Unternehmen zu mehr Agilität verhelfen. Jetzt registrieren und Aufzeichnung ansehen.
Erst im Februar hatte der Internetkonzern ebenfalls auf GitHub mit TensorFlow Serving ein Open-Source-Projekt gestartet, das es Entwicklern erleichtern soll, Maschinenlernen in ihre Anwendungen zu integrieren. Die Software unter der Apache-2.0-Lizenz ist in C++ geschrieben. Auf einem Server mit 16-Kern-Xeon-Prozessor lassen sich laut Google damit pro Sekunde 100.000 Queries abarbeiten. TensorFlow Serving soll es Entwicklern ermöglichen, die mit TensorFlow erstellten Modelle in der Praxis anwendbar zu machen und anzupassen. Dazu finden sich ebenfalls auf GitHub Tutorials. TensorFlow Serving wird sich Google zufolge künftig auch auf andere Bibliotheken für Maschinenlernen anpassen lassen und die Möglichkeit bieten, mehrere Algorithmen und Datenmodelle auszuprobieren, ohne die einmal bewährte Architektur und funktionierenden APIs zu verändern.
Zu interessanten Projekten, für die bereits auf TensorFlow zurückgegriffen wurde, gehört etwa eine Software, die Kindern dabei helfen soll, chinesische Schriftzeichen korrekt zu schreiben. Dazu wurde sie zunächst darauf trainiert, korrekt aussehende, aber nicht existierende Schriftzeichen zu „erfinden“. Ein weiteres, auf den ersten Blick weniger praxisrelevantes, aber gut beschriebenes Projekt ist der Versuch, mit Hilfe von TensorFlow einer Maschine das Spiel Pong beizubringen.
Ende Januar hatte Microsoft das Deep-Learning-Toolkit CNTK bei GitHub unter der MIT-Open-Source-Lizenz zur Verfügung gestellt. Es wurde seitdem immerhin über 5000-mal heruntergeladen und richtet sich in erster Linie an Entwickler, die an Lernmodellen für Sprach- und Bilderkennung arbeiten. CNTK ist schon seit April 2015 Open Source, stand aber zuvor nur auf Microsofts Repository CodePlex bereit. Damit waren Nutzer an Microsofts Academic License gebunden. Alternativ steht Interessenten bei Microsoft das Azure Machine Learning für diverse Zwecke und in mehreren Ausprägungen zur Verfügung. Ein anschauliches Beispiel dafür, was mit den Microsoft-Werkzeugen möglich ist, stellt die Site How-old.net dar, die anhand von Bildern das Alter von Personen schätzt.
[mit Material von Peter Marwan, silicon.de]
Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…
Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…
Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.
2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…
Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…
NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.