Google-Forscher haben eine Spracherkennung geschaffen (PDF), die auf einem Smartphone „schneller als in Echtzeit“ läuft, ohne dass dafür eine Verbindung zu einem Server nötig wäre. Das nur 20,3 MByte große Programm wurde auf dem Google Nexus 5 mit 2,26 GHz schneller CPU und 2 GByte RAM getestet. Die Quote falsch erkannter Wörter betrug bei einem Testdiktat mit offenem Ende 13,5 Prozent.
Um möglichst wenig Speicherplatz zu belegen, entwickelten die Forscher ein einheitliches Modell für Diktate und Sprachbefehle – zwei eigentlich sehr verschiedene Bereiche. Durch Kompression verkleinerten sie ihr Akustikmodell zudem auf ein Zehntel des ursprünglichen Umfangs.
Die Forscher weisen darauf hin, dass Offline-Spracherkennungssysteme durchaus heute schon mit Befehlen wie „Schreib eine E-Mail an Darnica Cumberland: Können wir den Termin verschieben?“ umgehen können. Dazu fertigen sie aber zunächst eine Transkription an und führen die Funktion erst später aus, ohne dass dies dem User normalerweise bewusst werde. Das liege daran, dass eine präzise Erfassung persönliche Daten wie den Namen des Adressaten erfordere. Aufgrund dieser Überlegung habe man die Kontaktliste des Smartphones direkt ins Modell der neuen Offline-Erkennung eingebaut.
Im Rahmen der von techconsult im Auftrag von ownCloud und IBM durchgeführten Studie wurde das Filesharing in deutschen Unternehmen ab 500 Mitarbeitern im Kontext organisatorischer, technischer und sicherheitsrelevanter Aspekte untersucht, um gegenwärtige Zustände, Bedürfnisse und Optimierungspotentiale aufzuzeigen. Jetzt herunterladen!
Trainiert wurde das System mit drei Millionen Eingaben aus Googles Sprachsuche, die zusammen etwa 2000 Stunden Sprechzeit ausmachten. Ergänzend reicherten die Forscher diese Proben mit unterschiedlichem Rauschen an, das sie Youtube-Videos entnommen hatten. Ihr ursprüngliches Akustikmodell war rund 80 MByte groß.
Bis die im Labor erprobte Offline-Erkennung in Googles Android-Apps einzieht, dürfte es aber noch eine Weile dauern. Zuletzt verbesserte Google im September 2015 seine Spracherkennung, indem es neue Algorithmen einführte, die es ebenfalls mit Hilfe eines rekurrenten neuronalen Netzes entwickelt hatte. Sie stecken heute in den Such-Apps für Android und iOS und erkennen ganze Blöcke an Lautfolgen – bei reduziertem Berechnungsaufwand. Die Systematik scheint mit der jetzt applizierten eng verwandt: So wurde auch dieses selbstlernende System durch künstliches Rauschen und Echos gegen Umgebungsgeräusche abgehärtet.
[mit Material von Liam Tung, ZDNet.com]
Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…
Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…