Google hat die im Januar gestartete Funktion seiner App Translate zur Übersetzung von Texten um 20 auf 27 Sprachen erweitert. Die auf der Übernahme von Word Lens basierende Technik erlaubt es Nutzern, gedruckte Texte mit ihrem Smartphone oder Tablet zu erfassen und in der Sprache des Nutzers anzuzeigen. Neben Englisch, Französisch, Deutsch, Italienisch, Portugiesisch, Russisch und Spanisch werden unter anderem zwölf weitere europäische Sprachen sowie Indonesisch und Türkisch unterstützt.
Einem Eintrag im Google-Blog zufolge müssen Nutzer der Google-Übersetzer-App aber zuerst noch zusätzliche Sprachpakete für die von ihnen gewünschten Sprachen herunterladen. Die Pakete sind demnach jeweils rund 2 MByte groß.
„Unsere Mission ist es zu helfen, Sprachbarrieren zu überwinden“, sagte Julie Cattiau, Produktmanagerin für Google Translate, im Interview mit TechCrunch. „Unser wichtigstes Projekt ist die Verbesserung der Qualität von maschinellen Übersetzungen. Ein wichtiger Teil ist aber auch das Nutzererlebnis, weswegen wir auch in Dinge wie sofortige Übersetzungen per Kamera und mehrsprachige Unterhaltungen investieren.“
In einem weiteren Blogeintrag beschreibt Google Details zu der Technik, die die Übersetzung von gedruckten Texten in Echtzeit erlaubt. „Wie sind wir in der Lage, diese neuen Sprachen zu erkennen? Kurz gesagt: neuronale Netze“, schreibt Otavio Good, Software Engineer für Google Translate, im Google Research Blog. „Neuronale Netze haben in den vergangenen Jahren viel Aufmerksamkeit erfahren, weil sie im Bereich Bilderkennung viele neue Rekorde aufgestellt haben.“
Vor fünf Jahren seien Computer nicht in der Lage gewesen auf einem Foto einen Hund von einem Auto zu unterscheiden, heute erkenne ein Computer sogar unterschiedliche Hunderassen, ergänzte Good. „Wenn Du eine ausländische Speisekarte oder ein Schild mit der Google Translate App übersetzt, dann nutzt Du jetzt ein neuronales Netz.“
Die App trennt Good zufolge auf einem mit der Kamera eines Smartphones oder Tablets aufgenommen Bild die Buchstaben vom Hintergrund. Dafür vergleicht sie Gruppen von Pixeln mit ähnlichen Farben, die sich in der Nähe von anderen Gruppen von Pixeln mit ähnlichen Farben befinden. „Das sind möglicherweise Buchstaben, und wenn sie nebeneinander sind, dann wird daraus eine Zeile, die wir lesen können.“
Die eigentliche Erkennung der Buchstaben erfolge per Deep Learning, ergänzte Good. Das neurale Netz lerne nicht nur das unterschiedliche Aussehen von Schriftzeichen, sondern auch, zwischen Buchstaben und nicht Buchstaben zu unterscheiden. Da Buchstaben in der realen Welt oft auch verschmutzt oder durch Lichtreflexionen verfremdet seien, habe Google einen Buchstaben-Generator entwickelt, der „Schmutz“ und anderes Rauschen nachahme.
Im letzten Schritt schlage die App die erkannten Buchstaben in einem Wörterbuch nach, um sie zu übersetzen. „Da die vohergegangenen Schritte fehlerhaft sein könnten, muss die Suche im Wörterbuch unscharf sein. So können wir, auch wenn wir ein ‚S‘ als ‚5‘ lesen, das Wort ‚5uper‘ finden.“
Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…