Google hat die im Januar gestartete Funktion seiner App Translate zur Übersetzung von Texten um 20 auf 27 Sprachen erweitert. Die auf der Übernahme von Word Lens basierende Technik erlaubt es Nutzern, gedruckte Texte mit ihrem Smartphone oder Tablet zu erfassen und in der Sprache des Nutzers anzuzeigen. Neben Englisch, Französisch, Deutsch, Italienisch, Portugiesisch, Russisch und Spanisch werden unter anderem zwölf weitere europäische Sprachen sowie Indonesisch und Türkisch unterstützt.
Einem Eintrag im Google-Blog zufolge müssen Nutzer der Google-Übersetzer-App aber zuerst noch zusätzliche Sprachpakete für die von ihnen gewünschten Sprachen herunterladen. Die Pakete sind demnach jeweils rund 2 MByte groß.
„Unsere Mission ist es zu helfen, Sprachbarrieren zu überwinden“, sagte Julie Cattiau, Produktmanagerin für Google Translate, im Interview mit TechCrunch. „Unser wichtigstes Projekt ist die Verbesserung der Qualität von maschinellen Übersetzungen. Ein wichtiger Teil ist aber auch das Nutzererlebnis, weswegen wir auch in Dinge wie sofortige Übersetzungen per Kamera und mehrsprachige Unterhaltungen investieren.“
In einem weiteren Blogeintrag beschreibt Google Details zu der Technik, die die Übersetzung von gedruckten Texten in Echtzeit erlaubt. „Wie sind wir in der Lage, diese neuen Sprachen zu erkennen? Kurz gesagt: neuronale Netze“, schreibt Otavio Good, Software Engineer für Google Translate, im Google Research Blog. „Neuronale Netze haben in den vergangenen Jahren viel Aufmerksamkeit erfahren, weil sie im Bereich Bilderkennung viele neue Rekorde aufgestellt haben.“
Vor fünf Jahren seien Computer nicht in der Lage gewesen auf einem Foto einen Hund von einem Auto zu unterscheiden, heute erkenne ein Computer sogar unterschiedliche Hunderassen, ergänzte Good. „Wenn Du eine ausländische Speisekarte oder ein Schild mit der Google Translate App übersetzt, dann nutzt Du jetzt ein neuronales Netz.“
Die App trennt Good zufolge auf einem mit der Kamera eines Smartphones oder Tablets aufgenommen Bild die Buchstaben vom Hintergrund. Dafür vergleicht sie Gruppen von Pixeln mit ähnlichen Farben, die sich in der Nähe von anderen Gruppen von Pixeln mit ähnlichen Farben befinden. „Das sind möglicherweise Buchstaben, und wenn sie nebeneinander sind, dann wird daraus eine Zeile, die wir lesen können.“
Die eigentliche Erkennung der Buchstaben erfolge per Deep Learning, ergänzte Good. Das neurale Netz lerne nicht nur das unterschiedliche Aussehen von Schriftzeichen, sondern auch, zwischen Buchstaben und nicht Buchstaben zu unterscheiden. Da Buchstaben in der realen Welt oft auch verschmutzt oder durch Lichtreflexionen verfremdet seien, habe Google einen Buchstaben-Generator entwickelt, der „Schmutz“ und anderes Rauschen nachahme.
Im letzten Schritt schlage die App die erkannten Buchstaben in einem Wörterbuch nach, um sie zu übersetzen. „Da die vohergegangenen Schritte fehlerhaft sein könnten, muss die Suche im Wörterbuch unscharf sein. So können wir, auch wenn wir ein ‚S‘ als ‚5‘ lesen, das Wort ‚5uper‘ finden.“
Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…