Googles britisches Labor für Künstliche Intelligenz namens DeepMind meldet eine deutliche Verbesserung im Bereich computergenerierter Sprache. Sein System WaveNet übertreffe bisherige Text-to-Speech-Systeme (TTS) von Google um etwa 50 Prozent und verringere damit den Unterschied zu echten Menschen deutlich.
Diese Erfolge wies DeepMind sowohl für die englische Sprache wie auch Hochchinesisch (Mandarin) nach. Zudem könne sein System nahtlos zwischen Stimmen wechseln und auch Musik realistisch imitieren.
In dem neuen Forschungsbericht heißt es, die derzeit besten TTS-Systeme seien nach allgemeiner Ansicht die der Kollegen von Google. Sie basierten auf „Sprachfragmenten“ eines einzelnen menschlichen Sprechers, die dann zu computergenerierten Äußerungen verbunden würden. Dieser Ansatz, der auch als TTS durch Konkatenation oder Verkettung bezeichnet wird, kann zwar natürlich klingende gesprochene Sprache produzieren, ist aber typischerweise auf eine einzige Stimme beschränkt. Diese Limitierung versucht so genanntes parametrisches TTS zu überwinden, das auf einem Codec-Synthesizer basiert. Es gilt bisher aber als weniger echt klingend.
WaveNet verwendet hingegen einen Maschinenlernen-Ansatz: Es wird mit Audio-Rohdaten mehrerer Sprecher geschult. Als neuronales Netz modelliert es diese Signale zu synthetischen Äußerungen um. „Die Verwendung von Rohdaten der Tonschwingungen ergibt nicht nur natürlicher klingende Sprache, sie führt auch dazu, dass WaveNet jede Art Audio nachmodellieren kann, einschließlich Musik“, schreibt DeepMind in einem Blogbeitrag.
WaveMind könne auch die Eigenheiten einzelner Sprecher samt Atmung und Mundbewegungen nachbilden und sowohl mit männlichen wie auch weiblichen Stimmen sprechen, heißt es. In seinem Blog legt das Forschungslabor einige Hörproben vor, und zwar in Englisch und Hochchinesisch.
Ziel dieses Ratgebers ist es, SAP-Nutzern, die sich mit SAP S/4HANA auseinandersetzen, Denkanstöße zu liefern, wie sie Projektrisiken bei der Planung Ihres SAP S/4HANA-Projektes vermeiden können.
Die Forscher schreiben auch, sie hätten das Netzwerk auf die Identität bestimmter Sprecher hin konditioniert, damit es immer wisse, welche Stimme es verwenden solle. Das Training mit Material unterschiedlicher Sprecher habe aber die Qualität auch bei der Modellierung einer einzelnen Stimme verbessert. „Das legt eine Art Transferdenken nahe“, heißt es.
Vorerst benötigt WaveNet gewaltige Datenmengen und Rechenkraft. Für die Modellierung von Audio-Rohdaten setzt DeepMind mindestens 16.000 Samples pro Sekunde an. Dieser Ansatz sei aber für ein realistisches Ergebnis nötig gewesen. Die Forscher hoffen, ihren Ansatz mit geringer Mühe auf Musik und Spracherkennung übertragen zu können.
[mit Material von Liam Tung, ZDNet.com]
Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…