Di. 10. Oktober 2017 um 9:23

Google Assistant soll dank WaveNet bald menschlicher klingen

von Sebastian Mauch0 Kommentare

Bisherige Sprachassisten_innen klingen zumeist ein wenig hölzern und eher nicht wie die menschlichen Vorbilder. Das liegt vor allem daran, dass herkömmliche “Roboterstimmen” aus im Vorfeld aufgenommenen Soundschnipseln oder komplett vom Computer zusammengewürfelt werden. WaveNet geht die Sache etwas anders an. Doch was ist dieses WaveNet überhaupt?

Ein neuronales Netzwerk, sie zu knechten

Wie die Bezeichnung schon andeutet handelt es sich bei WaveNet um ein neuronales, also ein lernfähiges und trainierbares, Netzwerk, welches sich vor allem um die Analyse von unzähligen Stimmenaufnahmen kümmert. Über mehr als zwölf Monate lernte WaveNet die Tonfolgen bestimmter Sprachabfolgen. Das Ergebnis soll sich in einer natürlicheren Sprachwiedergabe des Google Assistant niederschlagen.

 

Aktuell lernt WaveNet nur in der Weltsprache Englisch und dem sehr komplizierten Japanisch. In Zukunft dürfte Google dieselben Deep Learning- und Big Data-Techniken aber auch für andere Sprachen anwenden, in denen der Google Assistent sprechen kann. Ein paar Stimmproben zum Vergleich gibt es nachfolgend auch. Weitere Stimmbeispiele sind hinter dem Quell-Link zu finden.

 

US-Englisch (vorher):

US-Englisch (WaveNet):

Japanisch (vorher):

Japanisch (WaveNet):

 

Der Unterschied ist zwar nicht riesig, aber dennoch hörbar – vor allem im japanischen Beispiel. Leider muss man aber auch zugestehen, dass selbst die “schlechte” englische Variante schon wesentlicher natürlicher klingt, als die etwas “depperte” deutsche Variante. Höchste Zeit also, dass WaveNet auch mal der deutschen Sprachausgabe einen Schub verpasst, oder wie seht ihr das?


 

 

Quelle: Deepmind.com 

Das könnte Sie auch interessieren

Schreibe einen Kommentar

Teilen