zurück zum Artikel

Mozilla Common Voice: Sprachsteuerung für alle und ohne Rückgriff auf die Cloud

Mozilla Common Voice: Sprachsteuerung für alle

Spracherkennung statt Abhörwanzen: Mozillas Sprachdatenbank Common Voice und die Speech-to-Text-Engine DeepSpeech kommen ohne Umweg über die Cloud aus.

Mozilla veröffentlicht am heutigen Mittwoch die Daten seines Projekts Common Voice[1]. Darin stecken 400.000 validierte und transkribierte Sprachaufnahmen mit einer Gesamtlänge von 500 Stunden. 200.000 Nutzer sprachen dafür in Website und App kurze englischsprachige Texte ein. Nach eigenen Angaben ist Common Voice damit hinter LibriSpeech[2] die derzeit zweitgrößte frei zugängliche Sprachdatenbank, wächst jedoch kontinuierlich weiter. Andere Sprachen als Englisch will Mozilla "schon bald" in Angriff nehmen. Entwickler dürfen mit Common Voice Spracherkennungssysteme bauen – was Mozilla selbst auch tut.

Am Anfang des Common-Voice-Projekts stand die Überzeugung, dass Sprachsteuerung eine wichtige Technik[3] für die nahe Zukunft werden dürfte. Um entsprechende Techniken zu entwickeln, die unabhängig von den großen Cloud-Anbietern laufen, trug Mozilla erst bestehende Korpora zusammen, von denen manche schwer zu finden (einige sind auf der Common-Voice-Seite verlinkt[4]) und andere sehr teuer waren. Allerdings genügte das den Mozilla-Entwicklern nicht, so dass sie eine eigene Datenerhebung organisierten.

Mozilla nahm für sein eigenes Spracherkennungsprojekt DeepSpeech[5] zwei wissenschaftliche[6] Arbeiten[7] von Baidu als Grundlage und versuchte, diese mit Hilfe von Googles Maschinenlern-Bibliothek TensorFlow[8] und den zusammengetragenen Daten umzusetzen – kein leichtes Unterfangen, wie sich zeigte. Um belastbare Ergebnisse zu erhalten, mussten die Entwickler ein Sprachmodell heranziehen, um homophone und ähnlich klingende Wörter mit kontextabhängigen Wahrscheinlichkeiten versieht.

Ziel war es, die Fehlerquote unter die Zehn-Prozent-Marke zu drücken[9]. Dass eine Spracherkennung jedes zehnte Wort falsch versteht, klingt viel, ist aber nicht weit von menschlichem Sprachverständnis entfernt – hier kamen die Baidu-Forscher auf eine Fehlerquote von 5,83 Prozent. Nach eigenen Tests erreicht DeepSpeech 6,5 Prozent. Wer das nachbauen will, muss ein bisschen Zeit und Rechenleistung einplanen: Das Cluster aus drei Rechnern mit insgesamt 20 GPUs, das Mozilla verwendete, war eine Woche mit dem Training beschäftigt.

Dieser Aufwand ist jedoch nicht nötig, denn Mozilla stellt auch das fertig trainierte Modell[10] zur Verfügung; es lässt sich auf verschiedene Weisen installieren und erkennt Sprache auf einem PC mit GPU schneller, als sie gesprochen wird. In der Zukunft soll das auch auf Smartphones und RasPis laufen. Wenn Spracherkennung ohne Cloud-Anbindung funktioniert, gibt es eine Aussicht auf Geräte mit Sprachsteuerung, die nicht zugleich Abhörwanzen ihrer Hersteller sind. (Herbert Braun) / (dbe[11])


URL dieses Artikels:
http://www.heise.de/-3904454

Links in diesem Artikel:
[1] https://voice.mozilla.org/
[2] http://www.openslr.org/12
[3] https://research.mozilla.org/machine-learning/
[4] https://voice.mozilla.org/data
[5] https://github.com/mozilla/DeepSpeech
[6] https://arxiv.org/abs/1412.5567
[7] https://arxiv.org/abs/1512.02595
[8] https://www.tensorflow.org/
[9] https://hacks.mozilla.org/2017/11/a-journey-to-10-word-error-rate/
[10] https://github.com/mozilla/DeepSpeech
[11] mailto:dbe@ct.de