Menü
Avatar von /mecki78
  • /mecki78

mehr als 1000 Beiträge seit 03.07.2004

Was viele nicht wissen, gibt es seit Jahren in macOS

Als Apple Siri am iPhone eingeführt hat, haben sie zeitgleich auch das neue Dictation für iOS eingeführt. Dieses arbeite aber wie Siri: Was man spricht wir an einen Server gesendet (in Echtzeit) und der fertige Text kommt zurück. Die Geschwindigkeit ist super, die Erkennung liegt bei normalen Texten so um die 99%, der Bandbreitenverbrauch hält sich in grenzen (die Sprachdaten werden sehr stark komprimiert) und natürlich wird alles verschlüsselt übertragen... dennoch hat Apple theoretisch alles was man gesagt hat dort gespeichert, anonym, aber das was man sagt verrät ja häufig wer man ist und damit lässt sich die Anonymität manchmal auch ganz schnell aufheben.

Bis Siri am Mac kam dauerte es ja dann noch etwas, aber Dictation gab es schon kurz darauf am Mac. Das nutzte einfach den gleichen Mechanismus wie iOS, war also genauso gut, setzte aber genauso eine Internetverbindung voraus und hatte die selben Probleme.

Aber nur eine Major MacOS Version später gab es dass dann auch offline; hat nur kaum jemand mitbekommen. Wenn man mag, kann man in den Prefs bei Dictation Sprachen herunterladen. Deutsch z.B. ist 850 MB im Download. Einmal geladen, funktioniert das ganze dann auch völlig offline (man kann Internet komplett trennen und das geht) und auch offline liegt die Erkennung bei gut 98% würde ich sagen, sofern man halbwegs deutlich und nicht zu schnell spricht. Wer einen Mac besitzt und das noch nie ausprobiert hat, probiert es mal, das geht richtig gut. Vor allem wer nicht schnell tippen kann, der wird in Zukunft vielleicht die eine oder andere E-Mail mal damit diktieren.

Genauso bringt jeder Mac eine brauchbare Sprachsynthese mit. Auch hier, man muss nur ein Sprachpaket installieren, dann aber klingt es ziemlich gut. Für Deutsch sind das je nach Stimme so 100 bis 500 MB (es gibt 2 männliche und 2 weibliche zur Auswahl für Deutsch). Vergleiche ist das aber mit Dictation, dann muss ich sagen, Spracherkennung geht heute deutlich besser als Synthese, denn ich finde hier sind die Ergebnisse aktuell gerade mal befriedigend (ich verstehe was er sagt, und wenn er sich mal schwer tut, dann kann man erraten, was er gemeint hat, wenn er z.B. von ieos spricht, dann ist wohl ei-Oh-Es gemeint), aber da ist noch viel Luft nach oben, denn so ganz toll klappt das mit der Aussprache manchmal nicht und man gibt sich zwar Mühe natürliche Betonungen und Änderungen der Tonlage nach zu bilden, aber das ist bestenfalls ein Anfang. Gut, ich gebe zu, Englisch ist da nochmal viel besser, weil das ist ja Apple's Core Sprache, aber auch da ist es bestenfalls eine Zwei-Minus.

Ach ja, vorlesen gibt es unter iOS auch. Auch dort kann man Stimmen installieren. Muss man nicht, dann spart man sich den Speicherplatz, aber ohne so ein Sprackpakete klingen die Stimmen schon oft sehr künstlich (auch hier, Englisch geht sogar noch, aber Deutsch ist schon grenzwertig ohne Paket). Ich lass mir am iPhone manchmal Texte unterwegs über Kopfhörer vorlesen, wenn es gerade doof wäre auf's Handy zu schauen und ich sie daher nicht selber lesen kann.

/Mecki

Bewerten
- +
Anzeige