Der Weg zum Gedankenlesen: Spracherkennung für inneren Monolog entwickelt

Spracherkennung ohne Worte am MIT entwickelt

Trends & News | News

Bild: Lorrie LeJeune, MIT

Ein am MIT entwickeltes Spracherkennungssystem erfasst Eingaben, ohne dass diese gesprochen werden. Dafür verwendet das System Sensoren an der Gesichtshaut.

Das "AlterEgo" getaufte Wearable erfasst Sprachbefehle und andere Eingaben ohne Mikrofon. Stattdessen setzt das neuartige Headset aus dem Massachusetts Institute of Technology (MIT) auf eine Sensorik, die elektrische Signale an die Gesichtsmuskeln registriert.

Derartige Reize werden vom Gehirn nicht nur ausgesendet, wenn der Mund konkret bewegt wird, sondern sogar schon dann, wenn man im Stillen einen Text liest oder einen inneren Monolog hält. Die Forschergruppe um Arnav Kapur, Shreyas Kapur und Pattie Maes am MIT Media Lab fand nun heraus, dass die Muskelreize mit äußerlichen Sensoren aufgefangen werden können. Anhand der dadurch gewonnenen Daten erkennt das System mit hoher Genauigkeit die intendierten Wörter. In Zahlenerkennungstests mit mehreren Probanden am MIT wurden die subvokalisierten Eingaben mit einer durchschnittlichen Rate von 92 Prozent richtig identifiziert.

Der Prototyp in der Praxis: Das AlterEgo-System erfasst Muskelimpulse beim stillen Lesen oder inneren Monolog. (Bild: Lorrie LeJeune, MIT)

Der große Vorteil dieser Sprachschnittstelle: Die Privatsphäre des Nutzers bleibt erhalten. Lautes Sprechen in der Öffentlichkeit oder umständliche und für Umstehende irritierende Gesten sind nicht erforderlich. Auch Menschen mit Problemen der Stimmbänder können mit AlterEgo im Stillen ihre Spracheingaben tätigen. Es müssen dazu keine Wörter mit den Lippen geformt werden und es werden keine kodierten Muskelbewegungen verlangt, wie die Forscher betonen. Tatsächlich sind gar keine Muskelbewegungen für die Worterkennung notwendig – das Device misst ausschließlich neuromuskuläre Impulse.

Das Gerät funktioniert als bidirektionales Kommunikationsmittel. Außer der Worteingabe ohne Mikrofon bietet es eine Sprachausgabe ohne Lautsprecher oder Ohrhörer. Stattdessen umfasst das Gerät auch eine Kopfhörerfunktion über Knochenleitung, es setzt dazu an den unteren Kieferknochen an. Eine Bluetooth-Schnittstelle vervollständigt das System, das so mithilfe geeigneter Hardware und sprachgesteuerter Applikationen eine "erweiterte Intelligenz" und Unterstützung in unterschiedlichen Lebenslagen bieten kann. So kann man beispielsweise auf einen Taschenrechner, den persönlichen Terminkalender, Übersetzungsdienste oder Webabfragen zugreifen. Zwei AlterEgo-Anwender könnten sich etwa in einer größeren Runde still absprechen. Oder der Nutzer greift über das Headset auf Gerätetechnik im Haushalt zu.

Im Stillen starten AlterEgo-Anwender Online-Abfragen oder sie stimmen sich diskret untereinander ab. (Bild: Arnav Kapur, MIT)

Das Gerät misst die Nervenimpulse, welche die normalerweise zum Sprechen eingesetzten Muskeln bei inneren Monologen erreichen. Indem sich die Sensoren auf den unteren Gesichtsbereich beschränken, werden Störungen durch ein elektrisches Rauschen aus dem Frontallappen der Großhirnrinde vermieden.

Bereits die Sensordaten zur Worterkennung gelangen drahtlos an eine externe Hardware und von dort auf den Institutsserver, der sie mit einem neuronalen Netz in Wörter umsetzt. Die Entwickler arbeiten an einer Worterkennung für den Einsatz auf Portables.

Der Anwender könne seine Spracheingaben sehr gut willentlich steuern, das Gerät erlange keinen Zugriff auf private Gedanken, versichern die Autoren der Forschungsarbeit. Bisherige Ansätze zum Gedankenlesen wie etwa im Gehirn implantierte Elektroden oder äußerliche Hirnstrommessungen per Elektroenzephalografie (EEG) sind für den großflächigen Einsatz ungeeignet und obendrein zu ungenau. Als nichtinvasives System beschränkt sich das AlterEgo-Wearable auf Sensoren an bis zu sieben Stellen im unteren Gesicht und Halsbereich und zeigte damit im Labor ermutigende Erkennungsraten. (agr)

Kommentare

Anzeige
Anzeige