c't 26/2018
S. 33
News
Mensch-Maschine-Schnittstelle, Gesundheitsdaten, Aufmerksamkeits-Check

Ohrenzucken steuert die Handprothese

Kopfsache: Mit einem Zucken des linken oder rechten Ohrmuskels steuert der Tester am Institut die Drehung der Handprothese. Bild: Universitätsmedizin Göttingen

Mit einer eher ungewöhnlichen Mensch-Maschine-Schnittstelle haben Forscher der Universitätsmedizin Göttingen eine neue Steuerung für Handprothesen realisiert. Über ein Ohrenzucken, das die meisten Menschen mit etwas Übung willkürlich hinbekommen, geben die Anwender gezielte Impulse. Die Forscher messen die elektrischen Signale beim Aktivieren der Muskeln und übertragen diese über einen feinen Draht auf einen Mikrochip. Dieser zeichnet die Signale auf und überträgt sie per Funk an die Computersteuerung. Im jüngsten Projekt bewegten Testteilnehmer über diesen Signalweg sehr akkurat eine Handprothese.

Längst stehen Patienten nach Unterarm- oder Handamputationen ausgefeilte motorisierte Handprothesen zur Verfügung. Die Kunsthand lässt sich öffnen und sie kann gezielt zugreifen, zudem sind die Prothesen am Unterarm drehbar. Viele Patienten können diese Funktionen bisher allerdings nur nacheinander ansteuern. Mit ihrer neuen Ohrsteuerung gelang den Göttinger Wissenschaftlern eine hybride Lösung. Während ihre Probanden das Öffnen und Schließen der Hand über die Unterarmmuskulatur auslösen, steuerten sie die Drehung der Prothese mit ihren Ohren. So konnten die Teilnehmer gleichzeitig greifen und die Hand drehen. Sie bekamen ihre neue Hand deutlich schneller unter Kontrolle und es unterliefen ihnen auch weniger Fehler als der Vergleichsgruppe ohne Ohrmuskelsteuerung.

Für die Zukunft sehen die Göttinger noch vielfältige weitere Einsatzmöglichkeiten dieser neuen Schnittstelle. Sie arbeiten an voll implantierten Systemen, die universell einsetzbar sind und per Funk ganz unterschiedliche Geräte ansprechen wie ein beliebiger Schalthebel. Zum Beispiel haben die Göttinger in früheren Experimenten schon elektrische Rollstühle mit ihren Ohren gesteuert. (agr@ct.de)

Digitale Patientenakte lebenslang vertraulich

Aus Sorgen um die Vertraulichkeit der Daten zögern viele Staaten, digitale Patientenakten einzuführen. Während beispielsweise Genomdaten über die gesamte Lebensspanne des Patienten vertraulich sein sollten, werden „alle heute genutzten Verschlüsselungsverfahren in den nächsten Jahrzehnten unsicher“, sagt Prof. Johannes Buchmann von der TU Darmstadt mit Blick auf die Gefahr verschlüsselungsbrechender Quantencomputer.

Eine Lösung für die sichere Speicherung sensibler Gesundheitsdaten haben nun Wissenschaftler des Sonderforschungsbereichs Crossing an der TU Darmstadt entwickelt. Gemeinsam mit japanischen und kanadischen Partnern starten sie mit ihrem Projekt LINCOS (Long-Term Integrity and Confidentiality Protection System) in den kommenden Wochen den Testbetrieb in Japan. LINCOS nutzt dabei Secret Sharing: Es speichert Bruchteile jedes einzelnen Datensatzes auf verschiedenen Servern. Sollten nun Angreifer von einem kompromittierten Server Dateien erbeuten, so ergeben diese für sich genommen keinen Sinn.

Ein zweiter Sicherheitsaspekt ist die Integrität der gespeicherten Gesundheitsdaten, die LINCOS durch wechselbare Signaturen gewährleisten soll. Ein dritter Baustein ist die Verschlüsselung für eine abhörsichere Kommunikation zwischen Krankenhaus und Datenserver. In der Zukunft soll dieser Schritt durch ein Quantenschlüssel-Austauschverfahren (Quantum Key Distribution; QKD) ersetzt werden. (agr@ct.de)

KI prüft Aufmerksamkeit

Ob Gesprächspartner aufmerksam folgen, kann eine künstliche Intelligenz am Institut für Communications Engineering der Universität Ulm recht zuverlässig ermitteln. Die Forscher ließen ihr System Lippen- und Augenbewegungen, Gesichtsausdruck und die emotionale Färbung der Stimme in Videoaufnahmen analysieren und mit den Bewertungen menschlicher Analysten abgleichen.

Um den Rechenaufwand zu mindern, beschränkten die Forscher ihr System auf die beiden effektivsten Eingangskanäle. Ihr Ergebnis: Allein an der Stimmfärbung und zusätzlich den Lippenbewegungen konnte die KI in gut 70 Prozent der Fälle korrekt erkennen, ob ein Mensch aufmerksam am Gespräch teilnimmt. (agr@ct.de)

Kommentieren