Sicherheit von Sprachassistenten: Darauf solltest du achten!

Sprachassistenten sind allgegenwärtig. Ob Apples Siri, Amazons Alexa, Microsofts Cortana oder der Google Home - in immer mehr Haushalten halten die elektronischen Helfer Einzug. Die Vorteile dieser Systeme liegen auf der Hand: Sie vereinfachen den Zugang zu Informationen oder erleichtern die Steuerung von “smarten” Geräten im Haushalt. Doch wie sieht es mit der Sicherheit aus?

So funktionieren Sprachassistenten

Sprachassistenten ersetzen die manuelle Eingabe von Befehlen in elektronische Geräte. Stattdessen reichen Sprachbefehle, um Funktionen auszuführen oder Informationen zu erhalten. Die Informationsabfrage wird so beschleunigt und die Bedienung technischer Geräte erleichtert. Das funktioniert aktuell schon ziemlich gut. Zwar verstehen Alexa, Siri und Co. noch nicht alles, aber schon sehr viel. Sprachassistenten reagieren auf ein Signalwort wie zum Beispiel “Hey Siri” oder “Okay Google”. Danach können den elektronische Butlern Befehle gegeben werden. Diese Befehle werden von spezieller Software der Hersteller analysiert und verarbeitet. Als Antwort werden Informationen an den Gerätebesitzer gesendet - entweder als Sprachnachricht oder durch das Ausführen einer Aktion. Zu diesen Aktionen gehören beispielsweise die Erhöhung der Lautstärke einer Stereoanlage oder auch das Bestellen von Artikeln in Onlineshops. Dieser Komfort hat aber auch eine Kehrseite.

Wenn der Sprachassistent zum Risiko wird

Zu der eher harmloseren Sorte von Risiken gehören Befehle, die aus Versehen ausgeführt werden. Zum Beispiel, wenn der Assistent unbeabsichtigt aktiviert wird und ungewollt mithört. Nächtliche Polizeieinsätze durch ferngesteuerte Partymusik oder ungewollte Bestellungen könnten die Folge sein. Auch bei Kindern im Haushalt ist Vorsicht geboten. Schließlich haben auch sie Zugang zu den Assistenten. Sie könnten eventuell nicht jugendfreie Inhalte hören oder ungewollte Bestellungen aufgeben.

Auch alltägliche Dinge wie ein offenes Fenster werden mit einem Sprachassistenten im Haus zu potentiellen Sicherheitslücken. Schließlich funktionieren die Befehle auch, wenn diese von außerhalb gerufen werden.

Noch kritischer wird es, wenn mögliche Sicherheitslücken von Sprachassistenten Ziel von Hackerangriffen werden. Ein mögliches Szenario wäre das Abfangen von Sprachbefehlen. Diese könnten in Einzelteile zerlegt und im schlimmsten Fall zu schädlichen Befehlen wieder neu zusammengesetzt werden.

Datenschutz bei Sprachassistenten

Auch der Datenschutz ist ein heikles Thema in Bezug auf Sprachassistenten. Sie müssen ständig aktiviert sein, um das entsprechende Signalwort hören zu können. Manche Hersteller versichern zwar, dass Daten erst an den Server gesendet werden, wenn das Signalwort verwendet wurde, aber eine Kontrolle dieser Aussagen ist schwierig. Auch die deutsche Bundesbeauftragte für den Datenschutz, Andrea Voßhoff, hat schon ihre Bedenken geäußert.

Wenn die Daten erst einmal auf den Servern von Microsoft, Apple, Amazon oder Google landen, bleiben sie dort in der Regel auch. So werden sie für Marketingzwecke benutzt, um beispielsweise mithilfe von individualisierten Nutzerprofilen maßgeschneiderte Werbung anbieten zu können. Google ermöglicht es seinen Nutzern zumindest, sich auf myactivity.google.com die gesammelten Daten anzusehen und sogar wieder zu entfernen. Auch Amazon bietet in der Alexa-App das Löschen von Sprachdaten an.

Doch nicht nur die Hersteller der Sprachassistenten speichern Daten ab. Auch Drittanbieter, die mit den Sprachassistenten verbunden sind, sammeln Informationen. Hier ist das Löschen entweder gar nicht möglich oder weitaus komplizierter als bei den oben genannten Beispielen.

Für staatliche Behörden können Sprachaufzeichnungen ebenfalls interessant sein. In den USA wurde im Rahmen einer Mordermittlung Amazon zur Herausgabe von Alexa-Sprachaufzeichnungen aufgefordert. In Zukunft könnte es sogar möglich sein, dass Smart-Home-Technologie zur Überwachung eingesetzt wird. Abseits dieser orwellschen Dystopie könnten sich auch Kriminelle einen Zugang zu den entsprechenden Daten verschaffen. Da wird die verletzte Privatsphäre schnell zur Nebensache.

Fazit und Tipps

Sprachassistenten sind zur Zeit einer der größten Trends in der Verbraucherelektronik. Gerade in Verbindung mit anderen smarten Geräten können sie ein spürbarer Komfortgewinn sein. Zudem macht die neue Technik natürlich vielen Nutzern Spaß. Zur Kehrseite gehören - wie bei jeder anderen internetbezogenen Anwendung - mögliche Sicherheitslücken. Abschließend fassen wir für dich kurz die wichtigsten Sicherheitstipps zusammen:

  • Allgemein gilt: Je öfter Alexa, Siri und Co. genutzt werden und je vielfältiger die Anwendungsbereiche sind, desto mehr Daten sind im Umlauf. Je größer die Datenmenge, desto größer die Wahrscheinlichkeit, dass auch sensible Daten darunter sind. Nutze die Sprachassistenten also nur für Anwendungen, die durch die Sprachunterstützung wirklich komfortabler und einfacher nutzbar werden.
  • Spreche keine sensiblen Daten wie Kreditkarten- oder Kontonummern laut aus, wenn ein Sprachassistent aktiviert ist.
  • Schalte die Sprachassistenten ab, wenn du nicht zu Hause bist (hier erklären wir dir, wie du den Amazon Echo abschalten kannst) und stelle die Geräte möglichst nicht neben geöffnete Fenster, um ungewollte Zugriffe oder Missbrauch zu verhindern.
  • Lasse Kinder im Haushalt nicht mit den elektronischen Butlern alleine und sichere Bestellungen mit einem Code ab.
  • Lösche wenn möglich Daten, die nicht auf externen Servern gespeichert werden sollen.