Der kleine Lauschangriff

Maschinelle vs. menschliche Autonomie

Im Zusammenhang mit technischen Systemen meint der Begriff der Autonomie, dass sie in der Lage sind, zeitlich beschränkt oder dauerhaft selbstständig zu entscheiden und eigenständig zu handeln, weder direkt durch Menschen angeleitet noch von ihnen fremdgesteuert. Dazu gehört zum Teil auch, sich aus eigenem Antrieb zielorientiert zu bewegen (Bendel 2015b). Viele Maschinen sind nicht vollautonom, sondern - auch jenseits zeitlicher Faktoren - teilautonom, also in gewisser Hinsicht von Menschen abhängig und ihrem Willen unterworfen. In der Industrie 4.0 werden mobile, selbstständige, lernfähige Roboter immer wichtiger. Sie arbeiten mit Menschen eng zusammen und müssen sich entsprechend verhalten.

Auditive Systeme reagieren entweder auf Codewörter oder Inputs oder sind permanent aufnahmebereit. Auch für das Erkennen der Codewörter müssen Informationen ausgewertet werden, müssen die Geräte angeschaltet und u.U. mit dem Internet verbunden sein. Selbstständige Entscheidungen auditiver Systeme könnten in vielen Bereichen eine wichtige Rolle spielen. So könnten Studierende ihre Smartphones in der Vorlesung deponieren, und die Software entscheidet selbst (oder in der Kommunikation mit anderen Maschinen), wann sie mitschneidet und wann nicht. Auch Systeme von Polizei und Geheimdienst könnten auf Reizwörter reagieren und selbstständig an die Quelle heranzurücken versuchen, was allerdings Mobilität voraussetzt und deshalb allenfalls im Bereich der Robotik relevant ist. Die hier behandelten Drohnen und Serviceroboter wären dazu in der Lage.

Dass maschinelle Autonomie menschliche ergänzt und verdrängt, ist Thema von Informations- und Technikethik. Der Mensch wird einerseits entlastet, und die Maschine kann eine Tätigkeit mit nie dagewesener Schnelligkeit und Sorgfalt ausführen. Andererseits verliert man Möglichkeiten der Entscheidung und Entfaltung, büßt man Freiheit ein Stück weit ein (Bendel 2015b). Die Maschinenethik untersucht, wie sich die auditiven Systeme so verhalten, dass sie moralische Konventionen (von Gesellschaften und Gruppen oder des Kunden) einhalten. Es kann ihr ferner um standardisierte Prozesse gehen. Man könnte die Geräte zum Beispiel so beschränken, dass ihnen nur funktionsbezogene Aufnahmen möglich sind bzw. andere Aufnahmen umgehend gelöscht werden, etwa wenn die Betroffenen über bestimmte Dinge reden.

Ein spezieller Aspekt ist, ob die Maschine einen richtig versteht. Seit den 1950er Jahren bemüht sich die KI, die menschliche Sprache maschinenverarbeitbar zu machen. Bis heute reichen die meisten Systeme nicht weit über Volltextsuchmaschinen hinaus, die Begriffe und Sätze vergleichen und zählen. Ein richtiges Verständnis ist durch automatisierte Spracherkennung kaum möglich, und es kann zu Problemen durch Homonyme kommen. Jedes Missverständnis kann Zeit kosten und Schaden anrichten.

Eine weitere Frage ist, ob Siri, Cortana und Co die Wahrheit sagen. Hammwöhner (2003) hat den Heuristic Algorithmic Liar (HAL) erdacht, dessen Ziel es ist, "möglichst viele Zimmer zu möglichst hohen Preisen zu vermieten". In (Bendel 2013) wird der Lügenbot erwähnt, ein Chatbot, der alle Aussagen, die er für wahr hält, in ihr Gegenteil verkehrt. Aufgeführt werden dort auch beschönigte Onlinewetterberichte und falsche Aussagen von Antwortmaschinen wie Wolfram Alpha. In (Bendel 2015a) wird ausführlich auf Münchhausen-Maschinen eingegangen.

Zusammenfassung und Ausblick

Auditive Systeme galten bereits früh als optimal für das Ausspionieren von Menschen und das Auswerten des Verhaltens der Bevölkerung. In den 2010er Jahren erleben sie eine Renaissance. Nicht mehr als gewöhnliche Wanzen, nicht nur als konventionelle Telefonüberwachung. Sondern in Form von Alltagsgeräten, die für uns teilweise unverzichtbar sind, teilweise zumindest bereitwillig ausprobiert werden. Es werden offensichtlich immer mehr, und dass man auch Spielzeug mit Spracherkennung ausrüstet, dass Hello Barbie und Cognitoy-Dinosaurier auf dem Markt sind, darf kaum noch verwundern. Einige moralische Probleme, die mit informationeller und persönlicher Autonomie und der Freiheit in der Informationsgesellschaft zusammenhängen, konnten systematisiert und diskutiert werden. Andere wurden nur angedeutet.

Nicht behandelt werden konnte im vorliegenden Beitrag das Zusammenwirken von optischen und auditiven Systemen. Es ist offensichtlich, dass hier noch mehr Chancen und Risiken vorhanden sind. Smartphones, intelligente Fernseher, Datenbrillen und Drohnen vereinen beide Sphären. Es ist eher die Ausnahme, dass eine der Schnittstellen fehlt. Die Aggregation auditiver Informationen kann, wie gezeigt wurde, zu weitreichenden Schlüssen führen. Zusätzliche Quellen werden noch weitaus präzisere und tiefere Analysen zulassen. Einige visuelle Informationen haben direkt mit den auditiven zu tun. Die Maschine könnte in der Lage sein, den Menschen von den Lippen zu lesen, sodass das Gesprochene selbst bei Störungen und Lücken verstanden werden kann.

Deutlich wurde, dass die Geräte nicht allein für die Herausforderungen verantwortlich sind. Sie sind untereinander und mit Rechnern und Dingen verbunden. Die Daten werden zusammengeführt und aufbereitet, mit maschineller Hilfe und in Verbindung mit maschineller oder menschlicher Entscheidung. Man kann in Zukunft versuchen, auf bestimmte Geräte zu verzichten, und man kann mit weiteren Maschinen gegen diese kämpfen. Der Einzelne wird allerdings dem Ansturm der Möglichkeiten ausgeliefert sein. Deshalb braucht es zusätzliche ethische Überlegungen und verschiedene rechtliche Konsequenzen. Die Informationsgesellschaft soll weiterhin eine Gesellschaft sein, in der die Nutzung von Technologien Freude macht und Gewinn bringt. Aber sie muss für den Einzelnen auch möglichst vertrauenswürdig und sicher sein.