Gelenkte Menschen

Digitale Assistenten und ihre Anwender: Wer steuert wen?

Wissen | Hintergrund

Siri und Co. verändern grundlegend das Verhältnis zwischen dem Anwender und seinem Gerät – egal ob es sich dabei um einen PC, ein Smartphone, sonstige Alltagselektronik oder ein Auto handelt. Waren Computer und Co. bisher recht dumm, nehmen sie ihm heute sogar Entscheidungen ab und sagen ihm, was er zu tun hat.

Bislang werden digitale Assistenten nur als Apps wahrgenommen, die auf Smartphones die eine oder andere nützliche Aufgabe erledigen. Das wird sich am 29. Juli ändern. Dann erscheint Windows 10 und mit ihm Cortana auf dem Desktop. Auch für Android und iOS will Microsoft Versionen seines Assistenten verfügbar machen. Der digitale Assistent soll auf allen Plattformen bereitstehen, die der Anwender benutzt.

Google Now ist bereits länger für Android und iOS verfügbar. Wer mag, kann Googles Assistenten schon heute unter Windows, Mac OS und Linux nutzen – allerdings nur im Browser Chrome. Apple hat ebenfalls angekündigt, den Arbeitsbereich seiner Assistentin Siri auf den Desktop von Mac OS auszuweiten. Alle drei großen Software-Hersteller gehen also davon aus, dass ihre digitalen Assistenten den Umgang mit dem PC, Tablet und Smartphone vereinfachen können.

Aber Assistenten werden nicht auf PCs und „klassische“ Mobil-Hardware beschränkt bleiben. Die Technik ist prädestiniert für mobile Gadgets aller Art, für die Sprache die natürlichste Form der Bedienung darstellt: Der Mensch muss so seinen Blick nicht auf das Gerät lenken, sondern kann weiter auf das sehen, was er gerade tut. Wenn man so will, ist Amazons Heimassistent Echo ein Vorläufer solcher Gadgets – wenn auch kein mobiler.

Es hat immer Versuche gegeben, Sprachsteuerungen zu verwirklichen. Ein Produkt für die Massen ist dabei aber nie herausgekommen. Mit digitalen Assistenten dagegen klappt die sprachliche Verständigung oft schon ziemlich reibungslos: Der Benutzer formuliert seine Frage oder gibt sein Kommando; der Assistent antwortet oder handelt – einfach so mit dem Smartphone, ohne Spezial-Hardware, ohne Anlernen.

Natürlich kann es passieren, dass die Smartphone-Assistenten eine Frage nicht verstehen, entweder durch schlechte Akustik oder weil sie ein Wort nicht kennen. Dann fragen sie freundlich nach oder geben offen zu: „Ich konnte Ihre Frage nicht verstehen“. Auch sind die Domänen, innerhalb derer Siri und Co. ihre Assistenzdienste anbieten, noch begrenzt; entsprechend eingeschränkt ist ihr Vokabular – wie auch die vorangegangenen Artikel illustrieren. So passiert es immer wieder, dass ein Assistent auch rein inhaltlich keine Antwort parat hat und dann die Frage an eine normale Suchmaschine weiterleitet.

Mit Allgemeinwissen, wie man es von einem menschlichen Gegenüber erwartet, können die digitalen Assistenten jedenfalls nicht aufwarten. Die Software-Riesen hinter den Assistenten arbeiten allerdings fieberhaft daran, den Wortschatz von Siri und Co. auszubauen und bestehende Wissenslücken zu schließen. Als zum Beispiel Google Now startete, konnte es nur in sieben Bereichen helfen: Verkehrsrouten, Flüge, Sport, Orte in der Nähe, Reisen, öffentlicher Personennahverkehr und Wetter. Mittlerweile kennt sich zumindest die US-Version in mehr als 70 Domänen aus. In bestimmten Bereichen, etwa enzyklopädischem Wissen, sind Assistenten jedem Menschen bereits weit voraus.

Geschätzter Assistent

Digitale Assistenten hören nicht nur zu, sie antworten auch in natürlicher Sprache mit einer freundlichen Stimme, die einem menschlichen Sprecher recht nahe kommt. Dabei sprechen sie oft schon komplette Sätze mit einer natürlichen Sprachmelodie; kurze, abgehackte Ausgaben sind mittlerweile die Ausnahme.

Sprachein- und -ausgabe ist nicht nur ein natürliches und praktisches Kommunikationsmedium. Sie soll auch bewirken, dass der Benutzer seinen Assistenten sympathisch findet und ihm vertraut. Insbesondere bei Microsoft ist das ein erklärtes Ziel. Erreicht wird es nicht nur mit einer angenehmen Frauenstimme des Assistenten, sondern auch mit Spaßfunktionen. So kann man sich Witze oder Märchen erzählen lassen. Microsofts Assistentin hat sich sogar mit deutschen Dialekten ein wenig vertraut gemacht. Grüßt man sie mit „Moin!“, kommt ein „Moin, Moin!“ zurück, auch ein „Servus!“ retourniert Cortana entsprechend.

Damit eine möglichst natürliche Gesprächssituation entsteht, sollen Cortana, Google Now und Co. auch auf den Gesprächskontext reagieren – wie ein menschliches Gegenüber. Fragt man den Assistenten etwa nach den nächstgelegenen Restaurants, um dann eine zweite Frage „Nur Pizzerien!“ nachzuschieben, soll der Assistent die zweite Frage auf die vorangegangene beziehen und nur die nächstgelegenen Pizza-Restaurants zeigen.

Microsoft feilt sogar daran, so etwas wie Zwischentöne zu modellieren. Bei amerikanischen Sprechern weiß Microsoft zum Beispiel bereits genauer, wie Cortana ein Gespräch führen und auf Scherzfragen reagieren soll. Für die deutsche Version habe man noch keine Erfahrungswerte. Man werde hierzulande daher zunächst mit einer sehr konservativen Cortana starten und dann versuchen herauszufinden, wie Deutsche angesprochen werden wollen, sagte Marcus Ash, Group Program Manager für Cortana, in einem Interview mit Golem.de [1].

Die KI wird aktiv

Besonders beeindruckend sind die Funktionen, die Assistenten nicht auf Zuruf, sondern von sich aus anbieten. Google Now etwa erinnert den Benutzer vor einem Termin daran, sich rechtzeitig auf den Weg zu machen und liefert eine Wegbeschreibung gleich mit. Siri weist selbstständig auf Terminkonflikte im Kalender hin und Cortana und Google Now können daran erinnern, Milch zu kaufen, wenn man in die Nähe eines Supermarktes kommt.

Assistenten stellen damit das Verhältnis des Menschen zu seiner IT auf den Kopf. Bei einem normalen PC, wie er heute verkauft wird, ist wenig bis nichts Smartes: Egal ob es darum geht, eine Datei zu kopieren, eine Website zu öffnen oder ein Bild zu bearbeiten: Der Anwender steuert, der PC führt aus. Einige Helferlein in Anwendungsprogrammen mögen dem Nutzer zwar Vorschläge machen oder sogar Schritte abnehmen. In aller Regel aber ist es der Benutzer, der steuert und entscheidet, und das Gerät, das ausführt.

Siri und Co. dagegen verknüpfen selbsttätig Informationen, die ihr Anwender aktiv bereitstellt, mit Kontextwissen, das sie selbst erheben, sowie mit Weltwissen und Big-Data-Auswertungen aus ganz anderen Quellen. Aufgrund dieser Informationsbasis treffen sie Entscheidungen für den Benutzer, agieren für ihn und lenken ihn ein Stück weit.

Die neuen Entscheider

Assistenten machen Menschen das Leben einfacher. Wenn man sich an seinen mobilen Helfer gewöhnt hat und wenn er einem oft genug geholfen hat, dann wird man sich irgendwann ein Stück weit auf ihn verlassen. Dass ein Assistent nur ein technisches Ding ist, spielt dabei keine Rolle – so tickt nun einmal der Mensch.

Aber bringt man dem digitalen Helfer dann immer noch genug kritischen Abstand entgegen, um Fehler zu erkennen? Denn bei allem Aufwand, den die Betreiber der Zuverlässigkeit ihrer Assistenten zukommen lassen – Fehler passieren. Im Juni antwortete Google Now beispielsweise auf die Frage „Was passierte mit den Dinosauriern?“ mit einer Antwort von einer kreationistischen Site.

Nicht immer sind Fehler so leicht zu erkennen wie hier. Bei den Recherchen zu einem Artikel über Gordon Moore, dem Begründer des Moore’schen Gesetzes, fiel meinem Kollegen Andreas Stiller auf, dass der Knowledge Graph dem Mann einen Sohn andichtete [2]. Den dürften die meisten Suchenden einfach so akzeptiert haben.

Ebenso wenig wie Fehler lässt sich erkennen, wenn ein Assistent für Schindluder benutzt wird, wenn sich große Benutzermassen kritiklos auf deren Empfehlungen einlassen. Wer Google Now oder Cortana beispielsweise fragt: „Nenne mir das beste Restaurant in der Nähe“: Wie will er feststellen, dass er auch wirklich das beste genannt bekommt – und nicht das, das am meisten für Werbung gezahlt hat?

Bisher gibt es keinen Hinweis darauf, dass Assistenten derart missbraucht werden. Apple hat seine Siri bei Fragen wie „Was machst Du?“ aber immerhin schon Werbung für die Apple Watch machen lassen – siehe Screenshot unten. Und bei Alexa geht es ganz offen auch ums Verkaufen.

Schwarze Boxen

Dass Fehler oder Schmu nicht erkannt werden, liegt auch daran, dass der Anwender oft gar nicht mehr nachvollziehen kann, wie ein Suchergebnis, eine Entscheidung zustande kommt: Er delegiert Know-how und die Entscheidung selbst an seinen digitalen Helfer und verlässt sich voll auf ihn.

Assistenten „leben“ zu einem Großteil in der Cloud ihrer Betreiber. Für den Anwender sind sie daher oft wie Blackboxen, in die er nicht hineinsehen kann. Selbst wenn er nachvollziehen will, worauf eigentlich ihre Entscheidungen beruhen – die Informationen sind nicht greifbar. Oftmals hat nicht einmal der Betreiber selbst vollen Zugriff, etwa wenn das Wissen in den Untiefen neuronaler Netze kodiert ist.

Die Assistenten führen zudem dazu, dass noch einmal mehr Informationen über ihre Benutzer zusammengetragen werden. Neben den Datenmassen, die ein Anwender ohnehin bei Google, Microsoft und Co. ablädt, sammelt zum Beispiel Cortana bei der Einrichtung noch explizit Informationen per Nachfragen ein.

Bei Google kann man über das Dashboard genau sehen, welche persönlichen Daten es gespeichert hat. Dort finden sich auch Informationen über die „Sprach- und Audioaktivitäten“, also die Abfragen an Google Now. Microsoft hat Cortana ein sogenanntes Notizbuch verpasst, in dem der Anwender sehen kann, was die Assistentin über ihn weiß. Dort lassen sich auch Informationen wieder löschen.

Dennoch bleibt das Gefühl, dass die Assistenten mehr über ihren Besitzer wissen, als sie präsentieren. So zeigt Cortanas Notizbuch nicht alle bei der Einrichtung abgefragten Informationen an. Und wenn Google in die Mails hereinschaut, um dort nach Reiseinformationen zu suchen – was findet es dort noch und welche Schlüsse zieht es daraus?

Systemplattform

Insbesondere Google und Microsoft arbeiten nicht nur aus reiner Selbstlosigkeit mit Hochdruck an Now und Cortana. Assistenten stellen gewissermaßen eine neue Software-Schicht, eine neue Bedienoberfläche für Betriebssysteme dar. Wer es schafft, den Benutzer an seinen Helfer zu gewöhnen, kann ihn auf diesem Weg vielleicht auch auf einer neuen Plattform ansprechen.

Gerade für Google ist der Erfolg von großer strategischer Bedeutung, denn Google Now ist die Fortführung seines wichtigsten Produkts: der Suche. Das Wohl und Wehe des Unternehmens hängt davon ab, dass Google auch in Zukunft seine Benutzer mit guten Suchergebnissen bedienen kann. Da schon heute in vielen Ländern der Großteil der Anfragen mit mobilen Geräten gestellt werden, muss Google zukünftig besonders mit Google Now punkten.

So will Google, so gut es geht, Trefferlisten abschaffen. Es passt nicht zur mobilen Nutzung mit Spracheingabe, wenn sich der Benutzer durch eine Ergebnisliste klicken muss. Eine herkömmliche Suchergebnisliste zeigt Google Now zwar zusätzlich an; aber die darüberstehende direkte Antwort soll die Frage aber eigentlich schon beantworten. Für den Rest der Webwelt sind diese Direktantworten keine gute Nachricht: Meist besucht der Benutzer nach einer Suche keine externe Web-Seite mehr. Google behält solche Nutzer komplett bei sich.

Ähnlich verhält es sich bei den Inhalten von Apps. Unter Android zapft Google Now die Inhalte von Apps an, sofern deren Entwickler das zulassen. Diese sind in der Zwickmühle: Einerseits ist es für Nutzer ein guter Service, wenn die Inhalte ihrer Apps auch von Google Now gefunden werden. Andererseits rufen die Benutzer mitunter nicht einmal mehr die App auf.

Die App-Integration soll weiter intensiviert werden. Google Now soll – mehr als heute schon – auch als universelle Steuerung für Apps wie Musik-Player dienen. Hierfür ist ebenfalls die Zusammenarbeit mit den App-Entwicklern notwendig. Mit „Now on Tap“ als Bestandteil von Android M wird Google Now auf die Inhalte von Apps aller Art zugreifen können – ob Entwickler das möchten oder nicht.

Die große Assistentifizierung

Man kann Assistenten als Hype abtun, als Spielzeug für Early Adopters und Nerds. Das mag heute noch zutreffen. Die Sprachbedienung eignet sich aber auch für nicht IT-affine Menschen gut, etwa Ältere und Kinder. Und es zeichnet sich bereits ab, dass früher oder später jeder mit Assistenten und der ihnen zugrunde liegenden künstlichen Intelligenz in Kontakt kommen wird. Ein solcher Assistent muss nicht als App auf dem Smartphone in Erscheinung treten. Denkbar sind auch elektronische Gadgets, Autos – oder völlig andere Formen.

Wer das meistverbreitete Mobilbetriebssystem einsetzt, Android, kann sich heute kaum mehr dagegen wehren, dass ihm Assistenzdienste nicht nur via Google Now untergeschoben werden. „In Ihrer Nähe“ von Google Maps gibt Hinweise auf Restaurants, Ausflugsziele und sogar die besten Spots für Fotos; Inbox sortiert die E-Mails des Benutzers und Google Photos erschließt die Fotosammlung inklusive Objekt- und Gesichtserkennung.

Wahrscheinlich verlassen Sie sich ohnehin schon auf einen Assistenten. Oder benutzen Sie für die Navigation noch Papierkarten? Im Auto haben wir uns längst daran gewöhnt, von einer freundlichen Stimme ans Ziel geführt zu werden und uns keine Gedanken mehr über die Route zu machen. Navis funktionieren einfach; wer sich einmal damit angefreundet hat, möchte sie nicht mehr missen. Navigationssysteme, Siri, Cortana und Co. könnten Wegbereiter für weitere Bereiche werden.

Wer sich durch den technischen Aspekt nicht locken lässt, der wird vielleicht durch handfeste finanzielle Vorteile dazu gebracht, einen Assistenten zu verwenden – etwa bei der Versicherung. Die ersten Krankenversicherungen haben jedenfalls vergünstigte Tarife angekündigt, die Versicherte für die Übermittlung ihre Fitnessdaten belohnen. Die Ergänzung dieses Systems mit einem aktiven Assistenten wäre nur ein logischer kleiner weiterer Schritt.

Wenn eines Tages autonome Fahrzeuge – die ja nichts anderes sind als Fahrassistenten – marktreif sind, werden sie vermutlich schnell menschliche Fahrer verdrängen. Der Assistent verursacht keine laufenden Kosten, braucht keine Ruhezeiten und fährt spritsparend. Die Autoversicherung wird auch wesentlich günstiger, denn Unfälle bauen die smarten Autos nach bisherigen Erfahrungen auch seltener als Menschen.

Freund oder Feind?

Software handelte auch in der Vergangenheit bereits autonom, etwa im Börsenhandel. Grundsätzlich kann man sich den Einsatz von Assistenten an vielen Stellen vorstellen, wo das heute noch undenkbar wäre. Wenn lernende Systeme eines Tages weniger Fehler bei der Diagnose von Krankheiten machen: Sollte man sie dann nicht dafür einsetzen, etwa in medizinisch unterversorgten Gegenden? Autonome Kampfroboter oder -drohnen dürften einen großen strategischen Vorteil darstellen – kein langsamer Mensch mehr im Hintergrund, der eine entscheidende Sekunde zu lange zögert. Die Entscheidung, wer Freund ist und wer Feind, müsste der Kriegsassistent dann aber selber treffen.

Eine „digitale Superintelligenz“, einmal von der Leine gelassen, kann vom Menschen nicht mehr kontrolliert werden: Das ist nicht nur der Stoff für Hollywood-Blockbuster; einige kluge Köpfe der Software-Branche und aus der Wissenschaft sind angesichts der jüngsten Entwicklungen der KI-Forschung sehr besorgt. Der Tech-Unternehmer Elon Musk etwa fürchtet, dass sich KI eines Tages zur größten Bedrohung der Menschheit auswachsen könnte: „Wir müssen sehr vorsichtig sein.“ – Allerdings geht er nicht näher darauf ein, wie die Bedrohung genau aussehen soll.

Musk hat selbst in Deep-Learning-Unternehmen investiert, zum Beispiel in das von Google übernommene DeepMind. Seine Motivation sei dabei aber weniger die Rendite, sondern Besorgnis. Er möchte ein Auge darauf behalten, was im Feld der künstlichen Intelligenz passiert. Er fordert eine Regulierungsaufsicht auf nationaler oder internationaler Ebene, um sicherzustellen, „dass wir nicht etwas sehr Dummes tun“. Ähnlich argumentieren auch Bill Gates und der Physiker Stephen Hawking.

Immer mehr zu Diensten

Mit persönlichen Assistenten betritt künstliche Intelligenz die große Bühne. Die in den vergangenen fünf Artikeln vorgestellten Assistenten sind nur der Vorgeschmack auf einen generellen Trend. So werden Google, Apple, Microsoft und Co. ihre Helferlein schnell ausbauen, aber auch weitere Produkte werden nicht lange auf sich warten lassen.

Computer werden also zunehmend Entscheidungen treffen, die bisher Menschen vorbehalten waren. Daher sollte man rechtzeitig darüber nachdenken, wo man dabei die Grenzen ziehen will. (jo@ct.de)

Literatur
  1. [1] Der Sprachassistent deines Vertrauens, www.golem.de/news/cortana-der-sprachassistent-deines-vertrauens-1503-113037.html
  2. [2] Andreas Stiller, Die Moritat von Moores Tat, 50 Jahre Moore’sches Gesetz – Geschichte, aktueller Stand und wie es weitergeht, c’t 10/15, S. 72
Jenseits von Google Now, Siri, Cortana und Co.

Wir haben uns im Rahmen dieses Schwerpunkts auf fünf persönliche Assistenten beschränkt, Google Now, Siri, Cortana, Alexa und Hound. Darüber hinaus gibt es auch von anderen Unternehmen ähnliche Anwendungen auf KI-Basis. So ist zum Beispiel IBMs Watson ein System, das verschiedenste KI-Prinzipien einsetzt. Watson arbeitet zum Beispiel in IBMs Mail-Dienst Verse, wo er hilft, wichtige Mails hervorzuheben.

Forscher der Universität von Michigan haben eine Open-Source-Alternative zu Siri und Co. für Linux-Betriebssysteme entwickelt. Das Projekt Sirius soll im Gegensatz zu den kommerziellen Assistenten von Privatanwendern, Unternehmen oder Lehreinrichtungen verwendet und weiterentwickelt werden. Das Projekt steht auf GitHub zum Download bereit und muss von Hand kompiliert werden.

Für Smartphones gibt es eine Reihe weiterer Assitenten-Apps, unter anderem AIVC, Assistent und Alicoid. Teilweise erledigen diese einzelne Aufgaben anders oder sogar besser als die fünf ausführlich vorgestellten Assistenten. Alicoid zum Beispiel kann man sagen „Mach ein Foto und sende den Link an meine Freundin“ – Foto schießen, Dropbox/Drive-Upload und -Freigabe sowie Mail-Versand mit nur einem Befehl. Bei anderen Aufgaben, etwa einer Frage zu einem Fußballspiel, liefert Alicoid dafür nur „Die Begegnung No Data Available! gegen findet am Montag um 00:00 Uhr statt“.

Wahrscheinlich steht noch eine richtige Schwemme von Assistenz- und KI-Apps bevor. Die Technik ist einfach reif und steht Entwicklern an vielen Stellen offen, um sie in ihre eigenen Produkte einzubauen. Ende Juni hat zum Beispiel Amazon das API von Echo nebst Software-Entwicklungsumgebung freigegeben, damit andere Firmen damit eigene Produkte entwickeln können.

Artikel kostenlos herunterladen

weiterführende Links

Artikelstrecke
Anzeige
Anzeige