Künstliche Intelligenz: Schlauer mit Gefühl

Maschinen agieren bisher rein rational. Doch Forscher sind überzeugt, dass erst Gefühle sie richtig klug machen.

Lesezeit: 3 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen
Von

Ein Roboter, der Angst hat oder Stress empfindet: Auf den ersten Blick erscheint das absurd und unnötig. Hemmen uns diese Gefühle nicht, verhindern sie nicht, dass wir unsere Ziele erreichen? Warum wollte man so etwas in einen Roboter implementieren? Erst bei genauerem Hinsehen wird klar, wie nützlich Emotionen für kognitive Prozesse sind. Nicht etwa, um möglichst menschenähnlich zu werden, sondern um komplexe Aufgaben besser bewältigen zu können.

Mehr Infos

"Emotionen sind andere Wege zu denken", schrieb der amerikanische KI-Forscher Marvin Minsky 2006 in seinem Buch "The Emotion Machine". Sein einleuchtendes Argument: Programme voller Vorgaben für jede Eventualität werden zu komplex, während Emotionen häufig auf einem anderen Weg zur "richtigen" oder ökonomischen Verhaltensweise führen.

Schließlich denken wir Menschen in bestimmten Situationen auch nicht nach, sondern handeln spontan – weil es nötig ist. So verändert sich etwa unsere Wahrnehmung, wenn wir in Gefahr sind oder uns in Gefahr vermuten: Wir sehen die potenzielle Bedrohung größer, wir meiden instinktiv dunkle Ecken, gehen bedrohlich wirkenden Menschen aus dem Weg. "Wir haben eine kognitive Verzerrung, einen sogenannten Bias, in der Wahrnehmung von Gefahr", sagt Eva Hudlicka von der University of Massachusetts Amherst: Wir wissen ganz genau, worauf wir uns konzentrieren müssen. "Dieser Bias hilft uns, Prioritäten zu setzen und dadurch schnell zu reagieren." Von solch einem Bias könnte auch ein Roboter profitieren, ist die Informatikerin und Psychologin überzeugt.

Sie will beispielsweise erreichen, dass Roboter in gefährlichen Situationen nicht erst lange rechnen müssen und Gefahr laufen, vom "Löwen" gefressen zu werden. Aber die Forscherin weiß genauso: Wird die Angst zu groß, kann sie zum Gegenteil führen, weil die Roboter erstarren. "Wo diese Grenze liegt, versuchen wir gerade herauszubekommen", sagt Hudlicka. Was genau tragen Emotionen zur Kognition bei? Welche Schlüsseleindrücke repräsentieren Gefahr? Was genau ist gruselig? Und was geschieht, wenn die durch vermeintliche Bedrohung ausgelösten Funktionen die Oberhand gewinnen?

Um das zu testen, simulierten Hudlicka und ihre Kollegen eine Such- und Rettungsaktion im verschneiten Gelände. Dabei sollte ein Team künstlicher Agenten auf Pistenraupen Verirrte finden und retten. Manche Agenten bekamen einen ängstlichen Bias implementiert: Alles, was gefährlich sein könnte, bekam in ihrer Programmierung Vorrang vor allem anderen – also einen höheren Wert. Andere Agenten hingegen behielten mehr den Blick für das große Ganze – in ihren Rechenvorschriften bekamen potenziell gefährliche Situationen einen kleineren Wert.

Das Ergebnis war ein spannender Teamprozess: Die ängstlicheren Agenten waren zwar teilweise schneller und konnten bei Gefahr besser priorisieren, achteten aber nicht darauf, ob noch genügend Benzin im Tank war. Wer von welchem Bias profitiert, hängt letztlich von seiner Aufgabe ab. "Für den Sicherheitsinspektor einer Fluglinie ist ein Bedrohungs-Bias hilfreich", sagt Hudlicka. Wer hingegen andere von etwas überzeugen möchte, für den ist Risikobewusstsein weniger zielführend.

Auch wenn es Menschen vielleicht nicht gern hören: Die Simulation zeigt, dass hinter der Funktion von Emotionen erstaunlich viel Logik steckt. Joost Broekens, Professor Affective Computing an der Delft University of Technology, bringt das auf eine einfache Formel: "Warum bist du glücklich? Weil etwas geschehen ist, das gut ist für deine aktuelle Situation." Die Situation hat an Wert gewonnen – und zwar im Vergleich zu vorher. Das Erkennen dieses Unterschieds ist das Entscheidende. "Viele Emotionen entstehen aus der Interaktion mit der Umwelt", sagt Broekens. Und was nach dem oben genannten Schema erklärt werden kann, kann auch programmiert werden.

Bei komplexeren Emotionen wie Schuldgefühlen ist die Situation deutlich komplizierter. Wieso empfänden etwa kleine Kinder keine Schuld? "Niemand kann diese Emotion endgültig erklären, auch die Psychologen nicht", sagt Broekens. Dennoch verbergen sich auch dahinter logische Zusammenhänge. Sie liegen nur so weit im Leben zurück und sind von teilweise unbewusst gemachten Erfahrungen geprägt, dass sich der rote Faden verliert. "Am Ende lernst du, dass ein ganz bestimmtes unangenehmes Gefühl zu folgender Situation gehört: Ich habe etwas getan, jemand anderes leidet darunter, das wollte ich nicht", erklärt Broekens. Wer sich das klarmache, für den sei auch klar, wie absurd es ist, Emotion und Kognition trennen zu wollen. "Nur der Teil, bei dem man entdeckt, ob sich etwas gut oder schlecht anfühlt, ist Emotion. Der Rest ist, die Situation zu verstehen, in der es geschehen ist." Kognition also. Der rote Faden.

Ihm will Broekens nun folgen, um Maschinen Gefühle beizubringen. Virtuelle Agenten sollen lernen, mit der Zeit zu erkennen, ihre aktuelle Situation im Vergleich zur vorangegangenen zu bewerten und woher das Gefühl von Freude oder Stress kommt. Sie betreiben Mustererkennung, eine typische Domäne maschinellen Lernens: Hat sich meine Situation im Vergleich zu jener vor einer Stunde verbessert? Kann ich jetzt etwas korrekter vorhersagen? Dann entsteht das Gefühl von Glück. Mittels dieses Trainings wird der Agent immer besser darin, Emotionen zu entwickeln. Lernen seine Agenten beispielsweise etwas, können sie dieses Erfolgserlebnis nicht nur Menschen vermitteln, sondern die Erkenntnis auch zur Optimierung nutzen.

Nicht zuletzt ist eines von Broekens' Zielen also auch, die Mensch-Roboter-Interaktion zu erleichtern. Aber nicht, indem Roboter nett lächeln und sympathisch wirken. Sie sollen vielmehr Gefühle ausdrücken können und damit für Menschen berechenbar werden – und andersherum. "Es ist nicht schlecht, die Absichten von jemandem zu erahnen – bevor er dich haut."

Einige Forscherkollegen machen Broekens allerdings den Vorwurf, er würde Roboter vermenschlichen oder seltsamen metaphysischen Ideen anzuhängen. Deshalb nennen manche Wissenschaftler diese Mechanismen nicht "Emotionen". Broekens selbst hat zwar kein Problem mit dem Begriff, aber er kann den Einwand nachvollziehen. Seinen Agenten "echte" Gefühle zuzuschreiben, sei eine falsche Vorstellung. "Am Ende sind das alles Zahlen", sagt er. Auch seine Kollegin Hudlicka betont: "Das alles heißt nicht, dass die virtuellen Agenten Emotionen haben." Es bedeute vielmehr, sich von den Menschen das abzuschauen, was in manchen Situationen deren effizientes Handeln auslöst. Davon könnten Maschinen enorm profitieren.

(bsc)