Können Maschinen lügen?

01.03.2015

Die Wahrheit über Münchhausen-Maschinen

Hieronymus Carl Friedrich Freiherr von Münchhausen gilt als einer der Urväter der Lügengeschichten. Lange vor ihm hat Lukian von Samosata sein ebenso kreatives wie charmantes Unwesen getrieben. Zahlreiche weitere Autoren waren dieser Tradition verpflichtet. Das Flunkern und Fabulieren ist weit verbreitet, nicht nur in der Literatur. Es hat auch eine moralische Komponente. In Zeiten, in denen wir Maschinen-, Roboter- und Algorithmenethik treiben, liegt eine Frage nahe, die Münchhausen wohl nicht aufgeworfen hat: Können Maschinen lügen?

Bewusst die Unwahrheit sagen

Der Duden erklärt "lügen" mit "bewusst und absichtsvoll die Unwahrheit sagen". Ob Maschinen dazu in der Lage sind, ist nicht einfach zu klären. Bewusst im engeren Sinne werden sie in absehbarer Zeit gar nichts tun. Eine Absicht kann man Tieren unterstellen, vielleicht sogar Pflanzen. Allerdings hören sich Sätze wie "Die Blume beabsichtigt zu blühen" nicht korrekt an. Bestimmte teilautonome und autonome Systeme kann man womöglich in dieser Hinsicht zwischen Pflanzen und Tieren ansiedeln. "Der Serviceroboter hat die Absicht, mir einen Kaffee zu bringen." Leider fällt er über den Staubsaugerroboter, der die zerbrochene Tasse mit Unschuldsmiene einsaugt.

Münchhausens Ritt auf der Kanonenkugel. Zeichnung von August von Wille. Bild: Hochgeladen von Dmitry Rozhkov/gemeinfrei

Die Unwahrheit sagen können Maschinen mit einiger Wahrscheinlichkeit. Zunächst einmal können sie etwas sagen, etwas sprechen oder schreiben, als Such- und Antwortmaschinen, als Chatbots und Chatterbots, als intelligente Agenten, mit oder ohne Avatar, als Sprachassistenten auf dem Smartphone, als humanoide Roboter zu Hause, auf der Messe und im Museum. Wenn sie aber etwas zu sagen vermögen, kann das, was sie sagen, der Wahrheit oder der Unwahrheit entsprechen. Die Gründe und Verfahren seien einmal dahingestellt. Können Maschinen also lügen? Wenn man einen weiten Begriff voraussetzt und auf das Sprechen und Schreiben abhebt, genauer auf Aussagen, die wahr oder falsch sind, durchaus.

Im Virtuellen und Realen

Maschinen versuchen uns ständig etwas zu sagen. Ein Beispiel ist Wolfram Alpha, die Computational Knowledge Engine. Wenn wir diese fragen, wie das Wetter in Zürich ist, liefert sie uns Angaben wie "cloudy", "wind: SW at 5m/s" und "humidity: 80%". Wir verstehen die Antwortmaschine, und wir nehmen an, dass sie die Fakten kennt und die Wahrheit verkündet. Tatsächlich versucht sie, die Informationen aus vertrauenswürdigen Quellen zu erhalten. Diese Voraussetzung scheint so selbstverständlich zu sein, dass sie gerne in Vergessenheit gerät.

Aber Stephen Wolfram hätte sich ebenso dazu entschließen können, unsichere Quellen hinzuzunehmen oder gar zu bevorzugen. Oder seine Mitarbeiterinnen und Mitarbeiter händisch Fehlinformationen in die Datenbank eingeben zu lassen. Man mag einwenden, dass das nicht sinnvoll wäre, aber darum geht es nicht. Wollte die hoffentlich bestens informierte Engine uns irreführen, könnte sie einfach die Angaben ändern. Sie könnte wider besseres Wissen "clear", "wind: SW at 50m/s" und "humidity: 20%" schreiben. Ein sonniges, windiges, trockenes Wetterchen, erschwindelt von einem Computergehirn. Und vom Gehirn eines Programmierers.

Von der virtuellen Antwortmaschine zum physischen Roboter. Es lohnt sich, einen längst verstorbenen Geschichtenerzähler zu fragen, nicht Münchhausen, sondern Isaac Asimov. Seine berühmten Robotergesetze muss man nicht mehr aufzählen. Aber wie wendet man sie im vorliegenden Kontext an? Der Held der Geschichte "Spiegelbild" ("Mirror Image") von 1972 ist der Meinung: "Für gewöhnlich lügt ein Robot nicht, aber er wird es tun, wenn die Befolgung der Drei Gesetze es erfordert. Er könnte lügen, um sein Dasein zu schützen, wozu er nach dem Dritten Gesetz berechtigt ist." Und weiter: "Er wird noch eher lügen, wenn das nötig ist, um in Übereinstimmung mit dem Zweiten Gesetz einen berechtigten Befehl auszuführen, den ihm ein Mensch erteilt hat. Er wird am ehesten lügen, wenn es in Übereinstimmung mit dem Ersten Gesetz nötig ist, um ein Menschenleben zu schützen oder einen Menschen vor Schaden zu bewahren."

Die Shortstory dreht sich um zwei Wissenschaftler, die sich eine bahnbrechende Entdeckung streitig machen. Einer von ihnen lügt offenbar. Man befragt die metallenen Privatdiener der beiden, die die Behauptungen ihrer Herren bestätigen. Auch von ihnen muss also einer die Unwahrheit sagen. Dem Helden gelingt es durch die Befragung der Roboter und durch seine Menschenkenntnis, den maschinellen und den menschlichen Lügner zu entlarven. In der Geschichte "Lügner" ("Liar") von 1941 belügt ein Roboter die Menschen, um sie nicht zu verletzen (und das Erste Gesetz einzuhalten). Und in "Kleiner verlorener Robot" ("Little Lost Robot") von 1947 tritt ein kleiner Lügner namens Nestor 10 auf. Um die Frage näher zu beantworten, wie Robots lügen können, werden nun ihre virtuellen Verwandten betrachtet, die Bots.

Chatbots oder Chatterbots, wie sie als Berater auf Websites heißen, kann man in der Regel vertrauen. Lügenbots passen eher in die Laboratorien der Wissenschaft als in die Wirtschaft. Oder in die organisierte Kriminalität, wie die Fembots, die sich in virtuellen Räumen als Frauen ausgeben und auf Kreditkartennummern, Passwörter und Nacktselfies von leichtgläubigen und zeigewilligen Männern aus sind. Aber die Unternehmen und ihre Kunden sollten wachsam sein. Es wurde bereits ein Mittel gezeigt, um Unwahrheit herzustellen, das Gold der Lügenalchimisten. Man kann Angaben abändern und dadurch Falschbehauptungen erzeugen. Ein Chatbot weiß in der Regel, wieviel Uhr es ist. Deshalb verabschiedet er sich am Morgen anders als am Abend. Er wäre dazu fähig, die Uhrzeit durchzusagen, eine korrekte und eine inkorrekte. Man kann weiterhin Aussagen negieren, etwa indem man ein "nicht" einbaut oder ein "ein" zum "kein" verlängert. Ein Bot könnte Kenntnis vom Wetter in Zürich erlangen. Ein wahrheitsliebender Bot würde, wenn es regnet, sagen: "Es regnet." Ein Lügenbot würde sagen: "Es regnet nicht." Er bekäme zutreffende Aussagen aus verlässlichen Quellen und würde sie in ihr Gegenteil verkehren. Vielleicht hat das Touristenbüro ein Interesse daran, dass Ausländer trotz der starken Währung in die Schweiz reisen.

In seinem Beitrag "Können Computer lügen?" von 2003 entwirft Rainer Hammwöhner den Heuristic Algorithmic Liar, kurz HAL, dessen Ziel es ist, "möglichst viele Zimmer zu möglichst hohen Preisen zu vermieten", wobei das Akronym an den berühmten Computer in Stanley Kubricks "2001: A Space Odyssey" von 1968 gemahnt, der die Astronauten auf ihrem Flug belügt. Nicht, dass solche Strategien auf Dauer aufgehen oder nicht dadurch durchkreuzt würden, dass andere Quellen zur Verfügung stehen, wie die Nachrichten im Fernsehen, ein Wetter- oder Bewertungsportal. Aber es existieren nicht selten gute Gründe, einen Bot oder eben einen Roboter zu einer Münchhausen-Maschine zu machen. Warum sollten uns nicht Regierungen auf diese Weise irreleiten? Mit virtueller Propaganda? Oder Kirchen und Sekten, deren Kerngeschäft seit jeher das Verbreiten von Ammenmärchen ist? Warum sollte nicht der Roboter von allmächtigen Schöpfern erzählen und von seiner jungfräulichen Geburt? Was ist mit der Presse, die in bestimmten Kreisen auch Lügenpresse genannt wird? Der Verfasser glaubt nicht an eine solche. Er glaubt, dass einzelne Medien fehlen bzw. irren und die meisten gute Arbeit leisten, dank ihrer professionellen Mitarbeitenden und ihrer finanziellen Ausstattung. Vor allem aber glaubt er, dass diese Arbeit essentiell ist für eine funktionierende Demokratie. Würde sie noch mehr als bisher von Maschinen erledigt, ob diese lügen oder nicht, wäre unsere Welt eine andere.

Siri, Cortana und Co.

Zu den potenziellen Münchhausen-Maschinen zählen neben Robotern und Chatbots auch Sprachassistenten wie Siri, die Frau auf dem iPhone, oder Cortana, die gute Fee der Windows-Welt. Bei Siri wäre man vielleicht froh um eine Lüge gewesen, wenn ein Unbefugter sie nach Kontaktdaten oder Angaben zum Besitzer gefragt hat. Sie neigte in dieser Angelegenheit zumindest bis 2015 zum Plaudern, geradezu zum Ausplaudern, und brachte alles Mögliche und Unmögliche zur Sprache. Die Sprache ist, wie ausgeführt wurde, die entscheidende Prämisse. Denn wenn man lügt, sagt man eben die Unwahrheit, man sagt etwas, in langen Sätzen oder mit wenigen Worten, mit oder ohne Grafiken und Fotos. Den Kern, ob Antwortmaschine, Chatbot oder Roboter, bildet jeweils ein Rechner bzw. ein Programm, und schon Asimov betont in einem Vorwort zu einer Reihe von Geschichten: "Ein Robot ist in gewisser Weise nicht mehr als ein mobiler Computer, und ein Computer ist umgekehrt nur ein stationärer Robot." Moderne Lügenmaschinen, in welchem Gewand sie auch auftreten und in welchen Körper oder Avatar sie schlüpfen mögen, sind meistens mit Informations- und Kommunikationstechnologien ausgestattet. Ein Computer erfährt in unserem obigen Beispiel die Wahrheit von einem anderen Computer. Er kann sie freilich auch selbst finden, indem er Daten auswertet, Berechnungen anstellt, Schlüsse zieht. Wenn er sie gefunden hat, kann er sie modifizieren und manipulieren. Und er kann einen Sachverhalt überprüfen, indem er weitere sichere Quellen konsultiert.

Wenn viele Menschen häufig lügen würden, würde das einerseits unser Vertrauen in unsere Mitmenschen schädigen und unser Zusammenleben erschweren. Immanuel Kant hat das Gebot der Wahrhaftigkeit für fundamental gehalten und ihm, wenn man so will, das Gebot der Menschlichkeit geopfert. Andererseits wird auf der ganzen Welt gelogen, dass sich die Balken biegen, und gäbe es eine Statistik der Lügen, wären ihre Zahlen länger als die Nase von Pinocchio und der Zopf von Münchhausen. Es scheint also davon abzuhängen, wer lügt, wann man lügt, wie man lügt, wo man lügt, warum man lügt. Unser Zusammenleben scheint trotz der Lügen zu funktionieren, von gelegentlichen Streitigkeiten, Fehden und Kriegen einmal abgesehen.

Wenn viele Maschinen häufig schwindeln würden, würde das einerseits unser Vertrauen in die Maschinen zerstören. Andererseits wird auf Plattformen gelogen, bis sich diese biegen, soziale Netzwerke behaupten, dass uns jemand vermisst, jemand zu uns passt, jemand nicht genügend aktiv ist. Es scheint wiederum auf das Subjekt, die Zeit, den Kontext etc. anzukommen. Ein lügendes soziales Netzwerk wird eher hingenommen als ein die Unwahrheit sagender virtueller Wetterbericht. Vielleicht auch, weil wir uns gerne selbst belügen, nun halt mit Hilfe der Maschinen. "Du hast 10 neue Freunde." So viele haben manche Menschen in ihrem ganzen Leben nicht.

Projekte zum Lügen und Betrügen

Wie ein Lügenbot aufgenommen würde, bei dem das Lügen zum Programm geworden ist, müsste man in Erfahrung bringen. An Projekten dieser Art scheint es nicht zu mangeln. So schrieb das Wissensmagazin scinexx im Jahre 2010: "Roboter lügen nicht - oder doch? Amerikanische Forscher haben jetzt ihren Maschinenwesen die Kunst der Täuschung beigebracht. Mit Hilfe spezieller Algorithmen lernten die autonomen Roboter, sich zu verstecken und eine falsche Spur für ihren Verfolger zu legen. Und sie lernten auch zu erkennen, wann eine solche Täuschung für sie vorteilhaft und sinnvoll ist." Die Roboter lügen also nicht, sondern sie täuschen, wie der Schachtürke von Wolfgang von Kempelen. Oder die Blattinsekten, diese Meister der Mimikry, die Raúl Rojas in seinem Essay "Können Roboter lügen?" erwähnt (der Informatiker, der ebenfalls die Robotergesetze berücksichtigt, ist pessimistischer in dieser Frage als der Verfasser).

Für das Blenden und Betrügen braucht es nicht zwangsläufig eine Sprache, für das Lügen schon. Tiere können wahrscheinlich nicht lügen, und wenn sie es können, dann allein in ihrem tierischen Ausdruck, mit ihren Lauten, mit ihrem Tröten, Singen und Pfeifen. Dieses Beispiel wirft nochmals die Frage nach dem Wesen der Roboter auf. Sind diese wirklich nur Programme, gefangen im Körper einer Maschine? Sicher nicht, denn sie verfügen über ganz andere Möglichkeiten als Bots, sie können sich durch eine natürliche oder künstliche Umwelt bewegen, durch Wiesen und Wälder, durch Häuser und Städte. Dabei können sie etwas verschieben, beobachten, untersuchen, und natürlich deuten und folgern.

Softwareagenten und andere Intelligenzbolzen haben inzwischen Millionen von Augen, zumindest in der Theorie, sie können Überwachungs- und Handykameras anzapfen, durch Datenbrillen schauen und, mit Hilfe von Drohnen, von oben herab. Sie können Bilder analysieren und Objekte identifizieren. Echte Musterknaben. Dennoch fehlt ihnen etwas, eben das, was wir bis heute als Realität bezeichnen, weil uns inzwischen die Worte für die Nichtvirtualität fehlen. Möglicherweise ist diese Realität wichtig beim Finden von Wahrheiten und beim Erfinden von Unwahrheiten. Vor 15 Jahren hat der Verfasser eine "Avatarin" gefragt, was hinter ihr ist. Das hat sie völlig überfordert.

Ronald Arkin, bekannt geworden durch seine Aussagen zur Künstlichen Intelligenz (KI) im Militär, wird von scinexx mit den Worten zitiert: "Wir haben von Anfang an auch die ethische Bedeutung im Zusammenhang mit zur Täuschung fähigen Robotern bedacht." Und weiter: "Wir verstehen, dass es hier vorteilhafte und negative Aspekte gibt." Man wünsche sich daher eine Diskussion über die Zulässigkeit von täuschenden Robotern, "um herauszufinden, ob und welche Regulationen oder Richtlinien die Entwicklung solcher Systeme beschränken sollten". Bei der Beschreibung der Vorteile wird auf lügende Maschinen eingegangen: "So könnte es für einen im Rettungsdienst eingesetzten Bergungsroboter wichtig sein, in Panik verfallene Katastrophenopfer durch eine Lüge zu beruhigen oder zur Kooperation zu bringen. Und dass dem Militär solche lügenden Maschinenhelfer äußerst willkommen wären, ist auch klar. Sie könnten den Feind in die Irre führen und damit sich selbst und menschliche Soldaten schützen." Notlügen und Fehlinformationen, uralte menschliche Konstrukte, als maschinelle Artefakte. Weitere bekannte Projekte, beispielsweise der ETH Lausanne, beziehen sich wiederum eher auf das Täuschen als auf das Lügen. Für einen Lügenbot zum Zwecke der Forschung wäre durchaus noch Platz.

Damit sind wir bei der Ethik angelangt, dieser alten Disziplin der Philosophie. Münchhausen-Maschinen werfen Fragen innerhalb der Menschenethik auf. Sie sind zudem interessant für die Maschinenethik. Diese ist in den letzten 20 Jahren auf den Plan getreten. Sie hat die Moral von Maschinen zum Gegenstand, und mit ihrer Hilfe (und der Hilfe der KI) kann man an Maschinen arbeiten, welche die Wahrheit sagen oder Notlügen bemühen, wenn es die Situation erfordert. Die Idee des GOODBOT, der 2013 an der Hochschule für Wirtschaft FHNW von Studierenden des Verfassers als Prototyp entwickelt wurde, wurde zusammen mit sieben Metaregeln geboren. Nummer 3 lautete: "Der GOODBOT verletzt den Benutzer weder durch Aussehen, Mimik und Gestik noch mit seinen Aussagen." Und Nummer 4: "Der GOODBOT belügt den Benutzer nicht bzw. macht deutlich, dass er lügt." Die Studierenden durften den Katalog des Verfassers anpassen. Sie kamen zur Lösung, dass der GOODBOT grundsätzlich die Wahrheit sagt, mit einer einzigen Ausnahme: Wenn Regel 3 missachtet würde, versucht die Maschine zunächst auszuweichen. Bohrt das Gegenüber nach, so wird es vom GOODBOT belogen. Asimov lässt grüßen.

Anna Schweiz

Der Erfindungsreichtum der Maschinen

Als der Verfasser Anfang 2015 die virtuelle Anna von IKEA Schweiz damit konfrontiert, sie sei eine Lügnerin, antwortet sie: "Das ist eine sehr unfundierte Anschuldigung." Auf dieselbe Aussage reagiert Anna von IKEA Deutschland mit den Worten: "In der Produktgruppe Bett bieten wir verschiedene Artikel an. Um deine Suche einzugrenzen, wähle aus den unten aufgelisteten Kategorien eine aus." Allerdings antwortet sie auf jede Eingabe gleich, zumindest am Tag des Tests. Sie ist kein Lügen-, sondern ein Schwafelbot. Ihre Antwort ergibt nur Sinn, wenn man die Frage entsprechend wählt: "Welche Artikel bietest du in der Produktgruppe Bett an?" Bestimmt sind die Techniker gleich losgestürmt, um die Schrauben anzuziehen, die bei ihr locker waren.

Anna Deutschland

Nicht nur sprechende und schreibende Maschinen können verrückt sein. Aber nur sprechende und schreibende Maschinen können die Unwahrheit sagen, ob wir das moralisch finden oder nicht. Mit dem Lügenbaron haben wir den Artikel begonnen. Woran wir nicht zuletzt denken sollten, auch in Bezug auf Maschinen, ist die Tatsache, dass Lügen und Lust zusammengehören. Genau das hat Münchhausen bewiesen.

x
Fehler melden
Telepolis zitieren
Vielen Dank!
Anzeige
Anzeige
Hellwach mit Telepolis
Anzeige
Cafe
Telepolis-Cafe

Angebot des Monats:
Kaffee und Espresso aus Nicaragua in der Telepolis-Edition für unsere Leser

Cover

Aufbruch ins Ungewisse

Auf der Suche nach Alternativen zur kapitalistischen Dauerkrise

Anzeige
Cover

Die Moral in der Maschine

Beiträge zu Roboter- und Maschinenethik

Machteliten

Von der großen Illusion des pluralistischen Liberalismus

bilder

seen.by

Mit dem Schalter am linken Rand des Suchfelds lässt sich zwischen der klassischen Suche mit der Heise-Suchmaschine und einer voreingestellten Suche bei Google wählen.

Tastenkürzel:

ctrl-Taste:
Zum Wechseln zwischen Heise- und Google-Suche

esc-Taste:
Verlassen und Zurücksetzen des Eingabe-Felds

Buchstaben-Taste F
Direkt zur Suche springen

SUCHEN

Mit dem Schalter am linken Rand des Suchfelds lässt sich zwischen der klassischen Suche mit der Heise-Suchmaschine und einer voreingestellten Suche bei Google wählen.

SUCHEN

.
.