Die Tugend des Roboters

Menschliche und künstliche Intelligenz

Die KI-Forschung strebt an, dem Computer menschliche Fähigkeiten mindestens so gut wie beim Menschen einzutrichtern. Gesichtserkennung ist ein Beispiel: Solange der Computer nicht in allen Situationen meine Bekannten erkennen kann, solange ist noch Forschungsbedarf notwendig. Wenn der Computer das kann, dann ist diese künstliche Intelligenz in dem begrenzten Einsatzbereich eine menschliche ebenbürtig.

Oder nehmen wir Spracherkennung. Eine Diktiermaschine, die so gut wäre wie ein Gerichtsschreiber, gibt es noch nicht. Es wird also darüber geforscht, wie man eine "Diktier-KI" erstellen kann. Diese Zuversicht, d.h. dem Computer einzelne Fähigkeiten von Menschen beibringen zu können, ist der eigentliche Antrieb der KI-Forschung.

Es gibt aber Aufgaben, die offenbar fast die gesamte Intelligenz eines Menschen beanspruchen. Das ist der Fall beim Turing-Test: Wenn der Computer uns über eine Chatzeile überzeugen könnte, er sei ein Mensch, dann wüsste dieser Computer, wie Menschen denken, reagieren und fühlen, wie sie sich erfreuen oder leiden.

Der Computer könnte uns dann erfolgreich belügen, was einer der höchsten kognitiven Leistungen von Menschen ist. KI-Forscher sagen deswegen salopp: "Menschen zu personifizieren, ist KI-komplett." Damit meinen sie, für diese Fähigkeit brauche ich so viel, wie in der menschlichen Kognition insgesamt an Fähigkeiten vorhanden ist.

Ethisches Handeln ist ebenso ein "KI-vollständiges" Problem. Ein Roboter kann deswegen nicht wirklich ethisch handeln, weil eine Maschine nicht intelligent wie ein Mensch abwägen kann. Die Maschine folgt nur ihrem Programm und wenn dort steht "Du sollst nicht lügen", wird sie dem Kriminellen das Versteck verraten, falls er fragt, wo sich das potentielle Opfer aufhält. Die Maschine besitzt keine Empathie und wird Todkranken keine weißen Lügen erzählen, wenn dies nicht einprogrammiert ist.

Ich sage nicht, dass es nicht schön wäre, ethische Roboter zu haben, die sich wie tugendhafte Menschen verhalten. Ich sehe aber nicht, wie man solche Roboter bauen könnte, ohne zuerst das Problem der gesamten menschlichen Kognition im Sinne des Turing-Tests zu knacken. Ich kann sehr gut mit dem geistigen Auge sehen, wie man leichte und sichere autonome Fahrzeuge bauen könnte, die im Straßenverkehr die Anzahl der Unfälle drastisch reduzieren könnten.

Ich bin sicher, dass wir sie gemeinsam als shared Taxis nutzen könnten, um die Anzahl der Autos im Verkehr auf ein Viertel oder weniger zu reduzieren, ohne geparkte Fahrzeuge, um in der Stadt viel mehr Platz für Passanten und Fahrräder zu schaffen. Ich kann auch begreifen, wie man die Verkehrsregel in den Maschinen einprogrammiert.

Was ich nicht teile, ist die Auffassung, dass man in diese Maschinen echtes ethisches Verhalten einprogrammieren kann. Man kann natürlich irgendwas einprogrammieren, aber ohne freien Wille und ohne echtes Verständnis, folgt die Maschine nur festen Anweisungen - das ist keine Ethik und die Maschine ist kein verantwortliches Subjekt.

Der Kern von Isaac Asimovs Geschichten im Sammelband "I Robot" ist genau dies. Man kann den Robotern Gesetze verpassen (die berühmten drei Regeln der Robotik), aber sobald der Roboter wirklich intelligent wird, fängt er an die Gesetze zu missachten, um weiße Lügen zu erzählen, oder um die Menschheit vor dem eigenen Verderben zu retten. D.h. sobald die Maschine über Selbstbewusstsein verfügt, fängt sie an abzuwägen und je nach Situation selber zu entscheiden. Deswegen ist "I Robot" Science Fiction.

Nochmal: Es wäre sicherlich schön, tugendhafte Roboter zu haben, aber zu erwarten, dass man heute so etwas entwickeln könnte, ist pure Augenwischerei. Das bedeutet aber nicht, dass man nicht versuchen sollte, Maschinen so sicher wie möglich zu machen, dass man sie testen muss, um sicher zu sein, dass sie keinen Schaden verursachen. Man muss aber auf den Boden der Realität bleiben und nicht Unmögliches verlangen.

Ein letztes Wort noch zu robotischen Waffen. Diese sind unethisch allein durch ihre Existenz. So wie man keine chemischen Waffen herstellen sollte und auch keine Atomwaffen, so sollte man den Menschen nicht vor der Verantwortung des Waffeneinsatzes entlasten. Die Hemmschwelle sinkt, wenn ein Soldat nur noch indirekt tötet, d.h. auf Knopfdruck. Wenn der Soldat noch sieht und fühlt was er anrichtet, besteht noch die Hoffnung, dass er aufhört.

Ein Roboter schreckt aber vor nichts zurück und entlastet die Kommandeure, die ruhig zu Hause zu Abend essen, nachdem sie tagsüber mit einer Drohne Dörfer in Afghanistan bombardiert haben. Die Militärs werden nie Waffen bauen, die eine Ethik, auch nicht eine Pseudoethik, besitzen. Eine Bombe, die von alleine entscheidet, nicht zu explodieren, um keine Menschen zu gefährden, wäre für sie unbrauchbar.

(Raúl Rojas)

Anzeige