Intelligenz hat mit Interaktionen zwischen Individuen zu tun

Florian Rötzer im Gespräch mit dem KI-Forscher Luc Steels über den Ansatz des Künstlichen Lebens und Robotergemeinschaften.

Luc Steels ist Direktor des Sony Computer Science Laboratory in Paris und des Artificial Intelligence Laboratory der Freien Universität Brüssel. Schwerpunkt seiner Forschung sind die Ursprünge der Intelligenz und vor allem die der Sprache. An seinem Institut werden auch virtuelle Agenten entwickelt, die einfache Aufgaben in der Kommunikation mit Menschen übernehmen sollen. Von Steels stammen wichtige Beiträge zur Forschungsrichtung des Künstlichen Lebens. Er geht davon aus, daß Intelligenz mit sozialen Interaktionen zu tun hat, weshalb die Bildung von interagierenden Robotergemeinschaften für seine Forschungsarbeit zentral sind.

Luc Steels: Agenten- und Robotergemeinschaften

Talking Heads
Mit der Forschungsrichtung des Künstlichen Lebens scheint es für den Ansatz der Künstlichen Intelligenz eine Konkurrenz oder zumindest eine Alternative zu geben. Du selbst sprichst von den Wurzeln der Künstlichen Intelligenz im Künstlichen Leben. Worin liegt das wirklich Neue zur Konstruktion von intelligenten Systemen unter dem Titel des Künstlichen Lebens?
Luc Steels: Zunächst bin ich nicht sicher, ob wir das als eine Konkurrenz betrachten sollen. Der Ansatz des Künstlichen Lebens beschäftigt sich vor allem mit lebendigen Systemen, und er hat sich entwickelt, um lebendige Systeme besser zu verstehen. Manche der dabei entwickelten Ideen lassen sich auf die Künstliche Intelligenz übertragen. Daher handelt es sich nicht so sehr um eine Konkurrenz, sondern um das Einbringen neuer Ideen in den Bereich der KI.
Welche Ideen sind das? Der klassische Ansatz der KI hat sich, ebenso wie ein Großteil der Kognitionspsychologie oder der Gehirnwissenschaft, stark auf das Individuum konzentriert. Man suchte also Kognition vom Individuum aus zu verstehen. Ein anderes Merkmal des klassischen Ansatzes ist der Versuch, diese Individualität explizit zu modellieren. Der Programmierer oder Forscher konstruiert das Modell einer bestimmten intelligenten Verhaltensweise und implementiert sie in ein Computersystem. Aber diese Implementation ist in gewissen Sinne erstarrt. Die modellierte Intelligenz erstarrt, sobald sie sich im System befindet, da sie sich nicht mehr ändert und fixiert bleibt.
Aus meiner Sicht bringt der Ansatz des Künstlichen Lebens zwei wirklich neue Ideen in die KI. Anstatt zu versuchen, Intelligenz auf der Grundlage des Individuums zu erklären, versucht KL Intelligenz als etwas zu verstehen, das mit den Interaktionen zwischen Individuen zu tun hat. Deshalb sind die strukturellen Elemente der sozialen Gemeinschaft von Bedeutung. Der zweite neue Ansatz besteht darin, nicht Intelligenz explizit zu modellieren und zu implementieren, sondern zu versuchen, die Mechanismen zu verstehen, die Intelligenz erzeugen oder sie in künstlichen Systemen emergieren lassen. Folglich wird nicht nur die soziale Struktur mit einbezogen, sondern auch die Interaktion zwischen den Agenten und ihrer Umwelt. Die Idee ist, daß man Intelligenz nicht verstehen kann, wenn man nur auf ein isoliertes Individuum schaut. Man muß dessen Interaktion mit anderen Individuen und mit der Umwelt betrachten.
Die Voraussetzung ist dann aber doch auch, daß Intelligenz verkörpert sein muß, also daß sich ein intelligentes Wesen mit irgendeiner Art von Körper in einer Welt befindet?
Luc Steels: Ja, auch wenn ich glaube, daß die Kritik an der KI, weil sie nicht verankert ist, zwar für bestimmte Bereiche der KI zutrifft, wir aber nicht die Arbeit mit Robotern oder Ansätzen wie den Projekten von Stanford in den 70er Jahren vergessen sollten, die auch Sprache, Planung und Wissensrepräsentation bei Robotern untersuchten. Diese Kritik an der KI wurde oft übertrieben. Der neue Ansatz geht jedoch im Besonderen davon aus, daß man Intelligenz nicht über die Herstellung von Modellen verstehen kann. Man muß sie in einer situierten Weise im komplexen Zusammenhang des Körpers mit der Umwelt und der sozialen Struktur betrachten.
Du sprachst von der Emergenz der Intelligenz. Man will, daß Verhalten sich entwickelt, und orientiert sich dabei am Modell der biologischen Evolution. Lassen sich die biologische Evolution und ihre grundlegenden Mechanismen tatsächlich bei technischen Systemen reproduzieren?
Luc Steels: Die Evolutionsprinzipien sind sehr allgemein, und sie sind nicht die einzigen Prinzipien, die man in der KL-Forschung verwendet, um den Ursprung von Komplexität zu erklären. Wir müssen zwischen genetischer Evolution und anderen Evolutionstypen, z.B. der kulturellen Evolution, unterscheiden. Wenn wir von der Chemie und allem anderen abstrahieren, was die genetische Evolution der lebenden Systeme auszeichnet, dann stellt es sich heraus, daß wir dieselben Techniken zur Erzeugung von Komplexität in künstlichen Systemen einsetzen können. Natürlich liegen den Kopiervorgängen keine bio-molekularen Prozesse wie beim Kopieren der DNS zugrunde. Die Interpretation des Codes erfolgt auch nicht mittels der Proteine wie in genetischen Systemen. Daher ist die Implementation unterschiedlich, aber es handelt sich um dieselben zugrundeliegenden Prinzipien. Man benötigt eine Repräsentationsweise wie die DNS, aber das kann auch durch eine andere Repräsentation geschehen. Man benötigt einen Kopiermechanismus, der die Repräsentation bewahrt, und es muß Kopierfehler wie Mutationen oder Cross-over-Mechanismen geben. Es ist auch ein selektiver Druck erforderlich, der die Population in eine bestimmte Richtung treibt. Wenn man diese elementaren Ingredenzien synthetisiert, dann gelangt man zu sich evolutionär entwickelnden künstlichen Systemen.
Eine Nebenfrage zur kulturellen Evolution. Kann man denn, wenn man im Bereich des Künstlichen Lebens arbeitet, von der Memetik, wie sie der Evolutionstheoretiker Richard Dawkins formuliert hat, etwas lernen?
Luc Steels: Die Idee von Dawkins wurde bislang nicht detailliert ausgearbeitet. Die Theorie befindet sich daher noch im Stadium eiber bloßen Idee. Mein Ansatz ist technischer, d.h. wir führen wirklich bereits Simulationen kultureller Evolution durch und bemerken, daß eine neue Vorstellung in einer Population von Agenten aufkommt und sich dort verbreitet.
Die Idee von Dawkins besteht vor allem in der Analogie zwischen dem Gen und dem Mem als sich ähnelnde replizierende Einheiten der Evolution. Wenn in deinen Versuchen bei Roboterpopulationen Begriffe evolutionär auftauchen und sich verbreiten, worin ließe sich denn hier dann die mit einem Gen vergleichbare Grundeinheit finden?
Robotfisch
Luc Steels: Persönlich bin ich intensiv mit der Erforschung des Ursprungs der Sprache und, damit zusammenhängend, mit dem Ursprung von Begriffen beschäftigt. Meme sind nicht nur Begriffe, sondern auch Sachverhalte oder Zugänge zu Problemen. Wir machen das, indem wir Softwaresimulationen oder auch Simulationen mit Roboteragenten erstellen, die Sprachspiele spielen.
Eines meiner aktuellen Experimente nennt sich "Talking Heads Experiment", bei dem es zwei Roboterköpfe mit einer Kamera gibt, die sich bewegen und Gegenstände in dynamischen Szenen verfolgen können, in denen Objekte sich evolutionär entwickeln oder sich bewegen. Diese zwei Roboterköpfe spielen miteinander Sprachspiele, d.h. sie erzählen einander, was sie sehen. Was sehen, muß visuell interpretiert und in Begriffe gefaßt werden. Sie müssen die von ihnen verwendeten Wörter in einem Lexikon nachschauen, syntaktische Strukturen hinzufügen und Laute einsetzen, um zu kommunizieren. Das ist schon schwierig genug, doch das Ziel des Experiments ist, daß alles emergiert: die auf der Wahrnehmung basierten Begriffe, das Lexikon, die Syntax, das Repertoire an Lauten. Alles soll von den Agenten erzeugt werden, wenn sie dieses Spiel spielen. Wir führen diese Experimente aber auch mit vielen Agenten und mit mobilen Robotern durch.
Beispielsweise läßt sich beobachten, daß ein Agent, wenn sein Partner einen bestimmten Begriff prägt, z.B. eine Farbe, oder ein endgültige Unterscheidung zwischen Farben trifft und diese Unterscheidung dann in das Sprachspiel einbringt, dadurch stimuliert wird, eine ähnliche Unterscheidung vorzunehmen. In diesem Sinne ist Sprache eine Möglichkeit, andere zu stimulieren und Begriffe zu verbreiten. Und Begriffe sind ein Beispiel für das, was Dawkins unter einem Mem versteht. In unseren Experimenten konnten wir zeigen, wie ein neues Wort sich verbreitet oder wie ein Begriff, der von einem Agenten geprägt wurde, sich auf einen anderen Agenten verbreitet. All das läßt sich konkret machen. Es kann experimentell untersucht und in künstlichen Systemen gezeigt werden.
Die interagierenden Roboter entwickeln aber keine menschliche Sprache, sondern ihren eigenen Dialekt?
Luc Steels: Ja, aber ihre Sprache besitzt die Merkmale natürlicher Sprachen. Sie hat dieselben Eigenschaften und dieselbe Komplexität. Natürlich ist es ihre eigene Sprache. Ein Teil der Idee ist, daß die Roboter, wenn Menschen mit diesen Robotern aus der Perspektive ihrer eigenen linguistischen Konventionen spielen, sich daran anpassen. Das veranschaulicht sehr schön, was ich zuvor gesagt habe. Um den Ursprung der Sprache und der Begriffe zu verstehen, muß man die Agenten in eine Umwelt stellen und die kollektiven Prozesse beobachten. Es gibt keinen Agenten, der die ganze Situation kontrollieren kann. Die Sprache ist ein verteiltes Phänomen. Sie wird nicht hineinprogrammiert und eingefroren, sondern sie ist das Ergebnis einerseits der Interaktionen zwischen den Robotern und der Umwelt, den Szenen und den Dingen, die sie sehen, sowie den Unterscheidungen, die sie machen müssen, und andererseits der Interaktionen zwischen ihnen selbst. Es muß mindestens zwei Roboter geben, um eine Sprache entstehen zu lassen.
Mittlerweile geht man davon aus, daß es in der Entwicklung der Sprache eine Evolution gegeben hat und daß sie noch weiter geht. Die Sprache ist ein weiteres Beispiel für ein evolutionäres Phänomen. Sie geschieht nicht auf der Ebene der Gene, sondern auf der der Sprache selbst. Daher ist Künstliches Leben eine reichhaltiger Spender von Ideen und Techniken, die zur Erforschung der Sprache eingesetzt werden können.
Wenn man Künstliches Leben mit Simulationen von Agentengemeinschaften oder dem Bau von Roboterpropulationen untersucht, dann könnte daraus doch auch eine andere Sicht des biologischen Lebens entstehen. Bislang ging man davon aus, vereinfacht ausgedrückt, daß die Evolution vom Egoismus vorangetrieben wird, also durch den Kampf ums Überleben jedes einzelnen Gens. Wenn aber ein Verhalten aus der Interaktion von vielen Systemen entsteht, dann spielt auch die Kooperation eine gewisse Rolle.
Luc Steels: Es ist ganz eindeutig wahr, daß die treibende Kraft bei allem, was ich jetzt mache, Kooperation und kollektive Kohärenz sind. In die Agenten ist sozusagen eingebaut, daß sie kooperieren. Daher ist das eine andere Voraussetzung als die, die in der Biologie oft unterstellt wird, zumindest von manchen Biologen, nämlich daß es einen ganz elementaren Trieb zum Überleben im Individuum oder im Gen gibt. Ich nenne meine Idee vom Ursprung der Sprache die Hypothese der egoistischen Sprache, weil die Sprache als kollektives Phänomen die Agenten benutzt, um sich zu übertragen oder sich zu erhalten. Die Sprache hängt nicht von einem einzelnen Agenten ab, sondern sie erhält sich selbst, weil sie in solchen Sprachspielen übertragen wird. Genauso wie Dawkins sagen würde, daß die Gene die Körper der Organismen ausbeuten, in denen sie sich befinden, gehe ich davon aus, daß die Sprache den Geist der Agenten ausbeutet. Man kann dieselbe Idee auch auf soziale Faktoren anwenden. Die Kultur ist wie die Sprache ein emergentes Phänomen. Wenn sie einmal vorhanden ist, dann besitzt sie auch die Mechanismen zur Selbsterhaltung. Daher kann man in diesem Fall tatsächlich behaupten, daß die soziale Struktur eine Macht besitzt, die mindestens ebenso groß ist wie die des Individuums. Auf der individuellen Ebene kann die treibende Kraft zur Kooperation und Kohäsion zwingen. Folglich übt die Sprache auf eine Gruppe den Zwang zur sprachlichen Kohäsion aus.
Die grundlegende Idee bei den Sprachspielen ist, daß Roboter- oder Agentenpopulationen evolutionär eine Sprache entwickeln. Wie autonom sind sie dabei? Man muß doch Randbedingungen durch die Versuchsanordnung und durch die Beschaffenheit der technischen Systeme setzen, innerhalb derer sich erst eine Evolution entfalten kann?
Luc Steels: Es ist klar, daß es Beschränkungen gibt, weil beispielsweise der Körper, die Sensoren, die Bewegungsmöglichkeiten, die in der Umwelt befindlichen Objekte eine wichtige Rolle bei der Formung der Sprache spielen. Folglicherweise hat der Versuchsleiter eine wichtige Rolle. Wenn man die Roboter in eine andere Umgebung bringt, werden sie eine andere Sprache entwickeln.
Ich befürworte keinen absoluten kognitiven Relativismus. Natürlich gleicht die Art, wie diese Roboter eine Sprache entwickeln, der Perspektive, wie eine Kultur auf die Welt sieht, diese in Begriffe faßt, sie mit Worten ausdrückt usw. Aber es gibt eine Welt. Wenn eine andere Robotergruppe ihre eigene Sprache in derselben Umwelt zu entwickeln beginnt, wird diese sehr ähnlich sein, weil sie über dieselbe Welt sprechen. Ich sage das, weil es im Augenblick eine große Diskussion über den Relativismus, besonders in den Sozialwissenschaften, gibt.
Hans Moravec etwa prophezeit, daß vor allem durch die Steigerung der Prozessorgeschwindigkeit bald intelligente, autonome Roboter entstehen werden, die auch den Menschen überlegen sein könnten. Wird es wirklich bald Roboter geben, die in einer bestimmten Umgebung relativ autonom arbeiten und leben können?
Luc Steels: Ich persönlich teile nicht diese sehr optimistischen Vorhersagen über die Zukunft der Roboter. Der technische Stand in der Robotik ist noch immer sehr, sehr primitiv. Zu behaupten, daß es bald autonome und gehende Roboter geben wird, stimmt nicht. Es gibt mechanische Probleme, die auf der Hand liegen. Die Computerkapazität, über die wir heute verfügen, entspricht der einer Biene, keineswegs derjenigen von Primaten und schon gleich gar nicht derjenigen von Menschen. Nur im Hinblick auf die Herstellung der erforderlichen reinen Computerkapazität und der Speichergröße gibt es noch viel zu tun. Und dann können wir noch nicht einmal massiv parallele Maschinen programmieren. Wir sind mit unserer Arbeit, wie ich glaube, schon ziemlich weit gekommen, aber trotzdem stehen wir erst am Beginn des Weges. Wir müssen auf den Berg steigen und befinden uns noch immer im Tal. Deswegen bin ich weit weniger optimistisch als viele andere. Der Trick besteht nicht darin, autonome Roboter als gefrorene Form zu bauen und sie dann agieren zu lassen, sondern zu lernen, wie wir derartiges evolutionär sich entwickeln und sich an die Umwelt anpassen lassen können.
Wäre es denn nicht leichter, Roboter nicht als materielle Wesen in der wirklichen Welt, sondern nur als Software Agenten in der virtuellen Welt zu bauen?
Luc Steels: Das ist richtig, aber die Softwareagenten haben dann keine Verbindung mit der wirklichen Welt, weil sie keinen Körper besitzen. Sie werden grundlegende Dinge wie Farben überhaupt nicht verstehen können. Man könnte sagen, daß eine Farbe oder ein Laut auf eine bestimmte Weise codiert ist, aber das stellt keine Erfahrung der Farbe oder des Lauts dar. Sie haben keine Erfahrung mit sozialen Beziehungen und keine Begriffe für sie. Viele Menschen unterschätzen die unglaubliche Kapazität des menschlichen Geistes und die unglaubliche Komplexität der sozialen, sprachlichen oder kulturellen Strukturen, die sich immerzu verändern und sich anpassen. Das Ziel meiner Forschung ist nicht, einen Roboter zu bauen, der unser Geschirr spült oder etwas Ähnliches macht, sondern es ist ein wissenschaftliches Projekt, um die Ursprünge des Geistes, der Kultur und der Sprache besser zu verstehen. Ich sage daher eher, daß unsere Forschung alte grundlegende Fragen aufgreift, die für die Philosophie im Vordergrund standen, als zu behaupten, daß es sehr bald autonome Roboter gibt.

Aus dem Englischen übersetzt von Florian Rötzer (Florian Rötzer)