Ich denkender Körper

Während die Künstliche Intelligenz eine neue Blüte erlebt, spricht sich endlich herum, dass das Gehirn kein Computer ist

Schauen Sie sich um. Wie weit können Sie mit Ihrer Hand reichen? Probieren Sie es aus: Hatten Sie recht? Woher wussten Sie das?

Beim Klettern weiß man es jederzeit, und das hat mich immer fasziniert. Man tatscht nicht an der Wand herum, um zu prüfen, ob man den großen Griff erreicht. Man weiß, dass man ihn erst erreicht, wenn man den rechten Fuß noch auf den miesen Tritt und den linken in die Mulde stellt. So wie man weiß, ob man an einer niedrigen Tür den Kopf einziehen muss. Ein Zollstock wird nicht benötigt.

Offensichtlich nehmen wir unsere unmittelbare Umwelt nicht nur als Struktur physikalischer Reize wahr, sondern in Bezug auf unsere Möglichkeiten. Wir vermessen unseren Bewegungsraum in Einheiten unseres Körpers. Wahrnehmen und Handeln fallen zusammen.

Das ist eine der Erkenntnisse der Denkschule der Embodied Cognition, die in den letzten Jahrzehnten allmählich den schon klassischen Kognitivismus abgelöst hat. Für den Kognitivismus spielt die Verkörperung des denkenden Wesens keine Rolle: Sinneswahrnehmungen sind Rohmaterial des Denkens, das von den Sinnesorganen frei Haus geliefert wird. Das Denkorgan analysiert sie, macht interne Repräsentationen daraus, verknüpft sie mit anderen, zieht Schlüsse - und bewirkt erst dann eine Handlung. Wahrnehmen - Denken - Handeln sind darin ein linearer Ablauf. Und Denken ist das Hantieren mit Begriffen, das Operieren mit Symbolen. Ob in einem Gehirn oder einem Computer spielt eine untergeordnete Rolle.

Vielleicht hat die Anatomie des menschlichen Gehirns diese kognitivistische Sicht noch bestätigt. Auffällig zieht sich in Lehrbuchdarstellungen (viel weniger auffällig im echten Gehirn) der zentrale Sulcus von oben nach unten durch jede Hemisphäre und teilt sie: Dahinter liegt Wahrnehmen, davor liegt Tun. Hinten wird die Welt analysiert, dann wird irgendwo gedacht (im Zweifelsfalle ganz vorne), und dann schickt der Motorkortex seine Befehle nach draußen.

Aber so ist es nicht, und die körperbezogene Vermessung der Welt ist nur ein Beispiel dafür. Schon Wahrnehmung erfordert Handlung, Sprachverstehen ist innere Bewegung, Denken ist körperlich. Und es kommen noch die Gefühle dazu. Ganz zu schweigen von den Bakterien in unseren Gedärmen und dem Licht auf unserer Haut, die mit beeinflussen, wie wir uns fühlen und was wir tun.

Wahrnehmung erfordert Handlung

Was unsere Hauptsinne betrifft, so halten wir uns meist für passive Rezipienten. So untätig wir auch sitzen, es strahlt doch das Licht in unsere Augen, es schwingt doch der Schall in unsere Ohren. Doch das täuscht. Man muss nur die Aufmerksamkeit verlagern auf den im Tierreich wohl am weitest verbreiteten Sinn: das Tasten. Einfach die Handflächen vor sich zu halten, vermittelt so gut wie keine Information (außer vielleicht Temperatur und Luftzug). Um tastend etwas wahrzunehmen, müssen wir die Hände über eine Oberfläche bewegen.

Und wenn wir genauer hinsehen, ist das auch beim Sehen so: Wir sehen genauer hin. Wir erkunden die Umwelt neugierig und aktiv, wenn wir nicht gerade vor dem Fernseher sitzen, wir tasten die Welt mit den Augen ab. Nicht grundlos empfinden Frauen bisweilen Blicke als übergriffig. Und dabei beginnt es schon viel einfacher: In den Sakkaden flackern unsere Augen ständig. Wenn wir sie ruhigstellen - wozu es das Nervengift Curare braucht -, dann zerfällt nach einiger Zeit das Bild. Ohne Augenbewegung kein Sehen.

Ohne Atmen kein Riechen. Ohne Schnüffeln findet der Hund keine Spur. Und wir müssen den Kopf wenden, um eine Schallquelle zu orten. Fledermäuse - eines der Lieblingsbeispiele der Embodied Cognition-Forscher - senden sogar selbst Töne aus, um sich zu orientieren. Wale natürlich ebenso.

Die Welt: ein Möglichkeitsraum

Aber dabei bleibt es nicht. Wie im einleitenden Beispiel gezeigt, nehmen wir die Welt als Handlungsraum wahr. Das haben vor rund hundert Jahren schon der Physiologe und Philosoph der Biologie Jakob von Uexküll und der Philosoph Maurice Merleau-Ponty beobachtet: Für von Uexküll war jeder Gegenstand in der Umwelt eines Tieres wie mit einem "Ton" belegt, der ihm in der Wahrnehmung des Tieres Bedeutung verleiht: etwas zum Essen, etwas zum Verstecken, etwas zum Fürchten . . . Merleau-Ponty untersuchte phänomenologisch die Wahrnehmung des Menschen und erkannte seine Welt als bestimmt durch das "Ich kann".

Auch im Gehirn werden diejenigen Teile der Welt, die wir manipulieren können, besonders behandelt. Bei Makaken kennt man einerseits miteinander verbundene Gehirngebiete in sensorischen und motorischen Bereichen, die den Körperraum repräsentieren, also die unmittelbare Umgebung des Tieres, und andererseits dazu benachbarte vernetzte Gebiete, die entferntere visuelle Wahrnehmungen abbilden. Trainiert man nun einen Affen, einen Stock zu verwenden, dann erweitert sich die neuronale Repräsentation des Körperraums.

Ähnliches beobachtet man bei Patienten mit einem Hemineglekt, die nach einem Schlaganfall die linke Hälfte der Welt inklusive ihres Körpers ignorieren. Bittet man sie, mit dem Arm auf die Mitte ihres Gesichtsfeldes zu zeigen, dann richten sie den Arm nach schräg rechts vorne. Bittet man sie hingegen, mit einem Laserpointer an der gegenüberliegenden Wand die Mitte zu markieren, dann verlängern sie tatsächlich die Mittellinie ihres Körpers. Gibt man ihnen dann anstelle des Laserpointers einen langen Stock, wandert er wieder nach rechts.

Möglicherweise nehmen wir die Welt überhaupt nur wahr, wenn wir mit ihr interagieren können. In einem klassischen Versuch zogen vor über fünfzig Jahren Richard Held und Alan Hein Kätzchen im Dunkeln auf und ließen sie nur unter strengen Versuchsbedingungen ins Licht: Die eine Hälfte der Kätzchen saß während der Lichtausflüge in je einem engen Käfigwagen, der von jeweils einem Mitglied der anderen Hälfte gezogen wurde. Die Seherfahrung der beiden zusammengeschirrten Tiere war also identisch, nur erkundete das eine Tier die Welt aktiv, während das andere passiv an ihr vorbeigezogen wurde. Nachdem das Sehsystem ausgereift wurde, testeten Held und Hein die Sehfähigkeit der Katzen. Jene, die gezogen hatten, konnten normal sehen. Jene, die in den Käfigen gesessen hatten, waren blind.

Die innere Handlung

Da wir die Welt als Handlungsraum wahrnehmen, sind für uns Bewegungen darin stets Handlungen. Die Spiegelneuronen im Prämotorkortex der Makaken feuern nicht nur dann, wenn der Affe die identische Bewegung beobachtet, bei deren eigener Ausführung seine Neuronen aktiv sind. Sondern immer dann, wenn eine beobachtete Bewegung die damit verfolgte Absicht erreicht: Ein Neuron feuert, wenn ein Apfelstück ergriffen wird, egal ob mit der Faust oder mit den Fingern, von der Seite oder von oben. Der Affe spiegelt nicht Gelenkwinkel, sondern Handlungen.

Wir Menschen tun dies sogar dann, wenn wir Handlungen gar nicht sehen, sondern bloß sprachlich benennen. Selbst die Sprache als ureigenstes Reich des Symbolischen wird - wenigstens zum Teil - bei uns im Gehirn verkörpert, also durch inneres Ausleben verstanden. Gibt man etwa Versuchspersonen einen Druckmesser in die Hand, dann verstärkt sich ihr Händedruck merklich, wenn sie in einem Satz ein Verb hörten, das eine Handbewegung beschreibt ("Er ergriff seine Chance"), nicht aber, wenn das Verb das nicht tut ("Er nutzt seine Chance") oder verneint wird. Diese motorische Aktivierung ist tatsächlich am Verstehen beteiligt, denn wenn man mit transkranieller Magnetstimulation den prämotorischen Kortex vorübergehend lahmlegt, brauchen Versuchspersonen länger, bis sie Hand-Verben verstehen.

Und das kann man sogar im Verhalten messen. In einem Versuch sollten Probanden beurteilen, ob Sätze sinnhaft waren, indem sie einen Joystick entweder zu sich zogen, oder, in einer anderen Gruppe, von sich weg drückten. Die Sätze beschrieben Bewegungen auf den Sprecher zu ("Norbert gibt mir einen Stift.") oder vom Sprecher weg ("Ich gebe Norbert einen Stift."). Die Joystick-Antwort ging schneller, wenn Satz-Richtung und Antwort-Richtung übereinstimmten, als wenn sie einander entgegengesetzt waren. Bloß zu hören, dass ich etwas bekomme, interferiert mit dem Impuls, meine Hand von mir weg zu bewegen.

Der denkende Körper

Dass nicht nur Wahrnehmen und Sprechen, sondern einfach alles Denken von unserer Körperlichkeit mit geprägt werden, zeigen zahlreiche weitere Untersuchungen. Eindrucksvoll ist etwa der kürzlich publizierte Befund, dass wir uns leichter erinnern, wenn wir ein paar Schritte rückwärts gehen. Auch beim Problemlösen hilft Bewegung: In einer Studie standen die Versuchspersonen vor der Aufgabe, zwei von der Decke hängende Seile miteinander zu verknoten. Sie waren nur dummerweise so kurz und so weit voneinander entfernt, dass man sie nicht beide gleichzeitig erreichen konnte. Der Raum war sonst leer, bis auf eine Schere.

Nachdem die Versuchspersonen eine Weile über das Problem gegrübelt hatten, bei dem ausgerechnet eine Schere ihnen am wenigsten zu helfen schien, ließ man die Kontrollgruppe ein paar Dehnübungen machen, die Versuchsgruppe hingegen die Arme kreisen. Danach - und obgleich sie sich der Verknüpfung laut Selbstaussage nicht bewusst waren - kamen deutlich mehr Mitglieder der Versuchsgruppe auf die Lösung (die ich am Ende des Artikels verrate. Lassen Sie derweil die Arme kreisen!).

Unsere Körperhaltung beeinflusst auch, wie wir uns fühlen: Wer gerade steht, fühlt sich bei einer aufmunternden Nachricht stolzer als der, der im Sessel kauert. Und unsere Gefühle steuern wiederum unser Denken. Wie wir seit Antonio Damasios Theorie von den somatischen Markern wissen, wird jede emotionale Bewertung erst einmal körperlich ausgedrückt. Diese somatische Antwort auf einen Reiz wird dann erst wieder ins Gehirn zurückgemeldet, und dient dem Stirnhirn als Abkürzung zur Entscheidungsfindung: Fühlt sich gut an, mach ich.

Verkörperte Robotik

Dass man nicht weit kommt, wenn man im ewigen Schnee des Denkens mit reinen Symbolen hantiert, haben auch die Schöpfer Künstlicher Intelligenz längst erkannt. Nachdem sich die "good old-fashioned AI" totgelaufen hatte, sprossen in den letzten Jahren die künstlichen neuronalen Netze aus allen Labors und bewältigten Aufgaben, die man noch vor zwanzig Jahren keinem Computer zugetraut hätte: Gesichter erkennen, deren Alter und Geschlecht, Go spielen, und auch Roboterarme steuern.

Mittlerweile werden auch Roboter mit künstlichen neuronalen Netzen ausgestattet, oder vielleicht umgekehrt: künstliche neuronale Netze mit Robotern. Sie können Bewegungen durch Nachahmung und Belohnung lernen und dabei sogar generalisieren, also in unterschiedlichen, aber ähnlichen Ausgangsbedingungen zur selben richtigen Lösung kommen. Diese Fähigkeit erreichen sie durch schrittweise Anpassungen ihrer Synapsenstärken, also durch implizites Lernen. Schade nur, dass das, was dabei herauskommt, sich weitgehend unserem Verständnis entzieht. Die künstlichen Netze werden ihrerseits zum Forschungsgegenstand. Der Machtgewinn mag bisweilen enorm sein, aber der Erkenntnisgewinn ist bislang noch Null.



Auflösung: Man binde die Schere an eines der Seile, so dass es zum Pendel wird. Dieses versetzt man in Schwingung, eilt zum anderen Seil, ergreift es und fängt das schwingende Pendel.
Alle nicht verlinkten Studien werden zitiert in: Shapiro, L. (Hrsg.) "The Routledge Handbook of Embodied cognition", London & New York: Routledge, 2014.

(Konrad Lehmann)