Komplexe Systeme, intelligente Computer und Selbstorganisation

Ein Gespräch mit Klaus Mainzer, Professor für Philosophie und Wissenschaftstheorie an der Universität Augsburg

Das menschliche Gehirn ist zum Vorbild für komplexe lernfähige und selbstorganisierende Systeme geworden. Ist die Theorie der Komplexität eine wissenschaftliche Mode? Werden Biocomputer allmählich wirklich intelligent? Ist es sinnvoll, den Begriff der Selbstorganisation auf soziale Systeme zu übertragen? Lassen sich aus der Theorie der Selbstorganisation Handlungsanweisungen und Ideale ableiten?

Klaus Mainzer, Physiker und Mathematiker, lehrt an der Universität Augsburg Philosophie und Wissenschaftstheorie und ist Vorsitzender der Deutschen Gesellschaft für Komplexe Systeme und Nichtlineare Dynamik. In zahlreichen Aufsätzen und Büchern hat er sich mit der Theorie komplexer Systeme, den erkenntnistheoretischen Fragen computergestützter Mathematik, der Philosophie des Geistes auf dem Hintergrund der Künstlichen Intelligenz und dem Paradigma der Selbstorganisation beschäftigt.
Zuletzt sind erschienen: Gehirn, Computer, Komplexität (Springer Verlag, Berlin); Thinking in Complexity (Springer Verlag, Berlin); Computer - Neue Flügel des Geistes? (De Gruyter, Berlin) sowie Symmetries of Nature (De Gruyter, Berlin).

Sie haben sich mit komplexen Systemen und Künstlicher Intelligenz aus einer philosophischen Perspektive beschäftigt. Der Begriff der Komplexität ist mittlerweile zu einem Modewort geworden und hat die zuvor aktuelle Chaostheorie überlagert oder verdrängt. Was ist denn das Spezifische an komplexen Systemen, und was ist wirklich neu in der Komplexitätsforschung?
Klaus Mainzer: Die Theorie der komplexen Systeme ist zunächst einmal die umfassende Theorie, während die Chaostheorie nur ein Bestandteil dieser ist. Die Komplexitätstheorie kommt aus der statistischen Mechanik. Dort betrachten wir Systeme mit vielen Teilen. Denken Sie an Gase oder Flüssigkeiten, wo viele Moleküle und Atome miteinander wechselwirken und diese Wechselwirkungen nichtlinear stattfinden. Wir haben also Mehrkörperprobleme, wie wir sie auch aus der Astronomie kennen. Viele Einzelteile wirken aufeinander ein und können dann unterschiedliche makroskopische oder synergetische Effekte auslösen. Beispielsweise regnet es in München. Wenn Sie einen Wassertropfen sehen, dann können Sie fragen, wie eigentlich diese ideale Gestalt zustande kommt. Hier findet ein Selbstorganisationsprozeß dieser Moleküle statt, da die Tendenz besteht, in der Nähe des Gleichgewichts die Energie zu minimieren, d.h. die Wassermoleküle gruppieren sich dann in dieser idealen Tropfenform. Oder denken Sie an Eiskristalle, die dadurch entstehen, daß ebenfalls Wassermoleküle in einem solchen großen komplexen System sich in bestimmter regulärer Weise arrangieren und dann diese schönen Eisblumen oder Eiskristalle bilden. Das sind also Selbstorganisationsprozesse in der Nähe des Gleichgewichts, die sehr vertraut sind.
Was sind denn die Minimalbedingungen für ein komplexes System? Was unterscheidet ein komplexes System, das sich selbst zu organisieren vermag, von anderen Systemen?
Klaus Mainzer: Das Stichwort ist eben schon gefallen. Neben den vielen Teilen und Freiheitsgraden eines solchen Systems, wie ich es eben beschrieben habe, kommt etwas hinzu, was mathematisch die Nichtlinearität genannt wird. Nichtlinearität bedeutet, daß viele Einzelteile gleichzeitig aufeinander einwirken. Das hat Poicaré am Beispiel der Astronomie bereits deutlich gemacht hat. Ursprünglich ging man davon aus, daß alle kausalen Verhältnisse linear berechenbar seien. Wir haben den Mond hier und die Erde dort, und jetzt berechnen wir die Bahn dieses Erdtrabanten aus der Wechselwirkung der beiden Körper. Das ist auch berechenbar und eindeutig lösbar. Wenn wir jetzt aber noch berücksichtigen, daß die Sonne dazukommt, und auch die vielen anderen Planeten und Sterne ihre Wirkungen ausüben, dann kommen wir zu dem sogenannten Mehrkörperproblem. Und Poincaré konnte zeigen, daß sich dies nicht mehr durch lineare, sondern nur noch durch nichtlineare Gleichungen darstellen läßt, die praktisch nicht mehr eindeutig, sondern nur approximativ lösbar sind. Das Entscheidende dabei ist, und da kommt die Chaostheorie herein, daß diese Bahnen chaotisch werden können, das heißt, sie können völlig irregulär und labil werden. Die nichtlineare Dynamik ist der entscheidende Punkt an der ganzen Geschichte.
Dabei spielen die Computer eine wichtige Rolle. Die nichtlinearen Probleme sind zwar schon seit Ende des letzen Jahrhunderts bekannt, aber wir sind erst heute auf Grund der ungeheuren Rechenleistungen dieser neuen technischen Systeme in der Lage, überhaupt eine solche Approximation durchzuführen und sie dann auch in den entsprechenden Computerbildern zu visualisieren, wie sie uns alle bekannt sind. Die nichtlineare Dynamik ist der entscheidende neue Aspekt. Theoretisch, wie gesagt, schon bekannt seit Ende des Jahrhunderts, aber jetzt eigentlich erst für uns auch greifbar durch die großen Rechenleistungen der Computer.
Als eines der interessantesten komplexen Systeme gilt ja das menschliche Gehirn. Nun ist aus der Perspektive der Biologie und der Evolutionstheorie jedes Organ eigentlich dazu da, bestimmte Zwecke zu erfüllen. Selbstorganisierende Systeme mit einer nichtlinearen Dynamik können sich verändern, aber das scheint doch unkontrollierbar und unvorhersehbar zu sein. Wie kann dann aber ein komplexes System wie das Gehirn dennoch verläßlich bestimmte Aufgaben lösen?
Klaus Mainzer: Das ist eine interessante Frage. Dafür muß ich noch mal zurück zu meinen Wassertropfen und den Eiskristallen. Ich habe die Selbstorganisation eines komplexen Systems in der Nähe des thermischen Gleichgewichts beschrieben. Das Gehirn ist natürlich ein komplexes System, ein "heißes" thermodynamisches System, das sich jenseits des thermischen Gleichgewichts befindet. Der Witz an der Sache ist, daß lebende Systeme erst fern des thermischen Gleichgewichts möglich werden. Ansonsten würden sie wie die Eisblumen in schönen Kristallen und Ordnungen gefrieren. Lebende Systemen müssen sich fern von der Erstarrung halten, andererseits darf das System aber auch nicht zu weit vom thermischen Gleichgewicht weg sein und vollständig chaotisch werden.
Zunächst einmal gibt es also die physikalischen Rahmenbedingungen - die thermodynamische Selbstorganisation fern des thermischen Gleichgewichts. Das hat das Gehirn mit vielen anderen Systemen gemeinsam, z.B. mit dem Laser. Der Laser ist auch ein offenes System, das im Energieaustausch mit der Umgebung steht und sich dadurch immer weiter vom Gleichgewicht entfernen kann. Lebende Systeme halten sich durch Nahrungsaufnahme fern von der Erstarrung und vermeiden so den Tod im thermischen Gleichgewicht. Aber was unterscheidet das Gehirn von diesen Systemen?
Neben der thermodynamischen Selbstorganisation, die schon in der unbelebten Natur vorkommt, tritt bei der biologischen Evolution, also bei der Entstehung des Lebens, noch etwas anderes hinzu. Die Evolution hat es verstanden, eine neue Form der Selbstorganisation auszubilden - und das ist die kodierte Selbstorganisation, wie wir sie bei der Selbstreplikation der DNS von biologischen Systemen kennen. Das ist auch eine Selbstorganisation, fern des thermischen Gleichgewichts, so wie beispielsweise beim Laser, aber der Unterschied ist, daß dieses komplexe System, in diesem Fall ein zelluläres System, in der Lage ist, sich selbst zu replizieren. Das ist eine neue Qualität der Selbstorganisation.
Komplexe lebende Systeme entstehen unter den eben beschriebenen thermodynamischen Randbedingungen. Das Gehirn ist auch ein komplexes zelluläres System, aber es hat wieder eine neue Form der Selbstorganisation entwickelt: es ist in der Lage, sich selbständig in kurzer Zeit zu adaptieren und Informationen zu verarbeiten. Und das Entscheidende ist, daß es lernen kann.
Es gibt also drei Formen der Selbstorganisation komplexer Systeme. Erstens die thermodynamische Selbstorganisation, z.B. die Kristalle im Gleichgewicht oder der Laser fern des thermischen Gleichgewichts. Zweitens gibt es die biologische Selbstorganisation im Sinne der kodierten Selbstrepoduktion der DNS. Und drittens entsteht mit der Entwicklung der Nervenzellen und der Nervensysteme die Möglichkeit, das System durch Lernprozesse zu strukturieren, an die Umwelt anzupassen und entsprechende Verhaltensstrategien zu entwerfen.
Nun versucht man ja auch seit geraumer Zeit, im Bereich der künstlichen Intelligenz, und jetzt auch im Bereich des künstlichen Lebens, mit dem Ansatz "von unten nach oben" lernende Systeme künstlich herzustellen. Warum gibt es hier so große Schwierigkeiten, denn offensichtlich gelingt das ja nicht so, wie man sich das einst vorgestellt hat? Hängt das wesentlich von der Komplexität ab?
Klaus Mainzer: Ja, in der Tat. Man muß heute zwei Ansätze grundsätzlich unterscheiden, die manchmal in der öffentlichen Diskussion vermischt werden. Es wird immer generell von künstlicher Intelligenz gesprochen. Die klassische KI ist eine bestimmte Richtung in der Informatik. Sie ist ursprünglich von Turing und anderen begründet worden, und die Idee ist, daß man mit dem programmgesteuerten Computer in der Lage wäre, menschliche Intelligenz zu simulieren. Das ist der harte Kern der klassischen KI-These. Programmgesteuerter Computer heißt, daß es einen Zentralprozessor gibt, wodurch jeder einzelne Schritt, in der Regel sogar sequentiell, vorgegeben ist. Durch die schnelle Verarbeitung der vorgegebenen Einzelschritte soll das Programm dann in der Lage sein, die menschliche Intelligenz zu simulieren.
Wir haben dafür ein ganz aktuelles Beispiel: die Schachpartie mit Deep Blue. Das steht im Grunde in der Linie der klassischen KI. Deep Blue hat den Vorteil, daß er ungeheuer schnell ungeheuer viele Informationen durchrechnen kann, aber er arbeitet völlig anders als die menschliche Intelligenz. Die menschliche Intelligenz ist zwar viel langsamer, aber sie ist in der Lage, große Muster auf einen Schlag zu erkennen. Und hier kommt die Komplexität herein.
Man hat nun versucht, sich mit den neuronalen Netzen, wie sie seit den 80er Jahren entwickelt werden, immer stärker an der Arbeitsweise des menschlichen Gehirns zu orientieren. Man geht nicht mehr davon aus, daß ein zentrales umfassendes Programm mit allen Einzelheiten und vielen Möglichkeiten vorgegeben ist, sondern man versucht, ein neuronales Netz, also ein komplexes System von technischen Neuronen, zu entwickeln, die auf Grund ihrer nichtlinearen Wechselwirkung in der Lage sind, selbstorganisierend zu lernen. Das ist schon ein anderer Ansatz, wobei ich gleich hier an dieser Stelle bemerken möchte, daß alle heutigen neuronalen Netze noch weitgehend auf den klassischen programmgesteuerten Systemen, d.h. auf den klassischen Computern, simuliert werden. Das Ziel aber ist, eine neue Hardware zu entwickeln, d.h. also wirklich Systeme zu bauen, die unabhängig von programmgesteuerten Computern mit ihren riesen Rechenleistungen sind und tatsächlich den biologischen Systemen näherkommen, um so die entsprechenden Problemlösungsleistungen zu realisieren.
Es geistert auch oft die Vorstellung eines Biocomputers herum. Was kann man sich denn eigentlich darunter vorstellen?
Klaus Mainzer: Biocomputer streben eine biochemische Informationsverarbeitung wie in lebenden zellulären Organismen an. Technische neuronale Netze arbeiten allerdings nicht immer nach dem Vorbild lebender Nervensysteme. Ich will das an einem Beispiel erläutern. Ich habe davon gesprochen, daß es die Selbstorganisation eines komplexen Systems in der Nähe der Gleichgewichts gibt. Das erste arbeitsfähige neuronale Netz ist von Hopfield, einem Festkörperphysiker, in den 80er Jahren eingeführt worden, der sich an solchen Selbstorganisationsprozessen in der Nähe des Gleichgewichts orientiert hat. Hopfield hatte sich einen Ferro-Magnet als Vorbild genommen. Ein Ferro-Magnet ist ein komplexes System, das aus vielen kleinen atomaren Einzelmagneten besteht, die zwei Richtungen aufweisen können. Man stellt sich das anschaulich so vor, daß der Pfeil eines atomaren Magneten nach oben oder nach unten zeigen kann. Wenn dieses System noch heiß ist, also weg vom Gleichgewicht, dann zeigen alle irregulär in irgendwelche der beiden Richtungen. Die magnetischen Wirkungen der einzelnen Atome heben sich dann auf.
Wenn man das System aber abkühlt, dann springen diese Dipole in eine Richtung und zeigen ein reguläres Muster. Das empfinden wir makroskopisch dann als Magnetisierung. Daran hat Hopfield sich orientiert. Er hat denselben mathematischen Formalismus genommen und ihn nur psychologisch interpretiert. Statt der energetischen Wechselwirkungen, die die Festkörperphysiker untersuchen, setzte er die Hebbschen Lernregeln ein. Erregte Neuronen verstärken ihre Verbindungen. Ein solches System ist in der Lage, aus einem verrauschten Bild von einer Figur, beispielsweise von einem Buchstaben (A), diesen in einem Phasenübergang zu erkennen. Das System sieht dieses verrauschte Muster, erinnert sich an seine Trainingsphase, in der ihm dieses reguläre Muster beigebracht worden ist, und in einem Phasenübergang reproduziert es dieses Muster: es erkennt dieses Muster. An solchen einfachen Vorgängen aus der statistischen Mechanik sind die neuronalen Netze orientiert.
Man muß allerdings hinzufügen, daß die Systeme von Hopfield noch relativ einfach waren. Die daraus weiterentwickelten neuronalen Netze sind sehr viel raffinierter und berücksichtigen teilweise sogar den Aufbau von unserem Kortex. Man weiß ja aus der Gehirnforschung, daß unser Kortex aus mehreren neuronalen Schichten besteht, die untereinander verschaltet und vernetzt sind. Dadurch ist dieses natürliche System in der Lage, in komplexer Weise Informationen zu verarbeiten und in Wahrnehmungen, Gefühle oder Gedanken zu verwandeln. Man versucht daher mehrschichtige neuronale Netze auch technisch einzusetzen, um damit komplexere Aufgaben zu erledigen. Und die neuronalen Netze zeigen ja mittlerweile beachtliche Anwendungsmöglichkeiten bei Überwachungsaufgaben, bei der Voraussage beispielsweise von Börsenentwicklungen und und und ...
Wenn man mal auf den Vergleich Gehirn und neuronale Netze eingeht, dann werden die neuronalen Netze aus identischen Neuronen gebaut, während die Neuronen im Gehirn ja sehr unterschiedlich sind, und es daher auch unterschiedliche Kommunikationsstrukturen gibt. Kommunikation erfolgt etwa nicht nur elektrisch, sondern auch chemisch mit sehr vielen und verschiedenen Transmittern. Das scheint mir eine Komplexitätsstufe zu sein, die oft bei solchen Vergleichen nicht erwähnt wird. Das nasse Gehirn wird gewissermaßen unterschlagen.
Klaus Mainzer: Da haben Sie völlig recht. Im ursprünglichen Ansatz, wie er von McCulloch und Pitts entwickelt wurde, sind identische Neuronen vorgesehen, während wir natürlich im Gehirn eine Vielzahl unterschiedlicher Neuronentypen haben. Der andere Punkt betrifft die Wechselwirkung der Neuronen über die chemischen bzw. elektrischen Synapsen, wobei die chemischen Synapsen mit der Ausschüttung von Transmittern entscheidend für die kognitiven Leistungen des Gehirns sind, weil sie sehr viel stärker modellieren und Langzeitpotenzierungen erreichen können, wie sie etwa für Gedächtnisleistungen und Lernprozesse erforderlich sind. Aber man muß zur Ehrenrettung der neuronalen Netze sagen, daß gerade diese Veränderbarkeit durch Transmitter in den neuronalen Netzen durchaus berücksichtigt wird, indem die Stärke der synaptischen Verbindung numerisch durch sogenannte Gewichtungen bezeichnet wird. Das sind einfach Zahlenwerte, die eine stärkere oder weniger starke synaptische Verbindung zwischen den Neuronen simulieren, um damit diese Lernprozesse zu ermöglichen.
Das Entscheidende bei den neuronalen Netzen ist, daß sie nicht fest verdrahtete Einzelteile oder Module sind. Die McCulloch-Netze bestehen nur aus logischen Schaltern, die in komplexer Weise vernetzt sind und so logisches Denken simulieren können. Was sie aber nicht können, ist Lernen. Das heißt, sie können nicht selbständig ihre synaptischen Verbindungen, also ihre Schaltungen, verändern. Das aber können die neuronalen Netze schon. Das ist dann doch eine wesentliche Gemeinsamkeit.
Ihre Ehrenrettung der neuronalen Netze klingt so, als würde der Fortschritt weitergehen können, so daß sich tatsächlich irgendwann über diesen Ansatz auch die Leistung des menschlichen Gehirns simulieren ließe. Gibt es prinzipielle Unterschiede zwischen den künstlichen intelligenten Systemen und den menschlichen Gehirnen, die eine vollständige Simulation verhindern?
Klaus Mainzer: Das ist eine zentrale Frage, die an die Grenzen der heutigen Neurobiologie, der heutigen kognitiven Psychologie und der heutigen Neuroinformatik stößt. Wir können heute nur Hypothesen formulieren.
Zusammengefaßt: Wir wissen aus der Gehirnforschung, daß beispielsweise menschliche Gefühle durch neuronale Verschaltungsmuster erklärt werden können. Wir sind in der Lage, Wahrnehmungsprozesse des Menschen mit komplexen Verschaltungs- oder Erregungsmustern natürlicher neuronaler Netze zu korrelieren. Jetzt stellt sich die Frage, ob es möglich wäre, diese Zustände, also besonders die emotionale Seite des menschlichen Denkens, zu simulieren. Es hat sich ja beispielsweise beim Wettkampf mit Deep Blue gezeigt, daß die emotionale Intelligenz des Menschen eine entscheidende Rolle spielt. Wir Menschen sind in der Lage, auf Grund emotionaler Bewertungen und Motivationen ganz anders zu reagieren, als solche technischen Systeme. Wenn wir in der Gehirnforschung diese Prozesse und die neuronalen Verschaltungsmuster kennen, wäre es dann auch denkbar, daß wir technische Systeme zu entwickeln vermögen, die genau dies auch simulieren oder leisten können?
Die meisten Philosophen sagen, daß das genau die Grenze ist, die von den technischen Systemen nicht erreicht wird. Ich sehe das anders. Wenn wir die nichtlineare Dynamik der emotionalen Zustände und letztendlich der Bewußtseinsbildung kennen, dann besteht meiner Auffassung nach nicht der geringste Zweifel, daß bei sich selbstorganisierenden technischen Systeme solche emotionalen Zustände und Zustände von Bewußtsein möglich sind. Sie könnten dann bewußt innere und äußere Zustände wahrnehmen und auch in diesem Sinne Schmerz empfinden. Derartige Systeme sind nach meiner Auffassung keineswegs an die Biochemie des Gehirns gebunden, das von der Evolution mehr oder weniger zufällig hervorgebracht wurde. Wenn wir die in ihm ablaufenden Wechselwirkungsgesetze, also die neuronale Dynamik, kennen, dann ließen sie sich wenigstens prinzipiell in geeigneten Medien realisieren.
Wenn wir an die Technikgeschichte denken, dann bestanden eine technische Realisationen nie darin, daß wir die Natur einfach imitiert haben. Der Mensch lernte nicht dadurch fliegen, daß er sich mit einem Federkleid, nach dem Vorbild der Vögel, in die Lüfte erheben wollte, sondern er hat seine technischen Maschinen entwickelt, indem er die Gesetze der Aerodynamik ausgenutzt hat. In unserem Fall wären dann einfach die Gesetze der Gehirnforschung zu berücksichtigen.
Ein wichtiger Punkt, der auch von Philosophen häufig eingewendet wird, ist, daß man letztendlich immer auf irgendeine Software zurückgreift und daß diese Software immer nur syntaktisch sei. Daraus begründet sich dann der Einwand, daß eine syntaktische Software, die nur aus der Manipulation von Symbolen besteht, selber nicht fühlen könne. Ich habe mir das Argument mal durch den Kopf gehen lassen. Im Grunde scheint mir das ziemlich trivial zu sein. Also eine Software kann nicht fühlen. Das wäre so, als würde ich behaupten, Galilei's Fallgesetz kann nicht fallen oder die Gesetze der Aerodynamik können nicht fliegen. Die Software dieser Gesetze ermöglicht aber reale Vorgänge, nämlich technische Systeme, die fliegen und fallen, und die dann, wenn wir die Gesetze kennen würden, auch fühlen können.
Wir können heute diese technischen Systeme noch nicht bauen, weil wir die für die Gehirnforschung, als auch die für die Neuroinformatik entsprechenden Gesetze noch nicht kennen. Aber ich sehe von der wissenschaftstheoretischen Seite keine Einwände, warum aus irgendwelchen prinzipiellen Erwägungen heraus solche Systeme nicht möglich sein können. Was von der philosophischen Seite allerdings zu fragen wäre, ist die ethische Perspektive, d.h. ob wir eine solche Entwicklung überhaupt wollen, ob wir fühlende Systeme oder Systeme mit Bewußtsein entwickeln sollen.
Die Theorie der Komplexität gilt als eine allgemeine Theorie, die nicht nur auf natürliche Systeme, sondern auch auf soziale Systeme, beispielsweise auf Gesellschaften, angewandt werden kann. Gesellschaften werden in neuerer Zeit etwa unter der Metapher eines globalen Gehirns mit ihren Kommunikations- und Interaktionsstrukturen wiederum mit dem Gehirn verglichen. Ist es wirklich sinnvoll, eine Gesellschaft, oder eine bestimmte Gruppe von Menschen in Analogie zu physikalischen, chemischen oder biologischen Systemen als komplexes System zu begreifen, und dann auf der nächsten Stufe eine Gesellschaft als Gehirn zu verstehen, wobei die Individuen zu Neuronen werden? Man kann dadurch bestimmte Strukturen heraus arbeiten und durch Simulation bestimmte Voraussagen treffen. Sie sprachen vom philosophischen Problem der Ethik. Ist es denn, abgesehen von den möglichen wissenschaftlichen Erkenntnissen, "gut", Menschen als Neuronen und Gesellschaften als Nervensysteme, zu beschreiben? Fällt da nicht die ganze individuelle Dimension heraus, wodurch man, entgegen der eigenen Selbstbeschreibung, die einzelnen nur noch als Partikel versteht?
Klaus Mainzer: Das ist sicher richtig. Aber vorweg zwei Bemerkungen, bevor wir zu diesen eher spekulativen Perspektiven der Anwendung solcher Systeme auf die Gesellschaft kommen.
Zunächst einmal ist es ein Faktum der jetzigen wissenschaftlichen Entwicklung, beispielsweise der Ökonomie oder auch der mathematischen Soziologie, daß man die Theorie der nichtlinearen komplexen Systeme mit Erfolg benutzt, um beispielsweise die Dynamik von Wirtschaftssystemen zu beschreiben und zu erklären. Unsere Wirtschaftswissenschaftler sind bisher immer nur von linearen, berechenbaren Systemen mit einfachen Gleichgewichten ausgegangen. Das sind Systeme, die zwar lösbar, aber die für die Praxis wertlos sind, weil sie einfach von unrealistischen Voraussetzungen ausgehen. Tatsächlich handelt es sich bei einem ökonomischen System sozusagen um die schon angesprochenen Mehrkörperprobleme von vielen Agenten, die miteinander wechselwirken.
Adam Smith, der Vater der Marktwirtschaft, sprach von der unsichtbaren Hand, nach der sich Anbieter und Nachfrager selbstorganisieren und in ein Gleichgewicht bringen, eben in das Marktgleichgewicht von Angebot und Nachfrage. Allerdings ging er von der Wunschvorstellung aus, daß dann, wenn dieses Gleichgewicht einmal erreicht ist, auch das Stadium des Wohlstandes einer Nation eintreten werde, und das geschieht durch die "invisible hand", also durch Selbstorganisation. Wir wissen heute alle, daß diese Dynamik auch ganz anders verlaufen kann. Diese offenen Systeme sind hoch sensibel gegenüber geringsten Veränderungen, wie wir dies aus der Chaostheorie wissen. Man spricht vom Schmetterlingseffekt. Börsenkrach und andere Beispiele zeigen, wie sich kleinste lokale Veränderungen in solchen Systemen zu großen Katastrophen oder Veränderungen aufschaukeln können.
Könnte man denn andersherum aus dem Ansatz der Komplexitätstheorie auch Handlungsanleitungen ableiten, wie denn ein Wirtschaftssystem, das unter bestimmten Nöten steht, wie beispielsweise im Augenblick in Deutschland, sich durch bestimmte kleine Eingriffe so verändern könnte, daß ein erwünschter Effekt entsteht? Oder sind da doch die Komplexität und dadurch die Unvorhersagbarkeit zu groß?
Klaus Mainzer: Man muß zunächst sagen, daß diese Entwicklungen natürlich noch im Fluß sind und man nicht erwarten kann, daß aus solchen Theorien sofort konkrete Handlungsbeschreibungen zur Behebung der Arbeitslosigkeit in Deutschland oder zur Neubewertung unseres Goldschatzes ableitbar sind. Aber ich könnte mir schon vorstellen, daß wir auf diesem Wege sehr viel konkretere Informationen über das Verhalten von Wirtschaftssystemen bekommen.
Zunächst einmal ist für uns alle eine Botschaft aus den komplexen Systemen für die Gesellschaft abzuleiten. Diese komplexen Systeme sind hoch empfindlich, d.h. geringste Veränderungen können, wie eben schon erwähnt, zu globalen Veränderungen des Gesamtsystems führen. Das wirft ganz neue Fragen der Verantwortlichkeit auf. Denken Sie daran, daß einzelne Manager durch ihr Versagen Tausende von Arbeitsplätzen aufs Spiel setzen können, daß durch das Versagen einiger Ingenieure, beispielsweise bei der Entwicklung von komplexen ISDN-Systemen, technische Katastrophen ausgelöst werden können usw.
Andrerseits könnte man aber auch sagen, weil komplexe Systeme nicht oder nur in einem bestimmten Möglichkeitsraum voraussagbar sind, sinke die Verantwortung, da man nicht wissen könne, was das Ergebnis einer Handlung ist. In gewisser Weise gehen Chaos- und Komplexitätstheorie mit einem Ende der Planung oder der Kontrolle zusammen, auch oder gerade weil kleinste Handlungen größte Wirkungen haben können.
Klaus Mainzer: Das ist sicher die verkürzte Botschaft, die von der Komplexitäts- und Chaostheorie bei den Leuten angekommen ist. Die verkürzte Botschaft war, daß ein System, wenn es chaotisch ist, nicht mehr steuerbar sei. Das ist sicher richtig, aber wir kennen heute auf Grund dieser Theorie die Nebenbedingungen sehr viel besser, unter denen solch ein System in chaotische Zustände geraten kann. Durch das Studium entsprechender Modellierungen komplexer Systeme, sind wir eher in der Lage, die Nebenbedingungen zu erkennen, durch die das komplexe System Wirtschaft oder das soziale System in unkontrollierbare, trudelnde Zustände kommen kann. Tatsächlich ist es ja auch so, daß wir durch das Studium etwa der unterschiedlichen Trajektorien die genauen Verlaufsformen der komplexen Systeme in begrenzten Zeitabschnitten beschreiben können.
Kurzum, es ist keineswegs so, daß wir nach dem Studium die Hände in den Schoß legen können und sagen müssen, daß alles sowieso nicht mehr vorausberechenbar sei. Das stimmt nicht. Im Gegenteil können wir die zukünftigen Szenarien sehr viel besser beschreiben. Wir können eine Reihe von Zukunftsszenarien unter verschiedenen Nebenbedingungen entwickeln, um dann durch politische oder wirtschaftspolitische Entscheidungen zu versuchen, solche Nebenbedingungen anzusteuern, von denen wir wissen, daß eine hohe Wahrscheinlichkeit besteht, daß sich das System in der einen oder anderen Richtung entwickeln kann.
Aber grundsätzlich müssen wir uns in der Politik und in der Wirtschaft von den Vorstellungen verabschieden, daß es den guten Herrscher im Sinne Platons oder die allwissende Partei gibt. Wir müssen uns von den Vorstellungen der Kommandowirtschaft, daß also ein Zentralprozessor (programmierbarer Computer) alles Wissen hat und es nur noch darauf ankommt, dieses Wissen effektiv umzusetzen, verabschieden, denn genau so funktionieren die komplexen Systeme nicht.
Es ist also auch ein psychologisches Problem, das zu lösen ist. Wenn ich die Reaktionen in der politischen Öffentlichkeit sehe, dann geistert bei uns immer noch die Vorstellung herum, daß der starke Mann oder die starke Frau endlich mal Ordnung schaffen könnte. Aber das ist eine Illusion. Die gute Absicht pervertiert im komplexen System. Gutes zu meinen und zu wollen, reicht nicht aus. Die nichtlineare Dynamik mit ihren Effekten, die nicht voraussehbar sind, ist eine Botschaft, die der Öffentlichkeit vermittelt werden muß. Wir brauchen zwar Mut für die Entscheidung, aber auch Sensibilität im Umgang mit solchen komplexen Systemen. Das sind keine programmierbaren Maschinen. Die Wirtschaft ist keine Maschine, die wir mit Transmissionsriemen irgendwie in eine Richtung bringen können, sondern diese Systeme haben eher mit der Aerodynamik zu tun, mit der Bildung von Wolken und mit lebenden Organismen, die sich nicht so einfach wie eine Kuckucksuhr dirigieren lassen.
Aus den Lehren der Komplexitätstheorien, die auf Selbstorganisation aufbauen, wird gern auch versucht, ein politisches Ideal abzuleiten. Selbstorganisation als politischer oder wirtschaftlicher Prozeß klingt ja erst einmal ganz gut und demokratisch. Es geht von unten nach oben, und die Einzelnen entscheiden. Es fallen die Hierarchieebenen und die beherrschenden Zentren an der Spitze wie das Ich in der Gehirnforschung weg. Lassen sich denn aus dem Begriff der Selbstorganisation, wie er in der Komplexitätstheorie verwendet wird, denn tatsächlich sinnvolle politische Maßstäbe entwickeln? Bietet die Komplexitätstheorie eine Art Heilsversprechen an?
Klaus Mainzer: Zunächst einmal bin ich skeptisch gegenüber irgendwelchen universellen Konzepten. Wir haben genug Erfahrungen in der Geschichte gemacht, um gegenüber einem wissenschaftlichen Ansatz mißtrauisch zu sein, der auf einen Schlag alle Probleme lösen sollte.
Mein Buch "Thinking in Complexity" wurde in der Zeitschrift "Nature" im letzen Jahr von Ian Stewart, einem englischen Mathematiker, besprochen, der zum Schluß feststellte, und das hat mir sehr gut gefallen, daß Nichtlinearität und Komplexität sicher keine universelle Antwort darstellen, aber häufig eine bessere Denkweise. Wir haben damit ein Instrument, um Nebenbedingungen der Politik sehr viel genauer und feiner zu studieren. Wir haben neue Instrumente, um zukünftige Szenarien zu entwerfen. Aber was aus dieser systemtheoretischen Betrachtung mit Sicherheit nicht folgt, sind ethische oder politische Vorstellungen. Wir können nicht more geometrico ein ideales Menschenbild oder eine ideale Politik ableiten. Das gehört ja geradezu zum Tenor der komplexen Systeme, daß wir entsprechende Vorgaben geben müssen, daß wir sagen müssen, was wir eigentlich wollen. Und sich die Selbstorganisation der Natur unkritisch zum Vorbild zu nehmen, würde ich für verheerend halten.
Es wird oft, vornehmlich in neoliberalen Kreisen, gesagt, daß der Selbstorganisation der freie, sich selbst regulierende Markt entspreche und daß die Auflösung aller Regulierungsinstanzen, das Zurückfahren des Staates und eine größere Freiheit für die Einzelnen schlechterdings gut sei. Das hängt auch mit der auch aus der Naturwissenschaften kommenden Theorie zusammen. Eine solche Übertragung wäre also für Sie nicht gerechtfertigt?
Klaus Mainzer: Wir müssen zwei Dinge auseinanderhalten. Die Theorie der komplexen Systeme ist eine umfassende mathematische Theorie, die alle möglichen Dynamiken untersucht. Sie stellt völlig neutral fest, daß dann, wenn die und die Nebenbedingungen gegeben sind, die Wahrscheinlichkeit steigt, daß sich das System zu diesem Attraktor, zu jenem Gleichgewichtszustand oder schließlich in einen chaotischen Zustand verwandelt. Nicht mehr, aber auch nicht weniger. Es kommt darauf an, die Nebenbedingungen richtig zu stellen. Das ist unsere Aufgabe, das ist unsere Politik. Um ein krasses Beispiel zu nennen: Es wäre Anfang der 40er Jahre auch möglich gewesen, daß sich global eine Politik mit Gewalt durchgesetzt hätte, die bestimmte rassistische Vorstellungen als Ideal verteidigt. Das wäre auch eine komplexe Dynamik gewesen. Also alles ist möglich. Es kommt darauf an, was wir wollen.
Es gibt bei einigen Naturwissenschaftlern tatsächlich die Tendenz, alles für gut zu halten, was aus der Evolution kommt. Die Evolution hat teilweise mit ungeheuren Verlusten und chaotisch gearbeitet, und sie war nicht mit jedem Versuch erfolgreich. Ich könnte lakonisch sagen, sie hatte auch die Zeit zu experimentieren. Wir aber können uns in der Population Mensch, in der wir ja alle selber betroffen sind, auf solche Experimente der Evolution nicht verlassen. Die ethischen Vorstellungen, an denen wir uns zu Recht orientieren, etwa die Achtung vor den Menschenrechten, sind weder genetisch vorgegeben, noch sind sie neurologisch oder soziobiologisch angeboren. Das sind ethische Postulate, die sich im Laufe der kulturellen Entwicklung unserer Population Mensch entwickelt und auf Grund der Erfahrungen schließlich so durchgesetzt haben. Ich kann nur sagen "Gott sei Dank", daß sie sich so durchgesetzt haben. Das sind Lernprozesse der Kultur, die keineswegs durch biologische, neurologische oder auch mathematische Gesetze vorgegeben sind.
Neuerdings wird mit einigem Erfolg, ausgehend von Überlegungen des Evolutionstheoretikers Richard Dawkins, behauptet, daß die kulturelle Evolution ähnlich wie die biologische Evolution ablaufe, nur daß sie auf einem kulturellen Träger basiere. Dawkins hat dafür den Begriff des Mems analog zu dem des Gens geprägt. Das ist eine Vorstellung, die offensichtlich viele Menschen fasziniert. Was halten Sie davon?
Klaus Mainzer: Da ist etwas dran. Allerdings muß man genau beachten, daß jedes komplexe System eine eigene Dynamik besitzt. Die biologische Evolution und die biologische Selbstorganisation ist auf Grund der nichtlinearen Wechselwirkung, etwa der Gene, eine bestimmte biochemische Form, die sich keineswegs auf die Eigendynamik der Lernprozesse übertragen läßt, wie sie in der kulturellen Evolution ablaufen. Richtig ist, daß es sich auch um eine komplexe, nichtlineare Dynamik handelt, aber man kann nicht einfach Gesetze aus der Biologie auf die Kulturgeschichte übertragen. Das wäre sicher ein ganz platter Sozialdarwinsmus und mit Recht auch ideologieverdächtig.
Man muß berücksichtigen, daß wir es hier nicht mit der Wechselwirkung der Gene, also von chemischen Makromolekülen, zu tun haben, sondern mit Wechselwirkungen von bewußten, intentional orientierten Lebewesen. Diese unterscheiden sich von den Wechselwirkungen, wie wir sie beispielsweise aus Ameisenpopulationen oder Termitenvölkern kennen. Kurz und gut: Richtig ist der formale Aspekt, daß wir auch die Kulturgeschichte als Dynamik eines komplexen Systems verstehen können, aber falsch wäre die Übertragung der biologischen Gesetzmäßigkeit.
Ist dieser Unterschied denn so groß?
Klaus Mainzer: Der Unterschied ist grundlegend. Menschliche Gehirne mit der Fähigkeit zur Bewußtseinsbildung entwickeln - im Unterschied zu Termiten - Erwartungshaltungen und alternative Vorstellungen über mögliche Zukünfte. Diese Erwartungshaltungen können das tatsächliche Verhalten verändern. Daher können auch Messungen der menschlichen Gesellschaft - im Unterschied zu Tierpopulationen - die Systemdynamik verändern. Eine Wahlumfrage zum Beispiel, bei der wir uns für eine Partei entschieden hatten, zeigt Mehrheiten, die uns wenig gefallen. Die Soziologen sprechen dann etwas gelehrt von der Selbstbezüglichkeit der Gesellschaft. Einfacher gesagt: Als Teil der Gesellschaft sind wir bei Aussagen über die Gesellschaft häufig selber betroffen. Als Mathematiker sehe ich hier ein weiteres Beispiel für Rückkopplung und Nichtlinearität eines komplexen Systems. Auch die Population der Menschen bildet zwar einen neuen komplexen Superorganismus, dessen nichtlineare Eigendynamik sich allerdings grundlegend von Termitenvölkern unterscheidet. Diese Eigendynamik eröffnet mehr Freiheiten für den einzelnen, aber damit auch mehr Risiken und Gefahren. Der einzelne kann sich gegen den globalen Trend entscheiden und im Extremfall bewußt untergehen. Ein Beispiel dafür wäre die Widerstandsbewegung der "Weißen Rose" in München. Daher benötigen wir Menschen Mut und Sensibilität zum Handeln - eine Ameise nicht.
Anzeige