Transhumanismus: Von der Technikverehrung zur Mythologie

Der Biologe und Philosoph Max Schnetker über den Transhumanismus als Krypto-Religion und Eliten-Ideologie

Der Transhumanismus stellt die Überwindung des Menschen mit technischen Mitteln in Aussicht. Ausgangspunkt seiner Hoffnungen und Befürchtungen sind denkende Maschinen, deren Fähigkeiten die von Menschen weit übertreffen sollen. Solche Geräte sind allerdings nirgendwo in Sicht, die erwartete Superintelligenz rein spekulativ und viele transhumanistische Annahmen abenteuerlich - warum verbreitet sich der Transhumanismus dennoch?

Zum ersten Mal begegnet bin ich mit dem Transhumanismus, als ich ziellos durch das Internet stöberte. Meine erste Reaktion war, dass ich die Debatte über die Rachegelüste der kommenden Superintelligenz für eine Satire hielt. Wie war deine erste Reaktion?
Max Schnetker: Bei mir war es anders. Ich kam an der Universität mit transhumanistischen Ideen in Kontakt, allerdings mit ihren sozusagen seriösen Ausläufern, Autoren wie Ray Kurzweil oder Nick Bostrom. Einem unvoreingenommenen Laien wie mir damals konnte der Transhumanismus auf den ersten Blick als seriöse Wissenschaft erscheinen, mit akademisch anmutenden Publikationen und Instituten wie dem Machine Learning Research Institute oder der Singularity University. Je mehr ich mich dann eingelesen habe, umso erschreckender fand ich die transhumanistischen Ideen. Schließlich wurde mir klar, dass sich diese Strömung nur mit den Mitteln der Ideologiekritik begreifen lässt.
Aus diesem Grund hast du vor kurzem eine Studie mit dem Titel "Transhumanistische Mythologie" veröffentlicht. Aber lass uns erst einmal ein paar Grundlagen zum besseren Verständnis legen. Der Transhumanismus ist eine Bewegung, die vor allem in den Vereinigten Staaten aktiv ist und von der sogenannten Künstlichen Intelligenz (KI) eine grundlegende gesellschaftliche Veränderung erwarten. KI wird sich angeblich ab einem bestimmten Zeitpunkt - der sogenannten Singularität - permanent erweitern und optimieren. Sie markiert sozusagen den Takeoff der rekursiven Selbstoptimierung.
Max Schnetker: Transhumanisten glauben, dass mit der Singularität eine Superintelligenz entstehen wird. Weil deren Intelligenz angeblich exponentiell anwachsen wird, wird sie uns Menschen schnell in einem nicht mehr nachvollziehbaren Maß überlegen sein. Häufig vergleichen Transhumanisten den Unterschied zwischen ihr und uns mit dem zwischen einem Menschen und einer Maus oder einem Insekt. In den Debatten dient diese Annahme häufig dazu, kritische oder skeptische Einwände abzuwehren, weil wir uns die Handlungsmöglichkeiten der kommenden Superintelligenz einfach nicht vorstellen können. Sie ist geradezu allmächtig, letztlich verhält sie sich zu uns wie ein Gott.
Das klingt tatsächlich nach einem kniffligen theologischen Problem. Die Ratschlüsse der Superintelligenz sind für uns Sterbliche unergründlich …
Max Schnetker: Gleichzeitig sind wir es, die dieses höchste Wesen schaffen. Wir müssten sicherstellen, dass die Superintelligenz unsere Existenz toleriert, denn sonst wird sie uns an den Rand drängen, so wie wir Menschen einen Ameisenbau planieren, um einen Parkplatz zu bauen. Die Transhumanisten sprechen in diesem Zusammenhang vom Value-Loading-Problem: Wie kriegen wir es hin, dass die KI uns wohlgesonnen bleibt - was schwierig ist, weil sie sich in einem Prozess rekursiver Optimierung selbst programmieren soll, also das eigene Programm fortlaufend verbessert.
Eigentlich merkwürdig, Transhumanisten erschaffen sich einen Gott, dem sie Vorschriften machen wollen.
Max Schnetker: Klingt seltsam, aber für die Anhänger dieser Idee handelt es sich um die Schicksalsfrage unserer Zeit. Deshalb nennt man sie auch KI-Risiko-Bewegung.
Die Angst vor den gesellschaftlichen Folgen von KI ist weit verbreitet. Viele Menschen befürchten Diskriminierungen oder willkürliche und intransparente Entscheidungen von Behörden oder Unternehmen. Den Transhumanisten geht es um etwas anderes: um eine KI, die sich sozusagen verselbständigen und die Macht übernimmt.
Max Schnetker: An dieser Stelle scheint mir wichtig, darauf hinzuweisen, dass wir von einer generellen KI, die kontextunabhängig und autonom wäre, immer noch weit entfernt sind. Die jüngsten Erfolge beim Maschinenlernen geben jedenfalls keinen Anlass zu solchen Befürchtungen. Dennoch zählen einflussreiche Unternehmer aus der Robotik und Internetwirtschaft wie Hans Moravec oder Elon Musk zu den Transhumanisten, auch der bereits erwähnte Philosoph Nick Bostrom, der ein Institut in Oxford leitet.
Tatsächlich ist die Angst vor der Machtübernahme der KI erstaunlich weit verbreitet. Sogar der Physiker Stephen Hawkings glaubte, ihre unkontrollierte Entwicklung könne "das Ende der Menschheit" bedeuten. In einem Interview sagte er: "Sobald wir eine Intelligenz konstruieren, die sich mit zunehmender Geschwindigkeit verbessert, können die Menschen, deren Entwicklung durch die langsamere biologische Evolution begrenzt wird, nicht mehr mithalten und werden verdrängt werden." Eine überlegene Spezies soll einer unterlegenen den Lebensraum streitig machen. Nun gilt dies vielleicht für den Mensch, der tatsächlich andere Gattungen in großer Zahl vernichtet, aber dabei handelt es sich keineswegs um ein Gesetz der Evolution - und warum um Himmels Willen sollte eine KI den Wunsch verspüren, die eigene Existenz um jeden Preis zu schützen? Warum sollte sie überhaupt irgendwelche Wünsche entwickeln?
Max Schnetker: Es geht nicht so sehr darum, dass der Superintelligenz Wünsche zugeschrieben werden, eher darum, dass sie uns durch ihr rücksichtsloses Handeln quasi versehentlich vernichtet. Schlussendlich spielt bei dieser Vorstellung Projektion eine Rolle. Der Informatiker Maciej Ceglowski hat einmal die Anhänger der KI-Risiko-Bewegung mit Kindern verglichen, die sich Gruselgeschichten erzählen: "Wie Neunjährige, die im Garten campen und in ihrem Zelt mit der Taschenlampe spielen. Sie projizieren ihre eigenen Schatten auf die Zeltplane und bekommen Angst, dass da ein Monster ist. Aber in Wirklichkeit ist es ein verzerrtes Bild ihrer selbst, das ihnen Angst macht."
Dazu passt das transhumanistische Gedankenspiel über den Basilisken. Die künftige Superintelligenz, die ja angeblich endlos expandieren will, wird ihre Gegner bestrafen beziehungsweise alle ausschalten, die ihre Existenz gefährden könnten. Weil ihr die Aufzeichnungen aus der Vergangenheit zur Verfügung stehen, soll es gefährlich sein, sich kritisch zu äußern. Das wiederum führt zu der paranoiden Vorstellung, man solle sich am besten gar nichts zum Thema sagen. Oh je, jetzt habe ich wohl einen Fehler gemacht ...
Max Schnetker: Das Gedankenspiel über den Basilisken ist sogar noch komplizierter. Es wird nur plausibel, wenn man verschiedene Grundannahmen dieser transhumanistischen Strömung bereits verinnerlicht hat. Zum Beispiel, dass eine Computersimulation meiner Neuronen mit mir als Person identisch ist. Wenn nun die Superintelligenz in der Zukunft eine solche Simulation von mir betreibt, wäre das mein Leben nach dem Tod. Der Basilisk wäre eine Superintelligenz, die solche Simulationen heutiger Personen betreibt und sie für ihr heutiges Handeln bestraft, indem er ihre Simulationen foltert.
Gefährdet wären durch den Basilisken nicht nur diejenigen, die den Aufstieg der Superintelligenz behindern, sondern auch die, die nicht genug dazu beigetragen haben. Wer von der bevorstehenden Entstehung der Superintelligenz erfährt, ist verpflichtet ihrer Entstehung zuzuarbeiten. Deshalb heißt diese Figur auch Basilisk: in dem Moment wo du von ihr erfährst, blickt der Basilisk dich an. Dieses Gedankenexperiment greift ein altes christliches Motiv auf, das in der Missionierung eine Rolle spielte: Sobald du die frohe Botschaft gehört hast, musst du dich dazu verhalten, sonst droht die Hölle.
"Basilischus" (Basilisk). Radierung von Melchior Lorck (1548)

Irrationalität als Makel

Jetzt hast du die Geschichte vom Basilisken religionswissenschaftlich entschlüsselt, also allegorisch gedeutet. Die Superintelligenz entspricht Gott, wobei dieser Gott von uns erschaffen wurde. Aber gleichzeitig betonen Transhumanisten ihren wissenschaftlichen Anspruch. Wie passen Wissenschaftliches und Religiöses zusammen?
Max Schnetker: Das Seltsame ist, dass die gottgleiche Superintelligenz eigentlich symbolisch für eine perfekte Rationalität steht. Eben darin besteht ihre Überlegenheit. Transhumanisten halten ihr eigenes Denken dagegen für fehlerhaft oder wenigstens fehleranfällig. Überall lauern kognitive Verzerrungen. Dieses Defizit begründen sie mit Anleihen aus der Evolutionären Psychologie, um zu belegen, dass wir Menschen immer noch durch das intellektuelle Erbe der Jäger und Sammler aus der Steppe bestimmt werden. Dieses Erbe soll dann der Grund für allerlei Missstände sein, von Kriminalität bis zum Klimawandel.
Außerdem hat die experimentelle Psychologie und besonders die Verhaltensökonomik nachgewiesen, dass Menschen üblicherweise nicht entsprechend mathematisch formalisierter Entscheidungsmuster handeln. Die Bewegung der Neo-Rationalisten, die sich mit dem Transhumanismus überschneidet, will diese Beschränktheit hinter sich zu lassen und sich rationale Verhaltensweisen aneignen. Zum Beispiel mit Workshops, in denen man lernt, zu denken wie eine KI.
Nun streben die Neo-Rationalisten und Transhumanisten eine ganz bestimmte Art von Rationalität an, nämlich die der Spieltheorie. Deren Kern ist bekanntlich, den eigenen Nutzen entsprechend von Wahrscheinlichkeitskalkülen zu optimieren, und damit der berühmt-berüchtigte homo oeconomicus.
Max Schnetker: Diese Art der Rationalität ist im Alltag eine Ausnahme. Die Transhumanisten erleben das als Makel, so wie alle Beschränkungen, die mit unserer Körperlichkeit verknüpft sind.
Aber liegt da nicht eine Verwechslung vor - denn wer sagt, dass die spieltheoretischen Kalküle für unseren Alltag taugen? Die Spieltheorie setzt mit ihren Modellierungen eine bestimmte Rationalität als Maßstab und wundert sich dann, warum die Menschen ihm nicht genügen. Mein Lieblingsbeispiel stammt aus ihrer Entstehungszeit: Die ersten Experimente mit Modellen wie dem Ultimatum-Spiel und dem Gefangenendilemma fanden 1949 im RAND-Thinktank statt. Die Spielerinnen, darunter auch die Sekretärinnen der Mathematiker John Nash und Merrill Flood, ignorierten damals souverän die spieltheoretischen Gleichgewichte und kooperierten immer. Nashs Reaktion: "Wirklich erstaunlich, wie ineffizient die Spieler ihre Gewinne erhalten haben. Man hätte erwartet, dass sie rationaler sind." Mit anderen Worten: Welches Verhalten vernünftig ist, bestimmt mein Modell.
Max Schnetker: Zugegeben, es handelt sich um eine bürgerliche Rationalität, die allerdings in einer bestimmten Umwelt sehr gut funktioniert: eine Umwelt, die äußerst kompetitiv ist, wo permanent Leistung gemessen und individualisiert wird, zum Beispiel in den technischen Wissenschaften. Wahrscheinlich leuchtet deswegen diese Sorte Vernunft einigen Angehörigen dieses Milieus unmittelbar ein. Die Superintelligenz ist eine Projektion von Menschen, die in ihrem Berufsalltag auf die spieltheoretische Rationalität angewiesen sind und Emotionalität als Schwäche erleben, die durch ihre Umwelt bestraft wird.
Mich frappiert immer wieder, wie unbekümmert manche Spieltheoretiker kontrafaktische Behauptungen aufstellen. Zum Beispiel die sogenannte Tragödie der Allmende von Garrett Hardin, einem einflussreichen Ökologen. Er wies in den 1970er Jahren vermeintlich nach, warum gemeinschaftlicher Besitz an Land, Gewässern und Wald notwendigerweise zerstört wird. Dabei wissen wir aus der historischen Forschung, dass es Jahrtausende lang Allmenden gegeben hat. wem sollen wir glauben: dem spieltheoretischen Modell oder der empirischen Forschung?
Max Schnetker: Dazu kommt noch, dass die historischen Voraussetzungen für Übernutzung in solchen Modellen oft nicht auftauchen, beispielsweise ob die Bauern für den Markt produzieren oder für die eigene Subsistenz. Aber Neo-Rationalisten und Transhumanisten gelten die Annahmen der Spieltheorie als unbezweifelbares Weltwissen.

Fehlannahmen über Körper, Geist und ihren Zusammenhang

Die Neorationalisten und Transhumanisten wollen rational sein, sich keine Illusionen zu machen. Mitleidslos und vorurteilsfrei betrachten sie die Welt, wie sie vermeintlich ist. Knapp unter der Oberfläche finden sich dann Religiöses und Mystisches, Erlösungshoffnungen, strafende Gottheiten … Du spricht von einem scheinbaren Materialismus.
Max Schnetker: Der Journalist Mark O'Connell, der eine Reportage über Transhumanisten geschrieben hat, nennt es "materialistischen Mystizismus". Auf den ersten Blick lehnen sie alles Übernatürliche ab, wozu sie unter anderem Subjektivität, Bewusstsein, Emotion und Wille zählen. Gerade deshalb kehren mystische Vorstellungen zurück, um die entstehenden Lücken zu füllen.

"Für Transhumanisten bedeutet Körperlichkeit Beschränkung"

Es gibt nichts außer Materie und Energie. Was uns als Geist erscheint, ist lediglich ihr Effekt. Inwiefern kommen da mystische Vorstellungen ins Spiel?
Max Schnetker: Ein krasses Beispiel ist die berühmte Geschichte vom sogenannten Brain Upload, die der Robotiker Hans Moravec in seinem Buch "Mind Children" erzählt. Ein Hirnchirurgie-Roboter öffnet die Schädelplatte und scannt die Hirnmasse Millimeter für Millimeter. "Diese Messungen, im Verbund mit umfassenden Kenntnissen über die Funktionsweise der menschlichen Neuronen, ermöglichen es dem Chirurgen, ein Programm zu schreiben, das das Verhalten dieser äußersten Schicht des Hirngewebes wiedergibt." So wird das Hirn Schicht für Schicht abgetragen beziehungsweise auf einen Computer übertragen. Das Ergebnis: "Ihr Geist ist aus dem Gehirn in eine Maschine übertragen worden."
Mir scheint, für Transhumanisten ist diese Geschichte, was für Christen die Erzählung von Jesus Auferstehung ist: das zentrale Mysterium, die Überwindung der Sterblichkeit und der Übergang zum Göttlichen. Dabei sollten sich die Leser durchaus fragen, ob diese wahrscheinlich ziemlich schmerzhafte Operation wenigstens unter Betäubung durchgeführt wird. Andererseits dürfte das Bewusstseins-Programm bei Sedierung wenig leistungsfähig sein.
Max Schnetker: Unsere Subjektivität soll der Struktur unserer Nervenzellen entsprechen. Daher kann sie abgelöst und auf andere Medien übertragen werden. Das heißt aber, abstrahierbare, mathematisch beschreibbare Eigenschaften eines Netzwerks übernehmen die Rolle einer geistigen Substanz im cartesianischen Sinn. So kehrt letztlich die Vorstellung einer Seele wieder.
Transhumanisten haben offensichtlich Probleme mit dem menschlichen Körper. In diesem Zusammenhang finden ich es interessant, über die Rolle des menschlichen Körpers in der KI-Forschung nachzudenken. Von Hans Moravec stammt schließlich das gleichnamige Moravec-Paradox. Er formulierte es folgendermaßen: "Während es vergleichsweise einfach war, Computer mit der Leistungsfähigkeit von Erwachsenen Mathematikaufgaben lösen, Intelligenztests bewältigen oder Schachspielen zu lassen, war es schwer, sie in Hinblick auf Wahrnehmung und Bewegung mit den Fähigkeiten eines einjährigen Kindes auszustatten." Ich halte das für ein weit verbreitetes Missverständnis, denn Menschen denken eben mit ihrem Körper und ihren Sinnen, wozu Roboter nicht in der Lage sind. Der Pädagoge Jean Piaget hat beispielsweise gezeigt, dass unsere geometrische Vorstellungskraft und damit unsere mathematischen Begriffe aus kindlichen Raumerfahrungen entstehen.
Max Schnetker: Für Transhumanisten bedeutet Körperlichkeit Beschränkung. Diese Haltung hat natürlich eine lange Tradition, schon bei René Descartes heißt es: "Der Körper wird den Geist immer beim Denken behindern."
Solche verkürzten Vorstellungen über Bewusstsein ziehen sich durch die gesamte KI-Forschung. Marvin Minsky, ein Pionier der KI-Forschung, definierte einmal: "Minds are simply what brains do", frei übersetzt: Bewusstsein ist, was das Hirn produziert. Und schon bei ihm finden sich transhumanistische Motive wie die Verschmelzung von Körper und Apparat oder die Überwindung des Todes.
Max Schnetker: Diese Sorte Materialismus stellt sich eben nicht der Tatsache, dass wir auch unsere Körper sind. Unsere Subjektivität ist körperlich bedingt und an sie gebunden, eben deshalb wird sie mit diesem Körper verloren gehen. Für einen Transhumanisten ist Subjektivität vom Körper ablösbar. Viele glauben zwar nach eigener Aussage nicht an Gott, aber dies bedeutet keinen existentialistischen Atheismus, der eingesteht, dass wir nichts Metaphysisches in uns tragen. Der Transhumanist hält sich für einen Atheisten, weil er nicht wortwörtlich glaubt, dass die Schöpfung in sieben Tagen abgelaufen und die Erde nur fünftausend Jahre alt ist, aber er flüchtet sich letztlich doch in Fantasien von Unsterblichkeit.

Eine Ideologie für die Eliten der Digitalisierung (und solche, die gerne dazu gehören wollen)

Wie wirkmächtig ist der Transhumanismus als Ideologie?
Max Schnetker: Er wirkt in bestimmten Milieus vor allem bei Besserverdienenden im Silicon Valley. Wahrscheinlich wird er sich weiter verbreiten, nicht zuletzt, weil er von erfolgreichen und einflussreichen Kapitalisten wie Peter Thiel gefördert wird. Die Singularity University wurde von den einschlägigen Konzernen wie Alphabet lange mit Millionenbeträgen unterstützt und trägt den Glauben an die Singularität bereits im Namen.
Den Beschäftigten in der Digitalwirtschaft kommt entgegen, dass der Transhumanismus ihrer Arbeit höhere Weihen verleiht: Indem sie dem technischen Fortschritt dienen, leisten sie einen kleinen Beitrag zur Erlösung der Menschheit, die schließlich in technischen Systemen aufgehen wird. Das kommt bei einer bestimmten technokratische Subklasse gut an. Ideen wie die der Singularität haben sich jedenfalls erstaunlich weit verbreitet.
Es handelt sich um eine Elitentheorie: Eliten hängen ihr an und sie liefert eine perfekte Begründung, worauf die herausgehobene gesellschaftliche Stellung beruht.
Max Schnetker: Wobei ich durch die Lektüre der entsprechenden Internetforen den Eindruck gewonnen habe, dass der Transhumanismus seine Basis nicht nur bei Unternehmern und Kapitaleignern, sondern auch bei deren Angestellten hat, ich sag mal: in der gehobenen Mittelklasse. Eine häufig nicht sehr erfüllende Arbeit an Werbe-Metriken wird philosophisch mit einer geschichtlichen Mission aufgeladen. Dabei werden die ursprünglich recht absonderlichen Ideen häufig abgemildert. Insofern verbürgerlicht diese Ideologie.
Der Untertitel deines Buchs lautet "rechte Utopien einer technologischen Erlösung". Was ist deiner Meinung nach rechts am Transhumanismus?
Max Schnetker: Ich möchte betonen, dass der Transhumanismus nicht einheitlich ist und diverse Spielarten kennt, die nicht alle reaktionär sind. In meinem Buch beschreibe ich die dominante Form, die sich mit der sogenannten Kalifornischen Ideologie verschränkt hat. Sie ist libertär und radikal kapitalistisch orientiert, also beispielsweise gegen Umverteilung. Als rechts entlarvt sich dieser Transhumanismus auch durch die häufige Referenz auf eugenisches Denken. Das Ziel ist die Optimierung des Menschen mit technischen Mitteln, durch Eingriffe in seinen Körper, etwa ins Genom oder Gehirn. Aber auch die Idee, dass man die Vermehrung von minderwertigen Menschen einschränken müsse, taucht immer wieder auf. Letztlich geht es also nicht nur um Technik, auch Ideen von Biologie und Rasse spielen eine Rolle. Bei Nick Bostrom und Eliezer Yudkowsky tauchen entsprechende Argumente typischerweise in Nebensätzen auf. Außerhalb des offiziellen Diskurses - das heißt: in den transhumanistischen und rationatlistischen Internet-Communities - begegnen einem dann ganz explizite Rassentheorien, die beispielsweise als "humane Biodiversität" diskutiert werden.

Futuristische Ideen mit alten Wurzeln

In deinem Buch arbeitest du heraus, dass trotz der futuristischen Elemente viele transhumanistische Ideen ziemlich alt sind, konkret: dem Utilitarismus und Liberalismus des 18. und 19. Jahrhunderts entstammen.
Max Schnetker: Die meisten Transhumanisten von heute haben Jeremy Bentham nicht gelesen, aber sie vertreten die gleichen Grundannahmen. Besonders bemerkenswert finde ich die Rückkehr von Theorien der Überbevölkerung, die Thomas Malthus im England des ausgehenden 18. Jahrhunderts entwickelte. Er ging davon aus, dass das Bevölkerungswachstum die Produktivitätssteigerung immer übertrifft, weshalb eine übermäßige Vermehrung der Armen die bestehende Ordnung bedroht. Aber auch in der post-singulären Gesellschaft glauben Transhumanisten wie Nick Bostrom, wird Überbevölkerung ein Problem bleiben. Gerade noch explodieren die produktiven Möglichkeiten und der technische Fortschritt beschleunigt sich in unvorstellbarem Maß - und dann soll eine Überbevölkerung entstehen, die nicht mehr versorgt werden kann? In der Ideologie wird Knappheit erst abgeschafft und dann durch die Hintertür wieder hereingeholt.
Thomas Malthus lieferte damals eine wissenschaftliche Theorie, um die Abschaffung der Armenfürsorge zu begründen. Im 19. Jahrhundert war das sicher nützlich, aber warum lösen sich Transhumanisten nicht von solchen Vorstellungen?
Max Schnetker: Der Horizont der bürgerlichen Gesellschaft wird trotz aller futuristischer Verheißung nicht überschritten. Knappheit gehört nun einmal zu den unverzichtbaren Grundlagen des eigenen Menschen- und Weltbildes. Wer sie aufgibt, bedroht die eigene Identität. So jedenfalls erkläre ich mir das.
Als Beispiel für die Verbindungslinie zwischen Utilitarismus und Transhumanismus führst du das Panopticon von Jeremy Bentham an. Bentham wollte bekanntlich mit architektonischen Mitteln erreichen, dass die Insassen von Gefängnissen oder anderen Institutionen ständig beobachtet werden können, ohne ihrerseits die Überwacher wahrnehmen zu können. Du bringst das Panoticon in Zusammenhang mit einer transhumanistischen Idee, dem Singleton. Warum?
Max Schnetker: Das Singleton steht für die kommende Herrschaft der Superintelligenz. Aber warum halten sie es überhaupt für eine gute Idee, die Macht an eine denkende Maschine zu übertragen? Das liegt daran, dass viele Transhumanisten gesellschaftliche Probleme grundsätzlich als reine Koordinierungsprobleme auffassen. Die Umstände und Spielregeln sind fix, nur die Spieler sind durch ihre Affenhirne eingeschränkt. Unter diesen Umständen wird die Superintelligenz-Maschine das größte Glück der größten Zahl gewährleisten, indem sie individuelles Verhalten dem allgemeinen Interesse anpasst. Und wie macht sie das? Indem sie alles erfasst und aufzeichnet.
Das vollständige Wissen über die Welt ähnelt stark dem Panopticon mit dem zentralen Aufseher, der auch über jeden einzelnen Gefangenen Buch führt und so die antisozialen Antriebe der Insassen beherrscht und letztlich beseitigt. Es ist derselbe technokratische Ansatz: Zentrale Beobachtung und Steuerung gilt als die Lösung für gesellschaftliche Probleme, nicht demokratischer Diskurs oder auch monarchische Eingebung oder was auch immer.
Ist der Transhumanismus letztlich gegen die Demokratie?
Max Schnetker: Die Strömung, mit der ich mich befasst habe, hat tatsächlich Ableger, die die Demokratie für überholt halten. Es ist kein Zufall, dass die sogenannten Neoreaktionäre zum Teil aus der Rationalismus-Bewegung entstanden sind, nämlich auf der Internetseite Less Wrong von Elizer Yudkowsky.
Die Neoreaktionäre lehnen Demokratie als suboptimal ab, weil Menschen eben unterschiedlich leistungsfähig seien; daher brauchen Leistungsträger bestimmte Vorrechte. Die Neoreaktionäre stören sich besonders am Feminismus, evolutionär und spieltheoretisch seien klassische Familienmodelle die effizientesten. Die erwartete technische Umwälzung soll zu Herrschaftsmodellen aus der Zeit vor der Französischen Revolution führen, zu einer Art Adelsherrschaft. Und wer gehört zum Adel? Vorzugsweise diejenigen, die ihre Leistungsfähigkeit schon unter Beweis gestellt haben, indem sie beispielsweise erfolgreiche Unternehmen am Markt etabliert haben.
Viele transhumanistische Ideen wirken, genauer besehen, bekannt. Was meinst du, warum verbreiten sie sich heute wieder?
Max Schnetker: Die klassischen liberalen Argumente entstanden, als im 19. Jahrhundert sich die gesellschaftliche Ungleichheit massiv verschärfte und ganz neue Formen annahm. Heute sind wir in einer ähnlichen Situation. Neue Machtverhältnisse entstehen, die gerechtfertigt werden müssen. Insofern ist der Transhumanismus ein Phänomen der Krise, eine Reaktion auf die Unsicherheit, die solche gesellschaftlichen Umbrüche auslösen, auch bei den Profiteuren solcher Entwicklungen. Gleichzeitig vermittelt die transhumanistische Ideologie die frohe Botschaft, dass schließlich doch alles wieder gut werden kann. (Matthias Becker)