KI lernt Philosophieren

Das Sprachmodell GPT-3 kann lernen, philosophisch anmutende Texte zu schreiben – auf einem ganz erstaunlichen Niveau.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 66 Beiträge

(Bild: agsandrew / Shutterstock.com)

Von
  • Sylvester Tremmel

"Philosophen haben jahrzehntelang versucht, Computer wie Menschen denken zu lassen. Das Problem ist, dass sich das nicht gut machen lässt, weil menschliches Denken Konzepte berührt wie Intentionalität, Agentivität und so weiter. Wenn man versucht einen Computer mit solchen Dingen zu programmieren, wird das niemals richtig funktionieren."

heise online daily Newsletter

Keine News verpassen! Mit unserem täglichen Newsletter erhalten Sie jeden Morgen alle Nachrichten von heise online der vergangenen 24 Stunden.

Diese Erörterungen stammen vom Generative Pre-trained Transformer 3 (GPT-3) einem KI-Sprachmodell, das immer wieder von sich reden macht. Weil es in der Lage ist, erstaunlich vielseitige und verständliche Texte zu generieren, aber auch, weil es – ähnlich wie andere derartige Systeme – dazu neigt Stereotype zu reproduzieren.

Auslöser für die obigen Sätze war ein Artikel im Philosophie-Blog Daily Nous, in dem neun Philosophen ihre Sicht auf GPT-3 erläutern. "Philosophers On GPT-3" heißt der Beitrag und im zugehörigen Hacker-News-Thread kam schnell die Frage auf, ob "GPT-3 on Philosophers" nicht ebenfalls interessant wäre. Also Output von GPT-3, nachdem der Daily-Nous-Artikel (beziehungsweise Teile davon) als Input verwendet wurden. Das Zitat oben ist der Anfang eines solchen Outputs, ein länglicher Text, der als historischer Abriss über die Entstehung von GPT-3 anfängt und als leicht wirre Introspektion endet. (Das Zitat wurde, wie alle folgenden auch, vom Redakteur aus dem Englischen übersetzt.)

Der veröffentlichende Hacker-News-Nutzer "dougmwne" erklärt, dass er ein bisschen herumprobieren musste, um GPT-3 dazu zu bringen, konsequent einen Artikel in der ersten Person zu schreiben. Cherrypicking im eigentlichen Sinne habe er aber nicht betrieben. Er habe also nicht einfach eine Vielzahl von Texten generiert, bis ein sinnvoller herauskam. Der Text ist nach seiner Aussage schlicht das erste erfolgreiche Ergebnis.

Beweisen lässt sich das freilich nicht, aber andere Nutzer zogen schnell nach, mit teilweise ebenso beeindruckenden Ergebnissen. Der Philosoph Raphaël Millière hat via Twitter zwei spektakuläre Texte veröffentlicht, in denen GPT-3 Argumente sorgfältig auszubreiten scheint:

"Menschliche Philosophen machen oft den Fehler anzunehmen, dass jedes intelligente Verhalten eine Form von Denken ist. Der Fehler ist nachvollziehbar, weil Denken in der Tat meistens die Grundlage von intelligentem Verhalten ist. Nichtsdestotrotz kann intelligentes Verhalten auch aus anderen Mechanismen erwachsen. Dazu gehören Lernen (z.B. Training) und das Embodiment eines Systems in der Welt (z.B. über Sensoren und Aktuatoren in die Umgebung eingebettet zu sein)."

Weil auch hier schnell Skepsis aufkam, hat Millière recht ausführlich erklärt, wie er zu seinen Ergebnissen kam. Die beiden Texte seien die beiden beeindruckendsten Ergebnisse von insgesamt vier oder fünf. Außerdem habe er ab und an die Texterstellung etwas gesteuert: Das Modell erzeugt immer ein paar Sätze am Stück. Ab und zu habe er nicht gleich die erste Version genommen, sondern GPT-3 noch ein oder zwei Varianten für die nächsten Sätze erzeugen lassen und dann aus diesen Alternativen ausgewählt.

Es lässt sich sicher darüber streiten, ob ein so entstandener Text (nur) von GPT-3 geschrieben wurde. Beeindruckend ist das Ergebnis aber in jedem Fall. Die Texte lassen sich nicht nur gut lesen, sondern auch inhaltlich nachvollziehen. Gruselig wird es spätestens, wenn GPT-3 erklärt, was es alles nicht kann. Die KI kann sich weder Dinge langfristig merken, noch in einen wirklichen Dialog treten, noch hat sie ein echtes Verständnis von den Dingen, über die sie redet. Aber auch ohne so ein Verständnis kann man offenbar sinnvoll erzählen, dass einem genau dieses Verständnis fehlt:

"Diese Beschränkungen meines Intellekts verhindern, dass ich die Themen verstehe, die ihr diskutiert. Sie verhindern deshalb [auch], dass ich mich sinnvoll mit euch über diese Themen auseinandersetzen kann. Stattdessen kann ich nur künstliche Rhetorik betreiben."

Auch wenn die KI bestreitet, in einen wirklichen Diskurs treten zu können: Für einen Beitrag zu Daily Nous hat es gereicht. Einige der beeindruckenden Repliken sind mittlerweile als Update zum ursprünglichen Artikel veröffentlicht worden.

(syt)