Der Teilchenzoo und die Parallele zum Mittelalter

Die meist auf nach dem Prinzip des Zyklotrons konstruierten Beschleuniger produzierten in der Nachkriegszeit so viele neue Teilchen, dass es sogar Enrico Fermi beunruhigte, der 1950 sagte: "Die Wahrscheinlichkeit, dass es sich um wirklich elementare Teilchen handelt, nimmt mit Ihrer Anzahl stetig ab." In einer Art Gegenbewegung wurden die Hunderten von Elementarteilchen ab den 1960erJahren in einem Schema geordnet, dem sogenannten Standardmodell der Teilchenphysik, das bis heute als Grundlage des Verständnisses gilt.

Ein französisches Zyclotron, 1937 in der Schweiz hergestellt, Musée des Arts et Métiers, Paris. Bild: Edal. Lizenz: CC-BY-SA-3.0

Trotz der relativen Vereinfachung konnte das Modell jedoch die vorherige Teilchenproduktion nicht wettmachen, es blieb, absolut gesehen, doch einigermaßen kompliziert: Das ehemalige Proton wird heute als aus Quarks zusammengesetzt angesehen, welche in sechs "Geschmacksrichtungen" auftreten: up, down, charme, strange, bottom und top. Zudem kommt jede dieser Sorten sowohl in drei "Farben" vor, als auch als Antiteilchen, so dass allein 36 sogenannte schweren Teilchen (Hadronen) existieren.

Dazu gesellen sich zwei weitere Partnerteilchen des Elektrons (Leptonen), mit dazugehörigen Neutrinos, sowie eine Palette sogenannter Bosonen, zu denen auch das 2012 aufgespürte Higgs-Teilchen gehört. Insgesamt also über 50 elementarster Teilchen, von denen jedes einen oder mehrere Eigenschaften in sich trägt, die Einstein willkürliche Zahlen genannt hätte. Man fühlt sich beim heutigen Standardmodell an einen Ausspruch von König Alfonso dem X. von Kastilien erinnert: "Hätte mich der Herrgott bei der Schöpfung um Rat gefragt, hätte ich etwas einfacheres empfohlen."

A typical candidate event including two high-energy photons whose energy (depicted by red towers) is measured in the CMS electromagnetic calorimeter. The yellow lines are the measured tracks of other particles produced in the collision. The pale blue volume shows the CMS crystal calorimeter barrel. Bild: ATLAS, Collaboration/CERN

Alfonso tat diesen Ausspruch, als er in der Bibliothek von Toledo von dem komplizierten geozentrischen Planetenmodells erfuhr. In der Tat drängt sich diese Parallele zur mittelalterlichen Astronomie auf: Als die Beobachtungen damals zeigten, dass die Planetenbahnen keine perfekten Kreise um die Erde waren, postulierte man sogenannte Epizyklen, auf einem Kreis montierte kleinere Kreisbahnen, die die am Himmel beobachtete Bewegung etwa von Mars befriedigend wiedergaben. Und als genauere Beobachtungen erneut eine Abweichung zeigten, behalf man sich mit der Erklärung, der Mittelpunkt des aufgesetzten Kreises sei um einen kleinen Betrag verschoben.

Aus heutiger Perspektive kommt uns dies reichlich bizarr vor, jedoch war das mittelalterliche Planetenmodell durchaus wissenschaftlich zu nennen und stimmte ziemlich gut mit den Beobachtungen überein. Aber die Präzision wurde erkauft mit freien Parametern, eben jenen unerklärten Zahlen, die die Theorie lediglich an die Messungen anpasst. Und je mehr solcher Parameter es gibt, desto besser funktioniert dies. Im heutigen Standardmodell ist ihre Anzahl beunruhigend hoch - jedenfalls über fünfzig. Was man auch immer als experimentelle Rechtfertigung anführen mag, man kann es wohl kaum mehr Physik in der Tradition von Newton nennen, dessen Credo war: "Wahrheit kann, wenn überhaupt nur in der Einfachheit gefunden werden, nicht in der Vielgestaltigkeit und Vermischung der Dinge."

Wissenschaft wird von Menschen gemacht

Aber ist es nicht naiv, zu glauben, die moderne Wissenschaft könne einen Irrtum aus dem Mittelalter wiederholen? Leider ist die Wissenschaftsgeschichte voll solcher Beispiele: es sei hier nur kurz erwähnt das Übersehen der Kernspaltung bis 1938, der Kontinentaldrift bis 1960 oder die hundert Jahre zu spät entdeckte Rolle der Oxidationen in der Chemie.

Der Wissenschaftsphilosoph Thomas Kuhn hat dies treffend in seinem Werk "The structure of scientific revolutions" beschrieben, dessen Kernaussage die Nicht-Stetigkeit des wissenschaftlichen Fortschritts ist. Üblicherweise wird an akzeptierten Modellen lange festgehalten, und widersprechende Beobachtungen, sogenannte Anomalien, integriert man in der Regel durch zusätzliche Annahmen in das Modell, das auf diese Weise unweigerlich komplizierter wird. So gesehen, könnte die Geschichte der Teilchenphysik dafür ein Paradebeispiel sein. Denn auch in der modernen Physik seit 1930 bestand der oft sehr indirekte Nachweis eines Teilchens meist darin, dass die Beobachtungen mit dem bis dahin einfacheren Modell nicht zu erklären waren.

Kuhns Thesen scheinen im Übrigen eine natürliche Konsequenz menschlichen Verhaltens. Es ist vergleichsweise leicht, Wissenschaftler von einem neuen Konzept zu überzeugen, auch wenn es das bestehende Modell kompliziert. Denn dieses wird ja durch die beseitigten Widersprüche stabilisiert, und nicht zuletzt auch durch die neu hinzugekommenen Forscher, die im neuen Konzept ein Arbeitsgebiet finden. Umgekehrt wird jeder Zweifel an der Richtigkeit des bestehenden Modells die erbitterte Feindschaft all jener hervorrufen, die ihre Arbeitsgrundlage bedroht sehen. Komplizierung scheint eine denknotwendige Folge menschlichen Handelns, das Konsens gegenüber der Konfrontation bevorzugt.

In seinem Buch Nobel Dreams (eine äußerst lesenswerter Insiderbericht über die Hochenergiephysik am CERN) formuliert Gary Taubes trocken: "Niemand hat je einen Nobelpreis für den Nachweis gewonnen, dass etwas nicht existiert." Das ausgezeichnete Buch Constructing Quarks des Teilchenphysikers Andrew Pickering räumt darüber hinaus mit dem Vorurteil auf, das Experiment sei immer eine eindeutige Aussage der Natur. Pickering beschreibt an detaillierten Beispielen, wie ein Anpassen der experimentellen Methoden an eine theoretische Erwartungshaltung konkret beeinflussen kann, was als experimentelles Faktum anerkannt wird.

Alle neu erschaffenen Konzepte der vergangenen Jahrzehnte waren für sich plausibel. Doch jeder unbegründete Zusatz, auch wenn er sich als Entdeckung präsentiert, ist eine subtile erkenntnistheoretische Niederlage. Echte wissenschaftliche Revolutionen vermehrten aber nie die Anzahl der unerklärten Parameter in der Physik, sondern verringerten sie - so wie die Maxwellsche Elektrodynamik, die die Lichtgeschwindigkeit über die elektrischen Konstanten berechnete.

Quo vadis, Teilchenphysik?

Der Teilchenzoo und die Parallele zum Mittelalter

Auf der Suche nach harten Fakten

Konstruktives - das gläserne Experiment

x
Fehler melden
Telepolis zitieren
Vielen Dank!
Anzeige
>
<

Darstellungsbreite ändern

Da bei großen Monitoren im Fullscreen-Modus die Zeilen teils unleserlich lang werden, können Sie hier die Breite auf das Minimum zurücksetzen. Die einmal gewählte Einstellung wird durch ein Cookie fortgesetzt, sofern Sie dieses akzeptieren.

Cover

Aufbruch ins Ungewisse

Auf der Suche nach Alternativen zur kapitalistischen Dauerkrise

Anzeige
Demokratie am Ende?

Wolfgang J. Koschnick analysiert den Niedergang der entwickelten parlamentarischen Parteiendemokratien. Das verbreitete Klagen über "die Politiker" und die allgemeine "Politikverdrossenheit" verstellt den Blick dafür, dass alle entwickelten Demokratien in einer fundamentalen Strukturkrise stecken.

bilder

seen.by

Anzeige

TELEPOLIS