Auf der Suche nach harten Fakten

Erstaunlich oft hört man in Diskussionen, das Standardmodell sei experimentell präzise getestet. Durch die vielen freien Parameter ist dies eigentlich kein Qualitätsmerkmal, aber die Aussage hält auch einer näheren Überprüfung nicht stand. Bei Einsteins Allgemeiner Relativitätstheorie stimmen Theorie und Beobachtung, etwa bei der Ablenkung von Quasarlicht, im Promillebereich überein, und die Quantenelektrodynamik bestätigt die Präzisionsmessungen der Atomphysik sogar mit noch mehr Nachkommastellen. Vergleichbare Präzision wird vom Standardmodell der Teilchenphysik nicht annähernd erreicht.

Event recorded with the CMS detector in 2012 at a proton-proton centre of mass energy of 8 TeV. The event shows characteristics expected from the decay of the SM Higgs boson to a pair of Z bosons, one of which subsequently decays to a pair of electrons (green lines and green towers) and the other Z decays to a pair of muons (red lines). The event could also be due to known standard model background processes. Bild: Thomas McCauley, Lucas Taylor/CERN

Meist werden qualitative Argumente angeführt, wie die Existenz von Neutralströmen in den 1970er Jahren, die Existenz von W- und Z-Teilchen 1984 - oder eben die Entdeckung des Higgs-Bosons, womit wir wieder in der Gegenwart sind. Angeblich vermittelt das Higgs-Boson die Einsicht, die Massen der Teilchen entstehen, aber auf Diracs Frage, warum das Proton 1836 mal so schwer wie das Elektron ist, hätte die moderne Physik nur die Antwort: Weil die Bestandteile des Protons 1836 mal so stark vom Higgs-Feld beeinflusst sind wie das Elektron. Erkenntnistheoretisch liegt darin noch nicht viel Fortschritt.

Protonkollision, die mit dem Compact-Muon-Solenoid-(CMS)-Teilchendektor beobachtet wurde. Bild: Thomas McCauley, Lucas Taylor/CERN

Bis hierher mag dies als sehr allgemeine Betrachtung erscheinen, die sich vielleicht im Lichte der experimentellen Fakten am CERN doch als zu skeptisch erweist. Es gibt aber ein paar ganz konkrete Gründe, warum sich jeder ausgebildete Physiker über die Datenauswertung am CERN eigentlich wundern müsste. Die wichtigste Evidenz für das Higgsteilchen ist, dass zwei zusätzliche Photonen bei der Protonenkollision entstehen. Dies ist erstaunlich, weil sich praktisch alle Teilchenpaare sich in Photonen umwandeln, und man fragt sich daher, wie aus einem so uncharakteristischen Ereignis die Existenz eines Teilchen mit so speziellen Eigenschaften gefolgert werden kann.

Vor allem bedeutet aber "zusätzlich" in diesem Fall, dass bei ca. einer Billion (!) gleichartigen Photonenpaaren im Mittel eines davon zu viel erzeugt wird. Die Datenauswertung geht also davon aus, alle anderen Umwandlungsprozesse genau zu verstehen und herausrechnen zu können. Der Versicherung, all dies werde höchst sorgfältig gemacht, möchte man gerne glauben, wäre da nicht das seit 1888 ungelöste Rätsel der Physik, dass man die Lichtabstrahlung von sehr stark beschleunigten Ladungen gar nicht präzise berechnen kann - es gibt keine Formel dafür, weil die Elektrodynamik starker Felder widersprüchlich ist.

Beim Aufprall von geladenen Teilchen, und genau dies passiert bei den Kollisionen, entstehen die größten Beschleunigungen (Abbremsungen, also mit negativem Vorzeichen), die die Physik überhaupt kennt. Wie kann man in einer experimentell noch nie dagewesenen Situation die Lichtabstrahlung von Photonen auf ein Billionstel genau modellieren, wenn die Physik anerkanntermaßen dazu keine präzise Theorie zur Verfügung hat?

Unglaublich kurzlebig

Eine weitere gravierende Irritation stellen die Lebensdauern der Teilchen des Standardmodells dar, etwa die des Top-Quarks in der Größenordnung von 10-25 s. Selbst bei Bewegung nahe an der Lichtgeschwindigkeit, und selbst wenn es nach Einsteins spezieller Relativitätstheorie eine etwas längere Lebensdauer spürt, kann dieses Teilchen nur etwa den Durchmesser eines Protons zurücklegen, zerfällt also lange bevor es den Kollisionspunkt mit seinem Gewirr von 600 Millionen pro Sekunde aufeinanderprallenden Teilchen verlassen kann.

Ein so kurzlebiges Teilchen kann nie direkt einen Detektor erreichen, und der Nachweis basiert einzig auf indirekten Rückschlüssen über Zerfallsprodukte, deren Verhalten man genau zu kennen glaubt (Dabei sind sich jüngst Wissenschaftler zum Beispiel über die Größe des Protons uneinig). Und es ist auch nicht verwunderlich, wenn verschiedene Detektoren wie ATLAS und CMS das Top-Quark "sehen" - es kommt ja weder in dem einen noch in dem anderen an, sondern wird aus nachfolgenden, wohl nicht sehr verschiedenen Computersimulationen postuliert.

Simulierte Daten für den CMS-Detektor, die zeigen, anhand welcher Spuren ein Higgs-Boson entdeckt werden könnte. Bild: David Barney/CERN

Bei der Analyse der Higgs-Daten werden unter anderem Top-Quarks vorausgesetzt. Das Higgs-Boson selbst hingegen gilt in der Theorie mit etwa 10-22 s als relativ langlebig. Nachgewiesen ist diese lange Lebensdauer aber keineswegs - dazu müsste die Breite des Signals in der Energiedarstellung (eine Konsequenz der Heisenbergschen Unschärferelation) fast tausendmal schmäler werden. Dies und andere Merkmale machen es im Moment völlig unabsehbar, ob das im Juli 2012 gefundene Signal jemals mit den Eigenschaften des Higgs-Bosons identifiziert werden kann.

Die kombinierte obere Grenze mfür die Erzeugung eines Standardmodell Higgs-Bosons als Funktion der Higgs-Boson Masse. Bild: ATLAS Collaboration/CERN

Das zutreffende Eingeständnis, man sei sich noch nicht sicher, wird in der öffentlichen Diskussion gerne mit der Wahrscheinlichkeit von 99,999% vermischt, die über die statistische Signifikanz etwas aussagt, ob man etwas gefunden hat - aber nichts darüber, was. So warnt Wikipedia sogar explizit vor dem Eintrag zu behaupten, das Higgs-Boson sei entdeckt.

Ist alles willkommen?

Eine bizarre Wendung erfährt die Diskussion bei jüngsten Ergebnissen, die den Vorhersagen widersprechen - dies sei, so hört man, ein Hinweis auf ein "Nicht-Standardmodell-Higgs-Teilchen", was auch immer das bedeuten soll. Es fällt nicht nur schwer, in diesem "Nicht-Standardmodell-Higgs-Teilchen" einen Triumph des Standardmodells zu erkennen, sondern es drängt sich die Frage auf, ob die Möglichkeiten, dieses Standardmodell in Zukunft zu modifizieren, nicht unbeschränkt sind und die Anzahl der zur Beschreibung nötigen Parameter nach oben offen.

Einstein, Dirac oder Schrödinger, daran kann kein Zweifel bestehen, hätten so ein Modell für absurd gehalten. Dies ist noch kein zwingendes Argument, aber vieles deutet darauf hin, dass wir uns in einer Krise des wissenschaftlichen Weltbildes befinden, wie sie Thomas Kuhn beschrieben hat. Die meisten Physiker spüren sogar beim Standardmodell ein Unbehagen, geben sich aber der Hoffnung hin, es könne repariert werden. Leider widerspricht hier Kuhn: Solche Modelle waren in der Wissenschaftsgeschichte nie nur ein bisschen falsch, sonder wenn, dann komplett.

An diese Möglichkeit auch nur zu denken, ist grausam. Die Vorstellung, Zehntausende von Physikern beschäftigten sich seit Jahrzehnten mit der Untersuchung eines Modells, das ähnlich falsch ist wie das geozentrische Planetenmodell, ist so alarmierend, dass eine emotionslose Diskussion darüber oft gar nicht mehr stattfindet. Daher ist auch das stärkste intuitive Argument, auch wenn sich manche dessen sich gar nicht bewusst sind, dass sich so viele Forscher gar nicht irren können. Belegt von der Wissenschaftsgeschichte ist dieses Argument nicht. Und gerade in der Teilchenphysik steht die Anzahl der beteiligten Wissenschaftler in scharfem Kontrast zu der Anzahl derer, die die eigentlichen Beobachtungen aus eigener Kenntnis wiedergeben können.

Es ist beunruhigend, dass aufgrund der Komplexität der Experimente das Wissen in der Physik nur mehr auf der Ebene des Endergebnisses weitergegeben wird - basierend auf gegenseitigem Vertrauen. Damit soll keineswegs Verschwörungstheorien das Wort geredet werden, weil sich die beteiligten Wissenschaftler nach bestem Wissen und Gewissen um die Auswertung bemühen - aber dass die Analyse des Experiments von keinem einzelnen mehr überblickt werden kann, ist ein Faktum.

Mit alledem ist kein Vorwurf verbunden. Keinen Forscher trifft Schuld, wenn er in seinem schwierigen Bemühen, Naturgesetze zu verstehen, zu falschen Schlüssen gerät. Aber Wissenschaft kennt, wie Romain Rolland einmal sagte, auch kein Mitleid. Philosophische, historische und methodische Gründe legen nahe, dass sich die heutige Teilchenphysik in einer Sackgasse befindet. Und niemandem ist gedient, wenn man vor dieser Möglichkeit auf Dauer die Augen verschließt.

Quo vadis, Teilchenphysik?

Der Teilchenzoo und die Parallele zum Mittelalter

Auf der Suche nach harten Fakten

Konstruktives - das gläserne Experiment

x
Fehler melden
Telepolis zitieren
Vielen Dank!
Anzeige
>
<

Darstellungsbreite ändern

Da bei großen Monitoren im Fullscreen-Modus die Zeilen teils unleserlich lang werden, können Sie hier die Breite auf das Minimum zurücksetzen. Die einmal gewählte Einstellung wird durch ein Cookie fortgesetzt, sofern Sie dieses akzeptieren.

Anzeige

Zwischen Russophobie oder Russophilie

Rudolf Maresch 07.01.2009

Unser Russland-Bild wird immer noch von Vorurteilen, überkommenen Reflexen und alten Feindbildern beherrscht

weiterlesen

Flashmobs und urbane Kissenschlachten

Über Graswurzelbewegungen und die Robustheit einer neuen Stadtaneignung

bilder

seen.by

Anzeige

TELEPOLIS