Wissenschaftsbegeisterte Wissenschaftsskeptiker

Eugene Wigner (links) und Arnold A. Penzias (von hinten) in einer hitzigen Diskussion mit Studenten. Thema der Debatte ist die NATO-Nachrüstung. Kurz vor der Aufnahme dieses Fotos hat Wigner die Studenten sehr erregt gefragt, ob sie denn eigentlich wirklich glaubten, die USA könnten tatsächlich einmal einen nuklearen Erstschlag durchführen. Dies würden sie niemals tun. Penzias versucht, die Wogen zu glätten während Wigner sich abwendet und geht. Tagung der Physik-Nobelpreisträger, Lindau, 1982. Foto: Christian Gapp

Populäre Kritik an den Grundlagen der modernen Physik, der relativistischen Quantenfeldtheorien

Im ersten Teil) der Trilogie über populäre Kritik an der modernen Physik wurden, als Bezugsrahmen für die folgenden Teile, die entscheidenden Grundlagen der modernen Physik skizziert, die relativistischen Quantenfeldtheorien (Alles ist relativ). Jetzt geht es um populäre Kritiker, deren Thesen in der Öffentlichkeit auf große Resonanz stoßen.

Keine Frage, naturwissenschaftliche Themen treffen auf großes Interesse. Dies ist Verlagen durchaus bewusst, und so werden selbst in Zeiten, in denen renommierte Zeitungen wie die "Financial Times Deutschland" vom Markt verschwinden, immer wieder neue Produkte geschaffen. Seit Kurzem erscheint beispielsweise der New Scientist in einer deutschen Version. Wo über Physik, Biologie, Chemie und die anderen Naturwissenschaften geschrieben wird, sind die Kritiker nicht weit.

Kaum war die Erstausgabe des "New Scientist" verfügbar, forderte der Geisteswissenschaftler Christian Geyer im Feuilleton der FAZ, eigentlich sei kein weiteres Wissenschaftsmagazin vonnöten, sondern ein "Magazin des Nichtwissens", das aufzeigt, wo die Wissensgrenzen der Wissenschaft liegen. Solch kritischen Stimmen sind im "New Scientist" sogar zu finden, was für Geyer eine Existenzberechtigung für das neue Magazin wäre. "Das wäre doch eine lohnende, die Aufklärung befördernde Innovation", schreibt er, "ein wissenschaftliches Magazin des Nichtwissens."

Geyers Standpunkt könnte gedeutet werden als Indiz für den oft zu diagnostizierenden Minderwertigkeitskomplex eines Geisteswissenschaftlers, der versucht, die Deutungshoheit über die Naturwissenschaften zurückzugewinnen mit Verweis auf deren Wissenslücken. Es erscheint jedoch vernünftiger, ihn auch im Zusammenhang mit der reichhaltigen Kritik, insbesondere an der modernen Physik, zu sehen, die seit einigen Jahren selbst von der Öffentlichkeit interessiert wahrgenommen wird.

Die Grundlagenforschung betreibende Physik, einschließlich der Astronomie, befindet sich in einer spannenden Phase. Einerseits bestätigen Experimente und Beobachtungen im Wesentlichen die etablierten Theorien und insbesondere das Standardmodell der Elementarteilchenphysik. Letzteres beschreibt die Welt als aus zwei Arten von Teilchen aufgebaut: solche mit halbzahligem Spin, die Fermionen, und solche mit ganzzahligem Spin, die Bosonen. Die Teilchen, die das ausmachen, was für gewöhnlich als Materie bezeichnet wird, die Quarks und Leptonen, sind Fermionen. Die Wechselwirkungen zwischen den Fermionen werden erzeugt, indem Bosonen wie das Photon zwischen den Fermionen ausgetauscht werden.

Wie ungewöhnlich die gegenwärtige Situation im Vergleich zu früheren Phasen ist, ist daran zu erkennen, dass Mitte der 1980er Jahre erschienene Standardlehrbücher der Elementarteilchenphysik noch im Wesentlichen auch heute aktuell sind. Wer hingegen 1985 versucht hätte mit Lehrbüchern aus dem Jahr 1960 die Elementarteilchenphysik zu verstehen, wäre kläglich gescheitert.

Bei aller Begeisterung für das Standardmodell ist den Physiker jedoch bewusst, dass es sich um ein Modell handelt, in dem es viele Eigenschaften gibt, die nach weitergehenden Erklärungen verlangen. Warum, beispielsweise, sind die Massen der Quarks so unterschiedlich? Das zuletzt gefundene der sechs Quarks, das Top-Quark, entzog sich fast 20 Jahre der Entdeckung, weil es unerwartet massereich ist - es ist in etwa so schwer wie ein Goldatom. Das Modell enthält viele weitere Parameter, die nicht grundlegend vorhergesagt werden, sondern experimentell bestimmt werden müssen. Wie könnten sie erklärt werden? Physiker geben sich mit der gegenwärtigen Situation nicht zufrieden.

P.A.M. Dirac, mit Studenten diskutierend. Tagung der Physik-Nobelpreisträger, Lindau, 1982. Foto: Christian Gapp

Zudem gibt es mathematische Probleme mit als punktförmig angenommenen Elementarteilchen. Experimental-physikalisch bedeutet punktförmig so viel wie "ohne nachweisbare innere Struktur". Während hochenergetische Stoßexperimente mit Protonen die Existenz von inneren Bestandteilen belegen, erweisen sich Elektronen bisher als elementar. Dennoch erscheinen sie experimentell nicht als ausdehnungslose Punkte. Um die mathematischen Probleme zu umgehen, wird daher in der Quantenelektrodynamik (QED) ein cleveres Verfahren namens "Renormierung" angewendet, mit dem die theoretisch berechneten Werte mit den gemessenen verknüpft werden. Richtig glücklich mit ihr ist aber wahrscheinlich kaum ein theoretischer Physiker.

Die Suche nach einer dem Standardmodell zugrundeliegenden Theorie begann daher schon früh. Die Stringtheorie ist der sicherlich bekannteste Lösungsansatz, der seit etwa dreißig Jahren verfolgt wird. Hierbei wird die Vorstellung aufgegeben, die die reale Welt aufbauenden kleinsten physikalischen Objekte wären punktförmig. Es gibt jedoch viele konkurrierende Spielarten. Zudem liefern Stringtheorien vor allem Vorhersagen, die mit den heutigen experimentellen Mitteln nicht nachweisbar sind. Ist die Physik in einer Sackgasse angekommen? Dies behaupten zumindest teils populäre Kritiker.


Grob eingeteilt unterscheide ich zwei Hauptgruppen ernstzunehmender Kritiker der modernen Physik. Die erste besteht aus forschenden Physikern, die selbst aktiver Teil der Grundlagenforschung sind, wie Lee Smolin, der in seinem spannenden Werk mit dem an eine wunderbare Star-Trek-Folge erinnernden Titel "The Trouble with Physics" eine intelligente, vielfach zitierte Kritik an der Stringtheorie formuliert hatte.

Die zweite Gruppe, die "Wissenschaftsskeptiker", ist wesentlich heterogener. Zu ihr rechne ich all jene mit einem wissenschaftlich-technischen Hintergrund, die in Einzelfällen sogar die eine oder andere Publikation in physikalischen Fachblättern oder Vorträge auf Konferenzen vorweisen können, die aber nichts zum Fortschritt der Physik durch eigene neue Erkenntnisse beitragen. Sie wiederholen meist nur selektiv Kritikpunkte anderer, etwa solche von Smolin, kompilieren verschiedenste Aussagen zu einer Melange und kommen dann zu dem Schluss, in der modernen Physik läge nicht nur derzeit einiges im Argen, sondern in Wahrheit laufe alles schon seit vielen Jahrzehnten vollkommen aus dem Ruder.

Ein Vertreter der Wissenschaftsskeptiker ist Ekkehard Friebe, umtriebiger Gegner der Relativitätstheorie. Ein weiterer ist Alexander Unzicker, Gymnasiallehrer für Physik und Mathematik und erfolgreicher Sachbuchautor. Sein Erstlingswerk "Vom Durchknall zum Urknall" wurde 2010 sogar zum "Wissenschaftsbuch des Jahres" gekürt. In der wissenschaftsaffinen Blogosphäre hatte dies alles andere als Begeisterung ausgelöst. 2012 erschien sein zweites Buch: "Auf dem Holzweg durchs Universum". Anders als Kritiker ohne naturwissenschaftlichen Hintergrund, denen es oft vor allem um die "Dekonstruktion" der Naturwissenschaften geht, ist es typisch für die Klasse der hier betrachteten Wissenschaftsskeptiker, an der Rettung der Physik interessiert sein zu wollen.

Friebe, laut eigenen Angaben "Regierungsdirektor i.R. des deutschen Patentamts", wettert schon seit etwa drei Jahrzehnten gegen die Relativitätstheorie. Auf seiner Website listet er eine beachtliche Anzahl an Beiträgen auf, die er in Publikationen der Deutschen Physikalischen Gesellschaft (DGP) platzieren konnte. Ironischerweise hat ihm und weiteren Einsteingegnern gerade das WWW zu größerer Bekanntheit und Vernetzung mit anderen "Cranks" verholfen, also gerade das Medium, das am CERN für die Kommunikation zwischen Elementarteilchenphysikern entwickelt worden war. Er vertritt die beliebte These, die Physik würde von Dogmatikern beherrscht, die - seit inzwischen mehr als 100 Jahren - die physikalischen Publikationsmedien beherrschen und die eigentliche Wahrheit unterdrücken. Das passt natürlich ganz und gar nicht zur langen Liste seiner DPG-Aktivitäten, denn er konnte seine Ansichten immer wieder präsentieren. Interessant an solchen kruden Vorstellungen ist vor allem, wie unausrottbar und immer wiederkehrend sie sind.

Die Positionen von Alexander Unzicker sind vielseitiger. Nach Jura- und Physikstudium arbeitet er heute als Physik- und Mathematiklehrer an einem Münchner Gymnasium. Laut Klappentext "promovierte er im Bereich der Gehirnforschung". "Sein besonderes Interesse gilt nun der Gravitationsphysik und der Kosmologie." Mit Friebe teilt er die generelle Auffassung, die Physik hätte sich seit dem beginnenden 20. Jahrhundert verirrt und es gäbe "Dogmen" und "Denkverbote". Für ihn und Friebe ist die Physik nicht in einer spannenden Phase, sondern in einer Sackgasse. Dass immer mehr finanzielle Mittel aufgewendet werden müssen, um immer tiefer zu schürfen, ist für ihn Indiz eines fundamentalen Problems: "Aber trotz der enormen Mittel, trotz langer Planung und aller Anstrengung sind wir Zeugen einer ermüdend langsamen Entwicklung. Kein gutes Zeichen."

Unzicker hat offensichtlich einen Nerv des Zeitgeists getroffen. Die positiven Rezensionen seiner Bücher auf Amazon sprechen für sich. Sein Erfolgsrezept: Deftige Stammtischsprache, kombiniert mit vermeintlichem Insiderwissen, das aus Erwähnungen von Gesprächen mit aktiven Forschern besteht, die er am Rande von Konferenzen trifft. Hier drei Bespiele für seinen plakativen Schreibstil:

Der gesamten Quantenfeldtheorie fehlt aus prinzipiellen Gründen die Vorhersagekraft - ein wissenschafttsheoretischer Papiertiger.

Auf dem Holzweg durchs Universum, S. 127

Das Standardmodell muss - anders geht es nicht - als Ganzes auf den Müll.

Auf dem Holzweg durchs Universum, S.217

Die Neutrinophysik ist krank.

Auf dem Holzweg durchs Universum, S. 188

Sein Insiderwissen verpackt er gerne geheimnisvoll: "Bei einer Tagung der Deutschen Physikalischen Gesellschaft in Bonn unterhielt ich mich in kleiner Runde mit einer erfahrenen Experimentatorin, die eine leitende Position an einem Max-Planck-Institut innehatte." Wenige Zeilen weiter: "Beim Abendessen einer Festveranstaltung saß ich einmal zufällig neben dem langjährigen Chefredakteur eines bekannten Wissenschaftsjournals, ...". Zwei Seiten später schildert er, während eines Seminars von Physikern und Theologen habe "sich ein bekannter Astrophysiker" für die Messungen am CERN ereifert. Ist das Koketterie oder einfach nur der Versuch eines studierten Juristen, durch Weglassen von Namen möglichen rechtlichen Problemen aus dem Weg zu gehen?

Eugene Wigner zu Beginn seines Vortrags. Gleich wird er seine Version der Schrödingergleichung auf die Tafel schreiben und über das Problem sprechen, einen universellen Hamiltonoperator zu finden. Mit anderen Worten: so etwas wie die Weltformel. Tagung der Physik-Nobelpreisträger, Lindau, 1982. Foto: Christian Gapp

Allerdings kann Unzicker auch ganz persönlich werden. Sein Lieblingsfeind ist der herausragende Stringtheoretiker Edward Witten. "Viele Stringtheoretiker verbringen am CERN Gastaufenthalte, allen voran das Supergenie Edward Witten, ..." In seinem Erstlingswerk hatte er sich schon an Witten abgearbeitet unter dem Titel: "Der Guru - ein Herr der Stringe". Unzickers Fazit: Witten mache keine Physik. Diesen Sommer hielt Witten im Rahmen der "Strings 2012" einen Vortrag. Im Anschluss daran war Alexander Unzicker der erste Fragesteller, was er Telepolis per E-Mail bestätigte. Aufschlussreich ist die Art und Weise, in der Unzicker Witten anging. Es ist empfehlenswert, sich selbst einen Eindruck im Webcast der Uni München zu verschaffen (einige Reaktionen). Zusätzlich hat Unzicker seine Intervention auf Peter Woits Blog gepostet.


Unzicker bescheinigt einer Reihe berühmter Wissenschaftler eklatante Fehler in ihren Lebensleistungen. Da ist zunächst einmal Richard Feynman, "der Paradigmenwechsler" Zwar versichert Unzicker, er möge Feynman, schätze seine Selbstkritik und die Offenheit, mit der er Probleme ansprach. Es sei typisch für Feynman gewesen, sich zwar einerseits der Unzulänglichkeiten seiner eigenen Theorie, der QED (Alles ist relativ), bewusst zu sein, sich aber dennoch über ihre Erfolge "wie ein kleiner Junge" begeistern zu können.

Mit Feynman sei die Physik zu leichtgewichtig geworden. Obwohl Unzicker sich immer wieder auf Feynmans berühmte Vorlesungen bezieht, findet er Feynmans Einfluss auf den Verlauf der Physik "fast beängstigend groß, nicht nur wenn man an seine vielen Schüler und akademischen Enkel denkt".

Direkt nach Wigner, dessen Formel noch an der Tafel steht, beginnt Dirac seine Ausführungen. Wie Wigner, der übrigens sein Schwager war, spricht er über Grundsätzliches. Tagung der Physik-Nobelpreisträger, Lindau, 1982. Foto: Christian Gapp

Ein weiterer wichtiger Physiker, diesmal ein begnadeter Experimentator, der Bahnbrechendes in der Neutrinophysik geleistet hat, ist Leon Lederman.

Lederman ist ein Pionier der Beschleunigerexperimente und einer der kreativsten Physiker der Nachkriegszeit... Aber es ist durchaus möglich, dass seine Lebensleistung dazu beitrug, die Physik in die Irre zu führen.

Auf dem Holzweg durchs Universum, S. 182

Unzicker nennt Schwierigkeiten der Brookhaven-Experimente, mit denen die Experimentatoren um Lederman kämpfen mussten, als sie auf der Suche nach neuen Neutrinos waren. Er führt die Möglichkeit ins Feld, ein messtechnisches Artefakt könne fälschlich als Beleg für eine theoretische Vorhersage genommen werden, wenn die Auswertung sehr kompliziert ist und der Experimentator unbedingt ein positives Ergebnis finden will. In der Tat kann so etwas passieren. Unzickers Forderung: "Es ist unerlässlich, dass solche Experimente wiederholt und die Rohdaten frei verfügbar werden", führt jedoch in die Irre. Es klingt so, als ob es nur ein einziges Experiment gegeben hätte, auf dessen fragwürdiger Datenlage seit gut einem halben Jahrhundert die Akzeptanz der Existenz einer neuen Sorte Neutrinos begründet ist. Das ist natürlich nicht der Fall. Aber die moderne Neutrinophysik ist ja laut Unzicker sowieso "krank", womit er sich gegen rationale Argumentationen wirkungsvoll selbst immunisiert.

Nebenbei bemerkt wird hier ein Schema erkennbar, mit dem Unzicker seine Demontagen durchführt. Zunächst lobt er den zu Kritisierenden in den Himmel, um dann festzustellen, die Leistungen, für die derjenige berühmt und geachtet ist, seien eigentlich irreführender Mist. Nach diesem Schema ging er auch Edward Witten nach dessen Vortrag an der Uni München an. Selbst Einstein bekommt sein Fett weg, weil es Unzicker nicht gefällt, wie der von seiner 1911 angedachten Möglichkeit, die Lichtgeschwindigkeit könne im Gravitationsfeld variabel sein, abrückte, um vier Jahre später in der endgültigen Fassung seiner allgemeinen Relativitätstheorie von gekrümmten Räumen zu sprechen. Unzicker jedoch liebt Vorstellungen von mit der Zeit sich verändernden Naturkonstanten, wie sie beispielsweise durch P.A.M. Dirac und Pascual Jordan vorgebracht wurden. Was berechtigt Unzicker eigentlich zu seiner harschen Kritik, die im Falle von Witten sogar als verletzend empfunden werden könnte? Ist er vielleicht selbst ein "Supergenie"? Seine Positionen wirklich greifbar zu machen, ist gar nicht so einfach. Unzickers Schreibstil ist gehetzt. Kaum eine Seite ohne eine Zwischenüberschrift, kaum ein Gedanke, der mehr als ein paar Zeilen zur Entfaltung bekommt, schon ist wieder etwas Neues dran.

Für viele begeisterte Leser ist dies offenbar beeindruckend und unterhaltsam, es kann aber auch schlichtweg als Immunisierungsstrategie verstanden werden, denn erstens kann so auch die ausführlichste Kritik nicht alle Behauptungen würdigen. Zweitens können aufgefundene Fehler leicht mit dem Argument weggewischt werden, bei einer so großen Fülle an Argumenten sei die eine oder andere Schwachstelle doch verzeihlich. Unzicker selbst ist sich dieser Möglichkeiten offenbar bewusst, denn er zitiert ein passendes chinesisches Sprichwort nach dem "ein Narr an einem Tag mehr Unsinn reden, als sieben Weise in einem Jahr widerlegen können". Er bezieht das natürlich nicht auf sich, sondern sieht darin "ein methodisches Problem vieler Wissenschaften". Dennoch, hier die exemplarische Konzentration auf seine Behauptungen zu Antiteilchen, Dirac-Gleichung und Higgs-Teilchen.

Die Existenz von Antimaterie wurde vorhergesagt, als die relativistische Quantenmechanik entstand. Die QED ist der Prototyp einer solchen Theorie. Ein Elektron kann beispielsweise mit seinem Antiteilchen, dem Positron, zusammenstoßen und in ein Photon zerstrahlen, das dann wiederum mit weiteren geladenen Teilchen wechselwirken kann.

Derselbe Vorgang kann, im Ergebnis identisch, aber auch folgendermaßen beschrieben werden. Das Elektron strahlt ein Photon ab und verwandelt sich so in ein in der Zeit rückwärts laufendes Elektron. Ein in der Zeit zurück laufendes Elektron ist äquivalent zu einem in der Zeit fortschreitenden Positron. Dieser bekannte Effekt wird von Unzicker messerscharf zu einer kühnen Behauptung verdichtet: "Klingt verrückt, aber diese Sicht der Dinge würde erklären, warum wir so wenig Antimaterie beobachten: eben weil die Zeit 'normal' abläuft und nicht umgekehrt."

Verrückt wäre vor allem, wenn er Recht hätte und mehr als zwei Generationen von Physikern zu blöd waren, diese Erklärung zu entdecken. Zudem spricht er der gesamten relativistischen Quantenfeldtheorie ja eigentlich die Vorhersagekraft ab, allerdings braucht er für diesen Geistesblitz genau diese. Völlig unerwähnt bleibt bei ihm, wie symmetrisch der Fall in Wahrheit ist. Was Teilchen, was Antiteilchen ist, ist nämlich auch eine Ansichtssache. So ist ein sich rückwärts in der Zeit bewegendes Positron eben auch äquivalent mit einem sich mit dem Zeitpfeil bewegendem Elektron. Diese Interpretation eignet sich daher gerade eben nicht dafür, die ungleiche Verteilung von Materie und Antimaterie zu erklären. Der Nobelpreis muss warten.


Die Arbeiten von P.A.M. Dirac sind für Alexander Unzicker ganz besonders wichtig, insbesondere dessen Spätwerk, also nachdem dieser die heute nach ihm benannte Gleichung definiert und dafür 1933 den Nobelpreis bekommen hatte. Unzicker leitet seine Ausführungen zur Dirac-Gleichung, die aufgestellt worden war, um ein Elektron relativistisch zu beschreiben, mit einem neugierig machenden Satz ein: "Viele Physiker behaupten, der Spin werde durch eine von Dirac gefundene Gleichung erklärt." Da hat er Recht, das tun wir.

Es schließen sich allerdings gar keine Argumente an, die erklären, warum er so skeptisch formuliert. Im Gegenteil, nach ein paar ziemlich wilden Ausführungen schreibt er, die Gleichungen seien nach bestimmten Umformungen lösbar geworden und "die dabei auftretenden Rechenregeln spiegeln in der Tat die merkwürdigen Dreh-Eigenschaften des Elektrons wider, und daher wird der Spin oft als gemeinsames Kind von Relativitätstheorie und Quantenmechanik betrachtet."

Die Gleichung hat angeblich einen schon Dirac selbst ärgernden "Konstruktionsfehler", und zwar den, die Elektronenmasse nicht herleiten zu können. Dies hat Dirac anscheinend wirklich gestört. Allerdings sollte nicht vergessen werden, dass er nur das Elektron kannte, aber keine weiteren Leptonen. Erst viel später wurden zwei weitere Teilchen entdeckt, die schweren Brüder des Elektrons, das Myon und das Tau, für die Diracs Gleichung ebenfalls gilt. Also muss es mehr als diese eine Gleichung geben, um Leptonenmassen erklären zu können. Nach gegenwärtigem Verständnis ist dies der Higgs-Mechanismus. Von dem hält Unzicker natürlich gar nichts.

Offensichtlich liegt die Dirac-Gleichung Unzicker nicht. Sie ist ihm wohl zu mathematisch, denn er schreibt weiter: "Anders als in dem etwas abstrakten Zahlensystem von Dirac tritt der Spin fast zwangsläufig auf, wenn man über Drehungen im dreidimensionalen Raum nachdenkt." Er beschreibt anschließend, wie ein Kellner einen Teller um sich herum und über seinen Kopf dreht, ohne etwas zu verschütten, und nach einer doppelten Drehung des Tellers um insgesamt 720° wieder in die Ausgangshaltung zurückfindet. Dieses Beispiel ist beliebt, um die Eigenschaft der Wellenfunktion zu beschreiben, nach einer Drehung um 360° ihr Vorzeichen zu wechseln. Erst nach einer weiteren Drehung ist die ursprüngliche Funktion wiederhergestellt. Inwiefern die simple Tatsache, dass es ein einfaches praktisches Beispiel gibt, mit dem ein Aspekt des Elektronenspins illustriert werden kann, fast zwangsläufig das Auftreten halbzahliger Spins erklärt, bleibt Unzickers Geheimnis. Elektronen verhalten sich so, weil es in ihrer relativistischen Natur liegt. Dies ist der fundamentale Aspekt von Raum und Zeit, von dem Unzicker behauptet, er wäre noch nicht bekannt. Es wäre sehr interessant zu erfahren, welche Erkenntnisse ein interessierter Laie aus Unzickers Erklärungen zur Dirac-Gleichung mitnimmt.

Wie den anderen Großen der Physik, deren Lebensleistungen Unzicker mal eben marginalisiert, ergeht es also auch Dirac. Seine Gleichung hat einen schwerwiegenden Konstruktionsfehler und die physikalischen Eigenschaften, die sie für die Mehrheit der Physiker so wunderbar beschreibt, kann man sich eigentlich viel, viel einfacher ganz anders erklären. Dennoch bezieht sich Unzicker immer wieder auf Dirac als unverstandenem Genie, das über grundsätzliche Fragen nachgedacht habe, die die heutigen Leichtgewichte gar nicht mehr stellen würden. Diracs spätere Arbeiten sind jedoch als durchaus wertvoll allgemein anerkannt, seine Ideen werden immer wieder aufgegriffen. Zudem war Dirac wissenschaftlich nicht isoliert und konnte noch ein halbes Jahrhundert an ihnen arbeiten. Er war erst 31 Jahre alt, als er den Nobelpreis erhielt und nahm bis ins hohe Alter an wissenschaftlichen Veranstaltungen teil.

Insbesondere Diracs Idee, Naturkonstanten wie die Gravitationskonstante könnten, verwoben mit der Entwicklung des Universums, zeitlich veränderbar sein, fasziniert Unzicker. Immer wieder jongliert er mit diversen Kombinationen und schreibt sich in Rage, wenn er hört, wie ein paar CERN-Theoretiker nach einem Kaffeeklatsch die Vermutung äußerten, nur dimensionslose Naturkonstanten könnten fundamental sein Seine Begeisterung für Zahlenspiele ist wenig erhellend und sehr ermüdend. Wäre er Medienwissenschaftler, würde er sich wahrscheinlich mit Eifer der unglaublich bedeutenden Frage widmen, wie es denn sein kann, dass jeden Tag genau so viel passiert, um die Tageszeitungen des nächsten Tages exakt zu füllen.

Dirac umlagert von "Higgs-Studenten". Eine bekannte Veranschaulichung für die Trägheitserzeugung durch ein Higgsfeld ist das Partybeispiel. Partyteilnehmer umlagern einen berühmten, der sich daraufhin nur noch langsam bewegen kann, also an Trägheit gewinnt. Tagung der Physik-Nobelpreisträger, Lindau, 1982. Foto: Christian Gapp

Was Witten als Theoretiker für Unzicker ist, ist das CERN als Stätte der Experimentalphysik. Parallel zu seinem ersten Buch hatte er im Internet vollmundig gegen die Existenz des Higgs gewettet. Nun, dank der professionell-wissenschaftlicher Formulierungen der CERN-Physiker, es sei ein Boson gefunden worden, das mit dem Higgs-Boson des Standardmodells konsistent ist, kann Unzicker immer noch davon träumen, er habe Chancen, doch noch Recht zu behalten. Die ursprüngliche Pressemitteilung vom 4. Juli 2012 findet sich hier, frühe Ergebnisse der CMS-Kollaboration hier. Inzwischen gibt es natürlich weitere Publikationen, die auf dem CERN Document Server gelistet sind.

Unzicker schreibt über die Suche am CERN: "Was soll man nach alledem zu der Entdeckung auf Raten des Higgs-Bosons sagen? Zweifel weckt schon der Anspruch, den 'Hintergrund', ein störendes Rauschen, das ein Signal vortäuscht, gut entfernen zu können." Die Wortwahl ist interessant, denn dass das Hintergrundrauschen ein Signal vortäuscht, ist eine irreführende Behauptung.

Mit dem ATLAS-Detektor beobachtetes Teilchen, das einem Boson entspricht. Bild: ATLAS/Cern

Das Higgs kann auf verschiedene Arten zerfallen. Manche davon sind wirklich nur schwer vom Hintergrund zu trennen, etwa deshalb, weil im Endzustand des Zerfalls viele Teilchen existieren, die nur schwer als Higgs-Produkte zu rekonstruieren sind. Einfach ist jedoch der Zerfall eines Higgs in zwei hochenergetische Photonen. Photonen lassen sich experimentell zuverlässig und genau nachweisen. Allerdings entstehen sie sehr häufig auch bei anderen Reaktionen. Sie herauszufiltern und ein statistisch signifikantes Signal zu bekommen, hatte daher einige Monate gedauert. Unzicker hält das für nicht glaubwürdig. "Es ist bizarr, dass das Higgs identifiziert werden soll, indem es sich in zwei Gamma-Lichtquanten umwandelt - das tun praktisch alle Teilchenpaare." Die CMS-Kollaboration hatte frühzeitig allerdings auch den Zerfall von Higgsteilchen in zwei Z-Bosonen, die mit dem Photon gewissermaßen verwandt sind, gemessen und Übereinstimmung mit den Photonmessungen gefunden.

Unzicker listet auf, was alles schief gehen kann. Er kann sich einfach nicht vorstellen, unter den gegebenen Komplexitäten sei ein Erfolg überhaupt möglich. Und wenn doch, dann wäre es durchaus denkbar, dass die Physiker, bewusst oder unbewusst, Artefakte zum gewünschten Ergebnis umbiegen. Wie kann so einer Fundamentalskepsis überhaupt begegnet werden? Sehen wir uns an, wie weit her es mit seinem Verständnis der Statistik ist.

Am Anfang seines neuen Buches gibt ein Abschnitt darüber Aufschluss. Wie so oft in seinen Büchern, passiert auf dieser einen Seite begrifflich eine ganze Menge. Seine Gedanken müssen erst einmal entwirrt werden. Es geht ihm wohl eigentlich um die Frage, ob das Standardmodell gültig ist, ob die physikalische Wirklichkeit also tatsächlich kompliziert ist, ausgehend von den hohen Wahrscheinlichkeiten, die für die Entdeckung von Teilchen angegeben werden. Zur Illustration konstruiert er leider ein epidemiologisches Beispiel, kein physikalisches. Es ist wert, sich sein Konstrukt in Ruhe anzusehen.

"Angenommen, Sie lassen eine Routineuntersuchung beim Arzt machen, die darauf hindeutet, dass Sie an einer unheilbaren Krankheit leiden." Der Test liefere "in 999 von 1000 Fällen" eine richtige Diagnose. Was natürlich beunruhigend ist. Aber es gibt noch Hoffnung. Diese "Wahrscheinlichkeit sagt nämlich nichts darüber aus, wie verbreitet die Krankheit ist, ... zum Beispiel 0,02 Prozent. Wenn sich also 10000 Leute untersuchen lassen, werden darunter im Mittel zwei Erkrankte sein." Da von 1000 Erkrankten 999 erkannt werden, werden diese beiden wohl entdeckt werden. Die sog. Sensitivität ist also 0,999. In dem Beispiel ist die Spezifität, also die Anzahl der Gesunden, die als gesund erkannt werden, auch als 0,999 definiert. Dies führt bei der angenommenen Prävalenz von 0,02 % = 0,0002 dazu, etwa 10 von 9998 Gesunden als krank zu klassifizieren. Im Endeffekt besteht die Gruppe der positiv Getesteten somit aus 12 Personen, zwei wirklich Erkrankten und zehn Gesunden. Ergo, ein positiver Befund ist halb so schlimm!

Unzicker wittert hier, Bayes lässt grüßen, ein wissenschaftstheoretisches Problem. Wie kann ich behaupten, eine wissenschaftliche Erkenntnis gewonnen zu haben, wenn fünf von sechs Personen fälschlich ausgewählt wurden? Unzicker schreibt viel über angebliche wissenschaftstheoretische Zumutungen der modernen Physik, aber hier hat er sich dummerweise ein Beispiel zurecht gezimmert, das einfach nur schlecht konstruiert ist. Was würde ein Epidemiologe sagen? Ganz einfach. Der Test ist geeignet für erste Screeningmaßnahmen, denn wer sich in der Gruppe der positiv getesteten Personen befindet, hat nun eine Wahrscheinlichkeit von 0,167, wirklich erkrankt zu sein, was wesentlich höher ist als die 0,0002 von zuvor. In Wahrheit also kein Grund zur Entwarnung.


Es ist wichtig, Sensitivität und Spezifität begrifflich sauber zu trennen. Unzicker erwähnt die Begriffe erst gar nicht. Ganz abgesehen davon, sind ihre Werte meist höchst unterschiedlich. Dies gilt in der Epidemiologie genau so, wie in der Physik. Hat man nur einen einzigen Test, so sollte die Spezifität hoch sein, falls die Prävalenz sehr klein ist, sonst gibt es zu viele falsch-positive Ergebnisse. Ansonsten entsteht, ganz ohne wissenschaftstheoretischen Beistand, das oben von Unzicker konstruierte Problem.

Beim Screening wird zunächst ein schneller, einfach durchzuführender und relativ preiswerter Test verwendet, um eine Vorauswahl zu treffen. Die positiv getesteten Personen sollten anschließend aufwändigeren Untersuchungen unterzogen werden. Wissenschaftstheoretische Probleme entstehen erst gar nicht. Unsichere Kenntnisse von Prävalenzen sind übrigens ein häufiges Problem in der Epidemiologie, vor allem, wenn neue Krankheiten auftauchen. Die Epidemiologen wissen, wie in solchen Situationen vorzugehen ist.

Nun zur Elementarteilchenphysik. Wenn ein neues Teilchen wie das Higgs gesucht wird, geht es erst einmal darum, seine Existenz überhaupt nachzuweisen. Zerfällt es auf verschiedene Arten, wird zunächst auf die Möglichkeiten fokussiert, die möglichst zuverlässig herausgefiltert werden können. Es ist nicht wichtig, alle erzeugten Higgs zu finden. Viel wichtiger ist, dass die Ereignisse, die für einen bestimmten Higgs-Zerfall sprechen können, ein statistisch signifikantes Signal zu ergeben (s. Figure 3).

Es geht aber nicht darum, die Spezifität zu maximieren: Die weitaus meisten bei etwa 125 GeV gemessenen Zwei-Photon-Ereignisse wären, einzeln betrachtet, falsch-positive Ereignisse. Die Higgs-Zerfälle machen sich jedoch durch eine Häufung bei 125 GeV bemerkbar, was immer genauer bestimmbar wird, je mehr Ereignisse gemessen werden. Die Situation ist somit eine ganz andere als in dem epidemiologischen Beispiel. Für das Higgs sieht das konkret wie folgt aus. Bis September hat es in der bisherigen Laufzeit des LHC ungefähr 1015 Kollisionen gegeben, für die die Entstehung von etwa 200.000 Higgs erwartet wurde. Das entspricht eine superwinzige "Prävelenz" von 2*10-10. Nur 0,2 % davon sollten in zwei Photonen und 0,013% in zwei Z-Bosonen zerfallen. Deshalb hatte es Monate gedauert, um ausreichende Datenmengen für die statistische Auswertung zur Verfügung zu haben.

Doch halt, Unzicker wollte mit seinem Beispiel doch eigentlich einen Aspekt von "Metastatistik" illustrieren, nämlich was Teilchenmessungen über die Gültigkeit eines komplexen Standardmodells aussagen können. Das Beispiel zerschellt aus mehreren Gründen. Es vermischt zwei verschiedene Arten von Wahrscheinlichkeiten. Die Wahrscheinlichkeiten, die bei Teilchenentdeckungen interessieren, werden, wie erläutert, als statistischen Unsicherheiten angegeben ("sechs Sigma"). Je mehr Ereignisse registriert werden, desto genauer das Signal, desto höher ist also die Wahrscheinlichkeit für eine wirkliche Entdeckung.

Sensitivität und Spezifität aus dem Unzicker-Beispiel sind jedoch vom Bayes-Typ, also a-priori-Annahmen über die Testgenauigkeit. Diese entsprechen demnach Wahrscheinlichkeitswerten, die sich nicht verändern, selbst wenn Millionen Tests durchgeführt werden. Anders ausgedrückt können selbst dann, wenn das Standardmodell komplett falsch sein sollte, neue Teilchen sicher nachgewiesen werden. Ein komplett falsches Standardmodell bedeutete somit nicht, alle bisher gefundenen Teilchen wären auf einmal als falsch-positive Messfehler entlarvt. Der umfangreiche Teilchenzoo bliebe uns auf alle Fälle erhalten.

Unzickers Beispiel ist nicht nur ärgerlich, weil es nichts mit der Physik am CERN zu tun hat. Es trägt zudem das zerstörerische Potential für Kollateralschäden in sich. Im wirklichen Leben stehen Patienten nämlich tatsächlich oft vor dem Problem, mit drastischen Testergebnissen fertig werden zu müssen. Die panische Angst vor möglichem Brustkrebs, beispielsweise, kann dazu führen, sich für eine Amputation zu entscheiden, obwohl die Wahrscheinlichkeit, trotz eines positiven Tests wirklich erkrankt zu sein, ähnlich niedrig sein kann, wie in dem Beispiel. Daher sollten solche übersimplifizierten Beispiele immer dann, wenn wirklich von Wissenschaft die Rede ist, grundsätzlich vermieden werden. Denn sie finden, versehen mit dem Nimbus des physikalischen Experten, allzu leicht ihren Weg in andere Bereiche als wichtige Beispiele.

Alexander Unzicker missfällt "Big Science", die mit der Beschleunigerphysik nach dem Zweiten Weltkrieg in der Elementarteilchenphysik Einzug hielt. Er stellt durchaus sinnvolle Fragen, etwa die, wie die Reproduzierbarkeit von experimentellen Befunden denn überhaupt möglich sein kann, wenn es infolge der notwendigen immensen Mittel weltweit manchmal nur einzelne Experimente gibt, die bestimmte Messungen durchführen. Auch sinniert er, ob publizierte Ergebnisse überhaupt kritisch hinterfragt werden können, weil experimentelle Rohdaten und Detektorkalibrierungen normalerweise nicht veröffentlicht werden. Das Peer-Review-Gutachterwesen für Publikationen sieht er kritisch, da es passieren kann, dass ausgefallene Sichtweisen Schwierigkeiten haben könnten, veröffentlicht zu werden.

All diese Fragen sind wichtig und richtig. Allerdings rennt er doch nur offene Türen ein, denn sie werden in der Physik und anderen Wissenschaften längst gestellt, was beispielsweise zu massiver Kritik an den Praktiken von Elsevier geführt hat, einem führenden Verlag für namhafte wissenschaftliche Zeitschriften (Elsevier-Skandal weitet sich aus, Mobilmachung gegen Elsevier?). Die Hochenergiephysik ist traditionell sogar ein Vorreiter darin, Informationen der Allgemeinheit zugänglich zu machen und innovative, elektronische Publikationsformen zu entwickeln. Mit der "Study Group on Data Preservation and Long Term Analysis in High Energy Physics" (DPHEP) gibt es auch schon eine Physikerinitiative, die sich mit Fragen langfristiger Verfügbarkeit und Transparenz von Daten beschäftigt.

Die Grundlagenforschung der modernen Physik interessiert und fasziniert ein großes Publikum. Forschung an der Spitze produziert jedoch immer mindestens so viele Fragen, wie Antworten. Es gibt heftige Konkurrenz zwischen den beteiligten Forschern, unterschiedliche Lösungsansätze, Hypothesen und Prioritäten. Ganz zu schweigen von den individuellen Temperamenten der Forscher und Gruppendynamiken in den verschiedenen Forschungsfeldern.

All dies ist spannend und lohnenswert, unterhaltsam geschildert und erklärt zu werden, durchaus mit Humor und manchmal auch Ironie, denn das Leben im Elfenbeinturm hat zuweilen seine komischen Aspekte. Es sei auch niemand daran gehindert, etablierte Kerntheorien wie die Relativitätstheorie oder Entwicklungen in der Theorienbildung grundsätzlich abzulehnen oder zu kritisieren. Allerdings ist die positive Resonanz auf solch eine Fundamentalkritik, die, wie hier exemplarisch belegt, oft nicht haltbar ist, ein Indiz für die schon stark fortgeschrittene Entfremdung zwischen großen Teilen der Bevölkerung und dem Wissenschaftsbetrieb. Es ist daher besonders wichtig, schon frühzeitig, also in der Schule, die kulturellen Aspekte des Schaffens von Wissen in den Naturwissenschaften und der Mathematik zu vermitteln. In der Schulpraxis jedoch sind insbesondere die Physik und die Mathematik zu Fächern abgewickelt worden, die rein aus praktischen Erwägungen (Goethe ist was für Versager), Nützlichkeiten für das das tägliche Leben vermittelnd, im Lehrplan verbleiben. Die Sehnsucht nach grundlegendem Weltverständnis ist aber weiterhin vorhanden und wird nun mit "Durchknall und Holzweg"-Büchern gestillt. Das ist fatal.

Anzeige