10 Quarks und Neutrinos
Big Science auf Kosten der ungelösten Probleme

Die naturphilosophische Tradition hatte unter den Physikern der USA nie Fuß gefasst; dementsprechend spielte Denkökonomie bei der Beschreibung der Phänomene keine große Rolle. Willkürlich neue Objekte zu postulieren, wäre Anfang des 20. Jahrhunderts dennoch ungewöhnlich gewesen. Mit den neu entdeckten Teilchen in den 1930er Jahren waren aber die Dämme gebrochen, und mit den neuen Beschleunigern in Amerika setzte eine ungehemmte ›Teilchenproduktion‹ ein: 1951 gab es etwa 15 davon, 1964 schon 75. Jeder Versuch einer ökonomischen Theorie zu ihrer Beschreibung wurde durch diese ausufernden ›Entdeckungen‹ begraben. Die damaligen Physiker feierten jede neue Messung, ohne einen Gedanken darauf zu verschwenden, dass die Menge von Parametern in ihrer Kompliziertheit längst an das geozentrische Weltbild erinnerte. Doch auch das Nobelpreiskomitee hielt sich offenbar wenig über der Physikgeschichte auf und sah es als »entscheidenden« Fortschritt1 an, dass viele neue Teilchen entdeckt wurden. Dass diese oft extrem kurzlebig waren, konnte niemand erklären, geschweige denn eine Zerfallsdauer berechnen.

George Gamow bemerkte, die Teilchen würden sich »wie Karnickel vermehren«2 und sogar Enrico Fermi, der selbst nicht gerade für einen tiefschürfenden Zugang zur Physik stand, wurde nachdenklich und er merkte in einem Aufsatz3 in Physical Review an, »die Wahrscheinlichkeit, dass diese Teilchen etwas Fundamentales repräsentieren, nimmt mit ihrer Anzahl ab« und spottete: »wenn ich mir all diese Namen merken könnte, wäre ich Botaniker geworden«. Aber die Teilchenphysiker versuchten unverdrossen, mit immer höheren Energien immer tiefer in den Atomkern einzudringen, während sich das Weltbild der europäischen Physiktradition in ihren Händen auflöste.

»Nach den dreißig fetten Jahren am Beginn unseres Jahrhunderts schleppen wir uns jetzt durch die mageren und unfruchtbaren Jahre …«4 – George Gamow, 1966

Hauptsache energiereich

Robert Hofstadter von der Universität Stanford etwa beschoss den Atomkern mit Elektronen von Rekordenergie, und ihm fiel auf, dass Protonen nicht punktförmig zu sein schienen. Für die dabei auftretenden enormen Beschleunigungen kennt die Physik keine zuverlässigen Formeln, die die Abstrahlung von Licht wiedergeben – auch das liegt am ungelösten Problem der Selbstenergie.5 Insofern war diese Abweichung vom Erwarteten alles andere als überraschend. Dennoch fand man es schick, etwas Neues hineinzuinterpretieren und kam so auf die Idee, Protonen könnten selbst aus Bausteinen, sogenannten »Partonen«, bestehen. Das Nobelkomitee honorierte weiterhin jedes Ergebnis dieser Art mit Preisen, wobei sich die entsprechenden Kandidaten, insbesondere an den führenden ›Ivy League‹ Universitäten, meist gegenseitig vorschlugen und begutachteten.6

Wann sprechen eigentlich Experimentalphysiker von einem Teilchen? Lässt man beschleunigte Teilchen von hoher Energie miteinander kollidieren, können nach der Einsteinschen Formel E = mc2 neue Teilchen-Antiteilchenpaare allein aus dieser Bewegungsenergie entstehen. So könnte etwa ein heute im CERN auf das Tausendfache seiner Ruheenergie beschleunigtes Proton theoretisch 500 Proton-Anti-Protonpaare oder sogar eine Million Elektron-Positron-Paare erzeugen. Umso höher die Energie, desto mehr Umwandlungsprozesse finden statt, allerdings ist dieser Zusammenhang nicht gleichmäßig.

Bei bestimmten Energien werden besonders viele Teilchen erzeugt, was man in einem entsprechenden Diagramm als Ausschlag darstellt. Diese Zacken im Diagramm werden auch Resonanzen genannt, in Anlehnung an mechanische Bauteile, die bei ganz bestimmten Frequenzen starke Eigenschwingungen ausführen und dabei Energie umwandeln. Es ist nicht besonders überraschend, dass sich bei hohen Kollisionsenergien in diesen Diagrammen immer wieder Zacken zeigen, die, egal ob ihre Position und Größe verstanden oder berechnet werden kann, als kurzlebige neue Teilchen vor dem Zerfall gedeutet werden. Aus der räumlichen Verteilung der zahlreichen Reaktionsprodukte versucht man dann auf die Teilcheneigenschaften zu schließen.

Moderne Metaphysik

Es verwundert nicht, dass durch diese Art von Experiment und Interpretation zahlreiche neue Teilchen »entdeckt« wurden. Das Anwachsen des »Teilchenzoos«, wie er damals schon genannt wurde, war aber so unglaubwürdig, dass man nach Möglichkeiten suchte, die Dinge irgendwie zu vereinfachen. Der amerikanische Physiker Murray Gell-Mann erdachte dabei ein Ordnungsschema, das aus zwei Achsen bestand, die »Isospin« und »Strangeness« genannt wurden.

»Das Verblüffende an der Hochenergiephysik ist, dass ihre Fortschritte auf einem Prozess der Modellierung und Analogiebildung beruhen.«7 – Andrew Pickering

Es lohnt sich, der Bedeutung dieser Begriffe nachzugehen. Wie bereits erwähnt, kehrt der Begriff Isospin eigentlich nur die Rätsel des Betazerfalls unter den Tisch und trägt nichts zur Klärung bei, warum Kernbausteine so ähnlicher Masse wie Proton und Neutron existieren oder gar, warum Letzteres nach einer bestimmten Zeit zerfällt. Die Bezeichnung Strangeness ist noch ein Stück weiter der Realität entrückt. Während schon die Einteilung in »schnell« und »langsam« zerfallende Teilchen oberflächlich ist und mit der »starken« und »schwachen« Wechselwirkung assoziiert wird, gibt es Phänomene, die aus diesem naiven Schema ausbrechen und daher von den Physikern als merkwürdig, also strange bezeichnet wurden. Letztlich ordnen Physiker also Teilchen in einem Diagramm an, dessen Achsen man ebenso gut mit »Unverständnis« und »Merkwürdigkeit« beschriften könnte.

Forscher wie Ernst Mach oder Hermann Weyl, die sich noch wenige Jahrzehnte vorher mit realen Begriffen der Natur wie Raum, Zeit und Materie beschäftigt hatten, hätten sich wohl an den Kopf gefasst. Doch Gell-Mann, der in diesem Schema esoterisch anmutende Muster konstruierte wie den sogenannten »achtfachen Weg«, gilt heute als einer der bedeutendsten Physiker des 20. Jahrhunderts. Für die vage Assoziation dieser metaphorischen Einteilung mit den hypothetischen Partonen von Hofstadter, die ab dann Quarks genannt wurden, erhielt er 1969 den Nobelpreis. Seitdem geht man davon aus, dass ein Proton aus zwei »up«- und einem »down«- Quark besteht.

Ein Schritt vor, zwei zurück

»Du kerkerst den Geist in ein tönend Wort.« – Friedrich Schiller

 

Welche grundlegenden Einsichten über die Natur durch das Postulat der Quarks gewonnen wurden, ist eine berechtigte Frage. Vor allem wurde aber von den Physikern der Nachkriegszeit nie reflektiert, welche erkenntnistheoretische Niederlage darin besteht, die bis dahin kleinsten Kernbausteine noch einmal zerlegen zu müssen. Wobei die »Zerlegung« noch nicht einmal real funktioniert: Man kann einzelne Quarks nicht beobachten. Als »Erklärung« dafür bildeten die Theoretiker einen völlig inhaltslosen Begriff, das Confinement, also »Eingesperrtsein«.LXXXII Zu dieser Zeit störte sich ­offenbar niemand mehr an ad-hoc-Postulaten, deren einziger Sinn darin bestand, eine unverständliche Widersprüchlichkeit mit einem Namen zu versehen.

Damals wurde immer klarer, dass das Labor mit dem größten Beschleuniger und Detektor die besten Chancen auf den nächsten Nobelpreis hatte. Und in Fragen der Effizienz war die US-amerikanische Organisation der Wissenschaft Europa weit voraus. Am CERN war es beispielsweise bis in die 1970er Jahre noch üblich, dass je einer von mehreren Forschergruppen nur ein bestimmter Raumwinkelbereich zugeteilt wurde, aus dem das Kollisionsexperiment beobachtet werden konnte. Diese Absurdität europäischen Quotendenkens kann man sich etwa so vorstellen, als überließe man dreißig konkurrierenden Kunsthistorikern jeweils wenige Quadratzentimeter eines Picassos zur Beurteilung.

»… die absteigende Größenskala Atom, Kern … Quarks. Ich kann mich des hässlichen Verdachts nicht erwehren, dass die Sache damit nicht endet …« – Emilio Segrè

Der amerikanische Teilchenphysiker Burton Richter war dagegen der Erste, dessen Detektor den Kollisionspunkt so vollständig umhüllte, dass die erzeugten Teilchen aus allen Raumrichtungen registriert und analysiert werden konnten. Dies brachte ihm 1976, zusammen mit seinem chinesischen Kollegen Samuel Ting, den Nobelpreis für die Entdeckung des sogenannten »charm«-Quarks ein.LXXXIII Gemessen wurde tatsächlich nur eine erhöhte Energieabgabe (»Resonanz«), die als Erzeugung eines Charm-Anticharm-Paars gedeutet wurde.

Unsichtbare Farbenwelt

»Man muss aufpassen, Kompliziertheit nicht als Tiefgründigkeit anzusehen.« – Karl Popper

 

Es wird zwar immer wieder behauptet, dass Quarkmodell habe zu einer wesentlichen Vereinfachung geführt. Wenn man der Ansicht folgt, dass die bis dahin entdeckten, weit über hundert Elementarteilchen etwas Fundamentales bedeuten sollten, mag das konsequent sein. Das so »vereinfachende« Quarkmodell besteht nun inzwischen aus up-, down-, charm-, strange-, bottom- und top-Quarks, jeweils mit ­ihren Antiteilchen. Die Komplizierung war aber damit noch nicht zu Ende.

»Die Übereinstimmung einer dummen Theorie mit der Realität sagt gar nichts.« – Lew Landau, Nobelpreis 1962

 

Da die quantenmechanische Beschreibung sonst widersprüchlich gewesen wäre, forderte man, dass jedes Quark in drei Farben, »rot«, »grün« und »blau«, vorkommt, wobei jedoch alle drei Farben in einem Kernbaustein enthalten sein sollen. Zusätzlich mussten »Leimteilchen«, sogenannte Gluonen, angenommen werden, die wiederum zweifarbig waren. Moderne Theoriebildung hat offenbar kein Problem damit, willkürliche Regeln aufzustellen, um sie kurz darauf mit einer ebenso willkürlichen Einschränkung zu versehen. Alleiniger Maßstab ist, ob »es funktioniert«, das heißt, die Messungen beschrieben werden, egal ob die Beschreibung noch halbwegs denkökonomisch ist. Mit jeder weiteren komplizierenden Anpassung an die Messergebnisse wird dabei betont, wie gut das Modell diese beschreibe.

Nach einem Prinzip des Naturphilosophen Wilhelm von Ockham ist unter konkurrierenden Theorien immer der einfachsten der Vorzug zu geben ist. In der prägnanten Formulierung »Ockhams Rasiermesser« denkt man dabei an eine scharfe Klinge, der zu komplizierte Modelle zum Opfer fallen. Offenbar ist sie in der Teilchenphysik seit Jahrzehnten stumpf. So schrieb der Wissenschaftssoziologe Andrew Pickering, der selbst jahrelang als Hochenergiephysiker tätig war, in seinem Buch Constructing Quarks:8

»In diesem Stadium war das Quark-Parton-Modell in Gefahr, kunstvoller als die Daten zu werden, die es erklären wollte. Ein Kritiker konnte leicht feststellen, dass die Gluonen und Sea Quarks einfach Ad-hoc-Behelfe waren, ausgelegt, um die erwarteten Quarkeigenschaften mit den experimentellen Befunden abzustimmen …«

»Es ist die Perfektion von Gottes Werken, dass sie alle mit der größten Einfachheit gemacht wurden.« – Isaac Newton

Von Einfachheit, die Physiker in der europäischen Tradition als selbstverständliche Voraussetzung als Kennzeichen guter Theorien sahen,9 kann jedenfalls hier keine Rede mehr sein. Man muss sich fragen, ob eine intelligente außerirdische Zivilisation, sollte sie uns beobachten, nicht schmunzeln würde ob unserer naiven Vorstellungen von der Natur. Ganz sicher hätten dies Newton, Maxwell oder Planck getan.

Reduktionismus aus der Spur geraten

»Eben da wo Begriffe fehlen, stellt ein Wort zur rechten Zeit sich ein.« – Johann Wolfgang von Goethe, Faust.

 

Erkenntnistheoretisch ist anzumerken, dass der Begriff »Teilchen« nichts mehr mit dem zu tun hatte, was dem griechischen Philosophen Demokrit als elementare Bausteine der Natur vorschwebte. Denn jeder Bereich, in dem mehr Energie als üblich absorbiert wird, kann als Teilchen gedeutet werden. Diesem werden dann bestimmte Attribute wie Strangeness, Bottomness oder Hypercharge zugeordnet, die wie bunte Aufkleber das »Teilchen« charakterisieren. In moderner Denkweise ist also ein Teilchen eine Ansammlung von Eigenschaften, die weder eine systematische Ordnung haben noch in ihrer Anzahl beschränkt sind. Der Begriff »Teilchen« dient wohl eher zur Beruhigung und vermeintlichen Anknüpfung an Bekanntes, als dass er etwas Reales bezeichnet. Es liegt ein klassischer Fall einer nominalistischen Denkweise vor: Ist der Begriff erst gebildet, erübrigt sich, was er bedeutet.

Die Hochenergiephysik konnte auf diese Weise im Grunde beliebig viele Teilchen erzeugen, Gleiches gilt aber interessanterweise auch für die Niedrigenergiephysik, die sich auf das Aufspüren von »Teilchen« äußerst geringer Masse spezialisiert hat. Seit dem Neutrino-Experiment von Cowan und Reines 1956 versucht man in großen unterirdischen Detektoren kleinste Energiebeträge zu registrieren, die man als Teilchen zu identifizieren hofft. Auch hier gibt es eine grundlegende methodische Schwäche, die mit der Selbstenergie bzw. der unbekannten elektromagnetischen Abstrahlung bei starken Beschleunigungen zusammenhängt. Denn beim Betazerfall, bei dem die Neutrinos erzeugt werden sollen, wird das ausgestoßene Elektron ebenfalls plötzlich stark beschleunigt. Obwohl man seit 1930 erfolglos nach Gammastrahlung gefahndet hatte, bleibt es zumindest rätselhaft, warum diese in diesem Fall gerade nicht entsteht.LXXXIV

Die Blüte der Schattenteilchen

In der Folgezeit förderten neue Experimente weitere Widersprüche zutage, nach einem ähnlichen Muster wie 1930. Es fehlte erneut Energie, und meist hatte jemand die nicht gerade originelle, doch nicht mehr verpönte Idee, dahinter ein neues Teilchen, eine weitere Neutrinoart, zu vermuten. Wissenschaftstheoretisch ist es besonders gefährlich, das Fehlen von Energie, also die Abwesenheit von Evidenz, als positive Evidenz für ein Phänomen zu interpretieren. Solche allgemeinen methodischen Überlegungen werden nur selten angestellt. Stattdessen wurde ein enormer Aufwand betrieben, um entsprechende Großexperimente zu entwerfen.

»Neutrinophysik ist zum großen Teil die Kunst, eine Menge zu lernen, ohne etwas zu sehen.« – Haim Harari

Stimmten die Experimente von Cowan und Reines zum Nachweis des von Pauli vorgeschlagenen Teilchens tatsächlich, so musste das spiegelbildliche AntiteilchenLXXXV dazu in großen Mengen bei der Kernfusion im Innern der Sonne entstehen. Die entsprechenden Nachweisreaktionen waren jedoch über Jahre hinweg enttäuschend: Es schien viel zu wenig solare Neutrinos zu geben. Letztlich wurde das Problem »gelöst«, indem man eine weitere Neutrinosorte, das Myon-Neutrino,LXXXVI einführte, in welche sich die fehlenden Exemplare aus der Sonne umgewandelt haben sollten.

Ein Kriegsschiff als Pate

Dieses theoretische Problem aus der Niedrigenergiephysik führte zu einer Symbiose mit der experimentellen Hochenergiephysik, in der bald der Wunsch aufkam, das flüchtige Teilchen dingfest zu machen. Im Jahr 1963 führten die Physiker Lederman, Schwarz und Steinberger das Experiment durch, wobei sie sich zur Abschirmung einer 5000 Tonnen wiegenden Stahlwand bedienten, die aus einem ausrangierten Kriegsschiff der US-Navy stammte. Solche Synergien waren um diese Zeit nicht selten. Sie polierten einerseits das Image des Militärs als Forschungshelden auf, anderseits verlieh es den Wissenschaftlern, die einzigartige Mittel zur Verfügung gestellt bekamen, eine Aura von Wichtigkeit.

»Wenn wir unkritisch sind, finden wir immer was wir wollen: wir suchen nach und finden Bestätigungen und wir schauen weg und übersehen, was für unsere Lieblingstheorien gefährlich sein könnte.« – Karl Popper

Obwohl die Arbeit bei der Auswahl der Daten ziemlich willkürliche, im Nachhinein festgelegte Kriterien verwendete und in ihrer Schlussfolgerung nicht einmal eindeutig war,10 galt das Myon-Neutrino seitdem als »etabliert«. Offenbar war hier das Bestreben, etwas theoretisch Erwünschtes zu entdecken, stärker als die experimentelle Sorgfalt und die strikte Neutralität der Interpretation, die eigentlich gute Wissenschaft auszeichnet. Dieses Phänomen ist übrigens klar nachgewiesen und als Confirmation Bias bekannt.11

Ähnliches sollte sich in den folgenden Jahren oft wiederholen. Gewöhnlich wurde ein zu geringes Signal so gedeutet, dass sich Neutrinos in ihre Cousins umgewandelt hatten, die freilich erst »entdeckt« werden mussten. Natürlich gibt es keinen wie auch immer gearteten Grund, warum sich die ohnehin schwer sichtbaren Teilchen so merkwürdig verhalten sollten, außer dem, die Theorie von Neuem an die widersprechenden Messungen anzupassen. Warum überhaupt eine Teilchenart existieren sollte, die pro Sekunde zu Abermilliarden Exemplaren die ganze Erde ungehindert durchdringt, bleibt ebenfalls im Dunkeln.

Geheimniskrämerei und Erosion

Interessant, aber wenig thematisiert, ist der Zusammenhang zwischen Neutrinophysik und Kernwaffenforschung. Zur Identifikation von Neutrinos müssen störende Hintergrundsignale heraus­gerechnet werden, zu denen ebenso gut auch die ungeladenen Neutronen beitragen können, die beispielsweise durch kosmische Höhenstrahlung entstehen. Dazu bedient man sich theoretischer Modelle, die jedoch auf höchst naiven Annahmen basieren, wie der Kernphysiker John P. Ralston von der Universität Kansas dargelegt hat.12 Nicht einmal die Daten der verwendeten Detektormaterialien gehen in die Simulationen ein. Ein Grund liegt sicher darin, dass das Reaktionsverhalten von Neutronen ein sensibler Bereich der Kernwaffenforschung ist. Dies trägt nicht gerade dazu bei, dass die Ergebnisse von einer breiten Öffentlichkeit überprüft werden können. Grundlagenforschung und Waffentechnik sind sich manch­mal näher, als man denkt.LXXXVII

Inzwischen hat sich die bizarre Situation ergeben, dass man nicht nur drei verschiedene Neutrinosorten postuliert hat (Elektron-, Myon- und Tau-Neutrinos), sondern auch noch einen Mechanismus, mit dem sie sich in die jeweils andere Form umwandeln, möglichst so, dass sie nicht sichtbar sind. Jüngst wurden Forderungen laut, dieses Sortiment um eine 4., 5. und 6. Art zu ergänzen, sogenannte »sterile« Neutrinos. Gleichzeitig ist bisher – trotz enormer technischer Anstrengungen – nicht gelungen, die Masse eines Neutrinos zu bestimmen. Man weiß lediglich, dass diese mindestens eine Million Mal kleiner sein muss, als Wolfgang Pauli es ursprünglich vorgeschlagen hatte.13 Auch das sollte zu denken geben. Methodisch muss man die Frage aufwerfen, wann man die Suche nach immer kleineren Massen, die naturgemäß ein immer größeres Risiko von Artefakten birgt, am besten aufgibt.

Mit fortschreitender Technologie entwickelten sich also zwei komplementäre Wissenschaftsgebiete, die mit der ihnen inhärenten Methodik dafür sorgen, dass der Strom der neu entdeckten Phänomene nie abreißt, ohne dass sie sich dieser Endlosschleife bewusst sind. Die Hochenergiephysiker können durch weiteres Anheben der Kollisionsenergie mit immer neuen Beschleunigern immer etwas Neues finden, weil sich unverstandene Phänomene unvermeidlich auftun. Umgekehrt schraubten die raffinierten Techniken der Niedrigenergiephysik die Detektionsschwelle immer weiter nach unten, sodass das Fehlen eines kleines Energiebetrages ebenfalls immer wieder als neues Teilchen interpretiert werden kann. Auf diese Weise unterscheiden sich »Elementarteilchen« wie das Top-Quark mit 175 Gigaelektronenvolt und die Neutrinos von unter 0,2 Elektronenvolt fast um den Faktor eine Billion, und man kann sicher sein, dass dieser noch größer werden wird. Gleichzeitig kann immer noch niemand erklären, warum die einzig stabilen Teilchen, Proton und Elektron, so schwer sind, wie sie sind.

Durchgedreht

Inzwischen hat man sich völlig von dem Anspruch gelöst, solche MassenverhältnisseLXXXVIII vorhersagen zu wollen. Auch hier muss man sich vergegenwärtigen, dass die Art und Weise, in der jene Teilchenvielfalt beziehungsweise das Quark-Modell beschrieben wurde, nichts mehr mit der Mathematik zu tun hatte, mit der Einstein, Bohr oder Schrödinger zu ihren Resultaten gelangt waren.

»Man hüte sich vor falschem Wissen; es ist gefährlicher als Unwissen.« – George Bernard Shaw

Das Gebiet der Mathematik, das zur Teilchenbeschreibung angewendet wird, nennt sich Gruppentheorie. Es ist durchaus interessant, etwa die Gruppe der Drehungen in einem realen dreidimensionalen RaumLXXXIX zu betrachten, doch hat es wenig mit der Realität zu tun, wenn man Fantasiegebilde wie ›Isospin‹ und ›Strangeness‹ betrachtet und diese in einem abstrakten Raum rotiert – was immer das bedeuten soll. Wolfgang Pauli bezeichnete diese in den 1950er Jahren aufkommende Mode daher schlicht als »Gruppenpest«. Auch Richard Feynman stichelte später gegen das von Gell-Mann großspurig als »Vereinigung der Wechselwirkungen« bezeichnete Modell:

»Das sind drei verschiedene Theorien. Was hängt da zusammen? Nur wenn man Zeug dazu nimmt, von dem wir nichts wissen. Es gibt keine Theorie mit U(1) × SU(2) × SU(3) – was zum Teufel das auch immer ist – von der wir wissen, dass sie stimmt … Diese Kerle versuchen das zusammenzubringen. Aber getan haben sie es noch nicht, ok?«

Vorzuwerfen ist Feynman, dass er gegen die Willkürlichkeit des Quarkmodells nicht von Anfang an opponierte. Trotz seiner Animositäten mit Gell-Mann vermied er anscheinend einen offenen Streit, was, seine Aufrichtigkeit unterstellt, sicher kein Zeichen von naturphilosophischem Weitblick war. Gesunde Wissenschaft benötigt auch harte Auseinandersetzungen in der Sache, wie sie beispielsweise die britischen Physiker des 19. Jahrhunderts über den Äther führten. Auch von Ernst Mach ist der Satz überliefert: »Sollten sich diese Dinge als wahr erweisen, werde ich mich nicht schämen, der Letzte zu sein, der sie glaubt«.

»Asymmetrie wurde in die Theorie aufgenommen und sorgfältig angepasst aus keinem anderen Grund, als die erwünschte Antwort zu produzieren.«14 – David Lindley

Der der Gruppentheorie zugrunde liegende Begriff der Symmetrie nimmt eine merkwürdige Rolle in modernen Theorien ein. Seit Emmy Noether, der Assistentin von David Hilbert in Göttingen, ist bekannt, dass grundlegende Theoreme wie Energie- oder Impulserhaltung mit der Symmetrie von Naturgesetzen in Raum und Zeit zu tun haben. Entsprechend wurden Symmetrien ein selbstverständlicher Teil der mathematischen Physik. Die Ausweitung dieser Symmetrieargumente auf ›Isospin‹ und ›Strangeness‹ ist aber eine rein formale Analogie, die noch keinerlei Erklärungswert besitzt. Sie funktioniert noch nicht einmal in dem Sinn, dass dadurch zum Beispiel Teilchenmassen vorhergesagt würden. Dies führt zu der bizarren Situation, dass die gemessenen, tatsächlich sehr unterschiedlichen Massen durch eine »Brechung« der SymmetrieXC ›erklärt‹ werden müssen, ohne dass die schon semantische Absurdität einer asymmetrischen Symmetrie irgendjemand besonders störte.

Mathematische Chefköche

Den dünnen Resultaten steht eine bemerkenswerte Überheblichkeit der damals tonangebenden Theoretiker an den US-Universitäten gegenüber. Losgelöst von jeglichen historischen Grundlagen der Disziplin glaubte man, die Natur durch virtuose Rechnungen zu beeindrucken. Bezeichnend für diese Selbstüberschätzung ist Gell-Manns eigene Schilderung seiner Arbeitsweise:15

»… wir konstruieren eine mathematische Theorie der stark wechselwirkenden Teilchen, die mit der Realität etwas zu tun haben kann oder auch nicht [man halte sich diesen Satz vor Augen!], finden geeignete algebraische Beziehungen, die im Modell gelten, postulieren deren Gültigkeit und werfen das Modell dann weg. Wir vergleichen diesen Vorgang mit einer Methode, die manchmal in der französischen Küche angewendet wird: Ein Stück Fasan wird zwischen zwei Scheiben Kalbfleisch gegart, die dann weggeworfen werden.«

»Zu den Menschen zu gehören, die ihre besten Kräfte der Betrachtung und Erforschung objektiver Dinge widmen dürfen und können, bedeutet eine besondere Gnade.« – Albert Einstein

Es scheint, dass es sich hier mehr um Kokettieren mit der eigenen Brillanz handelt als um ein Ringen, die Natur zu verstehen. Offenbar bildete sich Gell-Mann auf seine mathematischen Fähigkeiten so viel ein, dass er die methodische Absurdität, die in diesem Vorgehen liegt, nicht mehr wahrnahm. Obwohl es jeder europäischen Tradition widersprach, geht es nicht nur darum, ob man die Idee, auf diese Weise Kernkräfte zu erklären, für Unsinn hält oder nicht.

Mich ärgert vor allem die leichtfüßige Haltung »Ja, vielleicht ist unser Ansatz Unsinn, aber wir theoretischen Physiker produzieren je­denfalls die klügsten Gedanken dazu«, die hier zutage tritt und jeden Physiker vor hundert Jahren hätte schamrot werden lassen. Es gab eine Zeit, in der Forscher es als Privileg erachteten, sich mit der Natur zu beschäftigen, und mit entsprechender Ernsthaftigkeit an die Sache herangingen.

Fehlende Bescheidenheit

Die erfolgreiche Physik Anfang des 20. Jahrhunderts orientierte sich stets an dem Ideal der Einfachheit der Naturgesetze, was seit dem kopernikanischen Weltbild eine brauchbare Leitschnur war. Natürlich kann man hier die Frage aufwerfen, ob die Natur wirklich einfach sein muss. Die Betroffenen wenden meist ein, die Natur sei eben nun mal so, wie es sich in den Experimenten herausgestellt habe; das einfache Bild von wenigen Teilchen, dass die Vorkriegszeit dominierte, sei leider nicht mehr aufrechtzuerhalten. Nicht in den Sinn kommt ihnen dabei der Gedanke, dass die sich zeigende Kompliziertheit die Folge eines mangelnden Verständnisses sein könnte. Auch diese fehlende Demut kennzeichnet den Übergang von der europäischen zur amerikanischen Tradition. Man versucht, der Natur Theorien mit Gewalt aufzudrängen, anstatt ihr gründlich zuzuhören.

»Was man braucht ist nicht der Wille zu glauben, sondern der Wille, etwas herauszufinden – das genaue Gegenteil.« – Bertrand Russell

Vor allem haben aber die meisten Teilchenphysiker über den Wandel des Begriffes »Teilchen« noch nicht reflektiert. Generell liegt hier ein Missverständnis zugrunde, welches der Wissenschaftssoziologe Andrew Pickering als naiven Realismus bezeichnet. Viele halten das für Evidenz, was im Wesentlichen Deutung aufgrund von Modellannahmen ist.

»So eine Symbiose ist weit entfernt von der Vorstellung, das Experiment sei ein unabhängiger Schiedsrichter der Theorie.«16 – Andrew Pickering

Pickering beobachtete, wie sich zwischen Experimentatoren und Theoretikern der Teilchenphysik eine Symbiose herausbildete, die Entdeckungen favorisierte. Gab es ein unerwartetes Ergebnis, eröffnete dies neue Möglichkeiten: die Theoretiker konnten es als Hinweis auf ein neues Phänomen deuten, für das es nun experimentelle Anhaltspunk­te gab. Für die Experimentatoren war es ein interessantes Feld, welches den Test von Theorien erlaubte.

»Niemand hat je einen Nobelpreis für den Nachweis gewonnen, dass etwas nicht existiert, oder weil er gezeigt hat, dass etwas anderes falsch war.«17 – Gary Taubes

Dabei spielt immer wieder eine Rolle, dass ersehnte Entdeckungen spannender sind als Fehlersuche. Prüfen und Erwägen eines Irrtums sind ein frustrierendes Geschäft, die Erwartung des Durchbruchs dagegen ist höchst erregend. Kein Mensch kann sich dieser psychologischen Falle entziehen und so wird im Zweifel das Experiment immer für eine Neuentdeckung interpretiert werden, nicht dagegen.

Theorie und Praxis der Wissenschaft

Der österreichische Philosoph Karl Popper, der nach seiner Emigration 1936 erleben musste, wie zahlreiche Familienangehörige im Konzentra­tionslager ermordet wurden, begründete später den sogenannten kritischen Rationalismus. Mit dem Konzept der Falsifizierbarkeit schuf er ein Kriterium, welches Wissenschaft definiert: Nur wenn eine Theorie in der Lage ist, Vorhersagen zu machen und bei deren Nichterfüllung ein Scheitern einzugestehen, handelt es sich um etwas Vernünftiges. Poppers Merkmal ist zwar ein scharfes Messer gegen Ideologie und andere Fantastereien, die sich auch in der theoretischen Physik ausbreiten, beschreibt jedoch die Praxis des Wissenschaftsbetriebs nicht vollständig.

»Überzeugungen sind gefährlichere Feinde der Wahrheit als Lügen.« –Friedrich Nietzsche

Denn wenn sich zu einer etablierten Theorie, beispielsweise der Relativitätstheorie oder dem Gravitationsgesetz, ein kleiner Widerspruch zeigt, wird diese keineswegs sofort über Bord geworfen, insbesondere wenn noch keine Alternative vorliegt. Es zeigt sich vielmehr, dass in diesem Fall Hilfsannahmen gemacht werden, um die beliebte Theorie vor einer Widerlegung zu bewahren, was manchmal zu bizarren Anbauten, oft ›Standardmodell‹ genannt, geführt hat. Diese Dynamik hat der amerikanische Philosoph Thomas Kuhn 1962 in seinem Werk Die Struktur wissenschaftlicher Revolutionen herausgearbeitet. Wenn man so will, hat Popper die Gesetze aufgestellt, wie gute Wissenschaft funktionieren sollte, und Kuhn beschrieben, wie diese Gesetze in der Praxis umgangen werden. Insofern spiegeln sogar der Europäer Popper und der Amerikaner Kuhn die jeweilige Denkweise wider, wobei Kuhns Beobachtungen natürlich völlig korrekt sind. Kuhn ist der vielleicht wichtigste Wissenschaftstheoretiker der Moderne.

Big Science und Gruppendenken

»Wenige sind imstande, von den Vorurteilen der Umgebung abweichende Meinungen gelassen auszusprechen; die Meisten sind sogar unfähig, überhaupt zu solchen Meinungen zu gelangen.«18 – Albert Einstein

 

Das soziologische Umfeld, in dem Theorien »etabliert« werden, sind gewöhnlich die Big-Science-Kollaborationen. Schon in Los Alamos, aber auch am CERN, gibt es starke Gruppenidentitäten, was die Wissenschaft gründlich verändert hat. In solchen Forschungseinrichtungen, sogar in ganzen Fachgebieten, entsteht oft eine dominierende Denkrichtung, das dem Einzelnen kaum mehr die Freiheit lässt, aus den Vorurteilen auszubrechen. Inzwischen besteht das sogenannte ›Standardmodell‹ der Elementarteilchen viel zu lange, als dass es einem Forscher möglich wäre, seine Grundannahmen in Zweifel zu ziehen.

Das Überwinden von Vorurteilen, beispielsweise von Kepler, der die Kreise hinter sich ließ und die Ellipsenform der Planetenbahnen erkannte, gelingt aber in der Regel Individuen in konzentrierter Arbeit in Abgeschiedenheit.XCI Ausgerechnet Alvin Weinberg, langjähriger Direktor des Oak Ridge National Laboratory, gab in seinem Buch Reflections on Big Science zu bedenken:19

»Entdeckungen sind meist ein individueller Akt […] ich kann mir nicht vorstellen, dass so etwas wie die Relativitätstheorie oder die Dirac-Gleichung in einem Team gefunden wird, wie es heute charakteristisch für Big Science ist.«

»Intellektueller Individualismus und wissenschaftliches Streben sind in der Geschichte zusammen erstmals aufgetreten und unzertrennlich geblieben.«20 – Albert Einstein

Diese nachdenklichen Stimmen, die sich auch in der Nachkriegszeit gelegentlich erhoben, hatten jedoch keinen Einfluss auf eine scheinbar unaufhaltsam fortschreitende Wissenschaft, die Wachstum und Produktion von Ergebnissen ebenso perfektioniert hatte wie die westlichen Volkswirtschaften das Herstellen von Konsumgütern.

»Zum Teil wegen der gewaltigen Kosten, die im Spiel sind, ersetzt heute die Förderung durch die Regierung intellektuelle Neugier.« – Dwight D. Eisenhower

 

Seit Beginn von Big Science wurden in den großtechnischen Laboratorien Amerikas Resultate wie am Fließband erzeugt. Aufgrund der engen Verflechtung von Experimenten und Theoretikern galt dies als Fortschritt, und in einer Art von Symbiose wurden durch Begutachtung von Kollegen ein halbes Dutzend Nobelpreise erzeugt. Mit fundamentaler Physik hatte diese Aktivität dennoch wenig zu tun.