9 Nach Hiroshima
Neue Herren, neue Physik

»Manche Physiker geben sich mit ein paar Daumenregeln zufrieden, die mit den Beobachtungen übereinstimmen. Sie meinen, das sei das Ziel der Physik, aber das reicht nicht. Man will verstehen, wie die Natur funktioniert.«1 – Paul Dirac

Mit dem Ende des Zweiten Weltkriegs hatte sich zwar die theoretische Physik in Europa praktisch aufgelöst, nicht aber die Probleme, die teilweise schon lange vorher bekannt waren. Besonders schwerwiegend war dabei, wie bereits erwähnt, die unendlich große Selbstenergie des Elektrons, ein vollkommen unsinniges Resultat, das jedoch aus der konsequenten Anwendung der anerkannten Gesetze der Elektrodynamik folgt.

Dass dieser Widerspruch auf eine grundlegende Unzulänglichkeit dieser Gesetze hinweist, sollte eigentlich jedem einleuchten. Dennoch tut die theoretische Physik bis heute so, als ließe sich das Malheur durch einen Rechentrick beseitigen, ohne dass man jene Formeln, die zu dem falschen Resultat führen, antasten will. Dafür wurde der Name »Renormierung« beziehungsweise »Renormalisierung« erfunden. Ich bespreche dies ausführlich, weil es relativ einfach zu verstehen ist, aber auch, weil die theoretische Physik seither viele Stockwerke geistreicher Konstruktionen errichtet hat, die auf diesem nicht vorhandenen Fundament aufbauen. Und obwohl manche Physiker zu Recht Teile dieses Theoriegebäudes kritisiert haben, spricht kaum mehr jemand über die Absurdität, die all dem zugrunde liegt. Der ungelöste Widerspruch der Selbstenergie und seine Scheinlösung Renormierung ist eine Art Ursünde moderner Theoriebildung.

Zur Rechtfertigung der Renormierung wird angeführt, das Elektron habe eine unendlich große »nackte« Masse (was immer das auch bedeuten soll), von der man die oben erwähnte »elektrische«, ebenfalls unendliche Masse abziehen müsse,LXVIII sodass sich als Differenz – voila! – 9,11·10-31 Kilogramm ergibt, der Messwert der Elektronenmasse.

»Was ich lehren will, ist: Von einem nicht offenkundigen Unsinn zu einem offenkundigen übergehen.« – Ludwig Wittgenstein

Dies klingt auch nicht überzeugender, wenn man es präziser fasst, denn jeder Mathematiker weiß, dass man den Begriff unendlich (der nur als Grenzwert eine Berechtigung hat) nicht als Zahl auffassen darf, weil man damit jeden beliebigen Unsinn folgern könnte. Dennoch jonglieren bis heute die theoretischen Physiker mit diesem mathematischen Taschenspielertrick, und es gilt sogar als Fortschritt, wenn man weitere »renormierbare« Theorien findet.LXIX Wie oft in der Geschichte zeigt sich hier, dass Gruppendenken auch über hohe Einzelintelligenz obsiegen kann und die kollektiven Verdrängungsmechanismen enorm sind.

»Die Tatsache, dass die große Mehrheit von einer Ansicht überzeugt ist, heißt nicht, dass sie nicht vollkommen absurd sein kann.« – Bertrand Russell.

Abnormalisierung der Physik

Wolfgang Pauli wies in seiner Nobelpreisrede von 1945 deutlich darauf hin,2 dass man keine »Tricks« benutzen sollte, um Unendlichkeiten zu subtrahieren. Man muss froh sein, dass sich ein vernünftiger Physiker der Vorkriegszeit überhaupt dazu geäußert hat. Einstein, Bohr und Schrödinger war die Idee wahrscheinlich zu abwegig, um sie überhaupt eines Wortes zu würdigen, aber wenigstens Dirac formulierte einen trockenen Kommentar, dem eigentlich nichts hinzuzufügen ist:

»Renormierung ist einfach keine sinnvolle Mathematik. Sinnvolle Mathematik heißt, eine Größe zu vernachlässigen, wenn sie unendlich klein ist, aber nicht, wenn sie unendlich groß ist und einem nicht passt.«

Man kann sich nur wundern, dass sich Physiker überhaupt mit der Renormierung weiter beschäftigten. Noch viel mehr muss man sich allerdings wundern, dass dieses Konzept nach dem Krieg zum akzeptierten Kanon der theoretischen Physik wurde. Dazu trug ganz wesentlich eine Konferenz bei, die im Frühjahr 1947 auf Shelter Island in Massachusetts abgehalten wurde. Die beteiligten Physiker waren erleichtert, dass sie überhaupt stattfand. Denn nach dem Krieg hatte sich das Militär überall an den Universitäten eingenistet und die Grundlagenforschung finanziert.3 Dementsprechend herrschten noch Geheimhaltung und Loyalitätskommissionen.

Neugründung eines gescheiterten Unternehmens

In Shelter Island konnten sich die Physiker, die in den zurückliegenden Jahren überwiegend in der Radartechnik und im Manhattan Project beschäftigt waren, zum ersten Mal wieder ohne Sicherheitsvorkehrungen offen unterhalten. Die Tagung war eine Art Neustart der theoretischen Grundlagenphysik in Amerika. Sie stand in eigenartigem Kontrast zur legendären Solvay-Konferenz im Jahr 1927, welche die Zerrissenheit der europäischen Forschung offenbart hatte. Zwanzig Jahre später wollte man nun eine gemeinsame Basis für die theoretische Physik der Zukunft schaffen. Dies sollte jedoch unter ganz anderen Vorzeichen geschehen. Auf beiden Konferenzen trachteten die Organisatoren danach, die Elite zu versammeln, wobei man 1947 fast nur amerikanische Physiker einlud. Nichts kann den Bruch der Traditionen besser veranschaulichen, als die Tatsache, dass außer dem Holländer Kramers kein einziger Physiker an beiden Konferenzen teilnahm. Was sich 1927 aufgelöst hatteLXX und 1947 neu zusammentat, hatte wenig miteinander zu tun.LXXI

Die Experimentatoren William Lamb und Isaac Rabi berichteten auf der Konferenz erstmals von ihren Messungen; Lamb, der im Krieg als Experte für Mikrowellentechnik gearbeitet hatte, hatte damit einen kleinen Unterschied zwischen den Energiestufen des Wasserstoffatoms (Lamb-Shift) gemessen, während Rabi einen neuen Wert für das magnetische Moment des Elektrons erhalten hatte.

Von jener Tagung inspiriert, berechnete der erwähnte Hans Bethe erstmals eine Näherung für den Lamb-Shift, während der junge amerikanische Theoretiker Julian Schwinger eine Vorhersage des magnetischen Moments des Elektrons veröffentlichte. Aus der Sicht der Vorkriegszeit entbehrten diese Aktivitäten der neuen Elite nicht einer gewissen Komik: Statt die alten ungelösten Fragen zu beantworten, lieferte man neue, ungefragte Lösungen.

Auffallend ist, wie sich die heutige Physik auf diese beiden Mess­ergebnisse kapriziert, die man, so jedenfalls die Behauptung, exakt berechnen kann, obwohl sie keinesfalls besonders hervorstechende Eigenschaften der Natur sind. Von den entsprechenden magnetischen Momenten von Neutron und Proton, die mit ihren absonderlichen ZahlenwertenLXXII hoffnungslos unerklärlich scheinen, hört man vergleichsweise selten. Und die viel wichtigere Feinstrukturkonstante α≈1/137 wird von der Theorie ohnehin nicht berechnet, obwohl der selbstbewusste Name »Quantenelektrodynamik« eigentlich diesen Anspruch haben sollte.

Chor der Begeisterung

Dies störte jedoch in der pragmatischen Sichtweise der jungen amerikanischen Physiker wenig. Durch die neuen Ideen galt die »Renormierung« zunehmend als etabliert und die Mehrheit der Physiker war der Meinung, alles sei in bester Ordnung und die früher ersehnte Revolution unnötig.4 Man halte sich vor Augen, dass seit 1950 praktisch alle Versuche, die Welt der Elementarteilchen zu beschreiben, auf jener Absurdität der »Renormierung« beruhen.

»Quantenelektrodynamik ist ein endgültiger Abschied von der Logik. Sie ändert den Charakter einer Theorie, statt logischer Schlüsse stellt man einfach ein paar Regeln auf.«5 – Paul Dirac

Spricht man Physiker auf die konzeptionellen Probleme der Quantenelektrodynamik an, so erfährt man meist umgehend, wie großartig diese Theorie experimentell getestet sei. Es wird behauptet, die Quantenelektrodynamik sage das magnetische Moment des Elektrons bis zur 12. Nachkommastelle6 voraus, womit sich für die meisten jede weitere Diskussion erübrigt. Dies zeigt exemplarisch, wie wichtig ein wissenschaftsgeschichtlicher Zugang zur Beurteilung von Theorien ist. Denn die wenigsten Physiker kennen die historischen Fakten, die den Glauben an die Exaktheit der Quantenelektrodynamik gründlich erschüttern. Diese wurden jüngst von dem spanischen Forscher Oliver Consa detailliert dargestellt.7

Sieht man sich etwa Bethes Originalarbeit an, stellt man fest, dass er in seiner Rechnung eine willkürliche Grenze eingeführt hatte, die die »Unendlichkeiten« vermied und nur deshalb zum gewünschten Resultat führte.8 Nachdem der experimentelle Wert verbessert worden war, korrigierte Bethe in einer späteren Arbeit jene Zahl, die durch nichts anderes gerechtfertigt war, als das ersehnte Ergebnis zu liefern.

Julian Schwingers berühmte erste Veröffentlichung9 zum Thema besteht aus einer einzigen Seite, in der er ohne jede Rechtfertigung einen numerischen Zusammenhang zwischen dem magnetischen Moment des Elektrons und der Feinstrukturkonstante postulierte – eine detaillierte Theorie dazu, so Schwinger damals, sei in Vorbereitung.

Beweis durch Einschlafen

Diese stellte Schwinger jedoch erst auf der folgenden Konferenz in Pocono im Jahr 1948 vor. Seine Präsentation dauerte nicht weniger als sechs (!) Stunden und war in ihrer Abstraktheit so ermüdend, dass nur Bethe und Fermi bis zum Ende im Saal blieben, freilich ohne die Rechnungen zu verstehen. Richard Feynman erhielt mit seinem Vortrag kaum bessere Resonanz. Er entwickelte ein Schema von Diagrammen, mit denen er eine Theorie vorstellte, welche die Messwerte angeblich genau reproduzierte. Auf Nachfragen konnte er aber keinerlei Rechtfertigung für sein Vorgehen anführen, insbesondere keine mathematisch konsistenten Rechnungen. Er versuchte vergeblich, seine Zuhörer mit dem Argument zu überzeugen, die genaue Übereinstimmung allein beweise die Richtigkeit seiner Gedanken.

Während Schwinger Mathematik ohne jede Anschauung präsentiert hatte, arbeitete Feynman anschaulich, doch ohne jede Mathematik. Originellerweise gaben sie beide zu, von dem Zugang des jeweils anderen nichts verstanden zu haben,10 waren sich aber einig, jeweils zwei Aspekte einer Theorie entwickelt zu haben, welche die Beobachtungen hervorragend erklärte.

»Das Elektron ist ein zu einfaches Ding, als dass man nach Gesetzen fragen könnte, die seine Struktur entstehen lassen.« – Paul Dirac

Der Dritte in diesem merkwürdigen Bunde sollte der japanische Physiker Isihito Tomonaga werden, der 1949 eine Theorie an Robert Oppenheimer schickte, die ebenfalls in Anspruch nahm, die Experimente zu erklären, wenngleich sie kaum durchschaubarer war als jene von Schwinger. Dessen Originalarbeiten11 enthalten 469 Formeln, viele davon über mehrere Zeilen, wobei im ersten Absatz zu erfahren ist, es handele sich nur um eine Näherung. Was sollte dies eigentlich noch mit dem einfachsten Teilchen im Universum zu tun haben?

Mit großer Erleichterung wurde nun aufgenommen, dass der englische Mathematiker Freeman Dyson die mathematische Äquivalenz jener Theorien zeigte,12 obwohl Dyson eigentlich mehr eine eigene Version entwickelt hatte. Dirac, Oppenheimer und Fermi kritisierten Dysons Arbeit in persönlichen Gesprächen vernichtend,13 was diesen offenbar zum Reflektieren brachte; die Reaktion in der Community dagegen war enthusiastisch: die Quantenelektrodynamik galt damit als etabliert und zugleich schon als modernste und genaueste Theorie.

Dysons Ansatz geht davon aus, dass sich das anomale magnetische Moment des Elektrons als unendliche Summe darstellen lässt, wobei jeder Summand einen »Gewichtungsfaktor« trägt. Diese Gewichtungsfaktoren – weniger respektvoll könnte man sie auch Fudge Factors nennenLXXIII – sind nur durch sehr komplexe Rechnungen zu bestimmen. Dieses Modell stellt ein Einfallstor zu einer subtilen Selbsttäuschung dar, die sich seither in bizarrer Weise weiterspinnen sollte. Denn die Berechnung der »Gewichtungsfaktoren« basiert weder auf legitimer Mathematik, noch sind deren Prinzipien jemals klar niedergelegt worden.

Verdächtige Symbiose von Theorie und Experiment

Geradezu ein Wissenschaftsskandal war dabei die Berechnung eines der Faktoren durch Karplus und Kroll 1950, zwei Assistenten Feynmans, die den Wert von -2,973 erhielten, was mit einer kurz zuvor publizierten Messung genau übereinstimmte.14 Blickt man in deren Veröffentlichung, erfährt man mit Erstaunen, dass der entscheidende Teil der Rechnung nicht abgedruckt wurde, da die entsprechenden Feynman-Diagramme »zu kompliziert« seien. Wesentliche Elemente der heute als »beste Theorie der Physik« geltenden Quantenelektrodynamik sind bis heute nicht publiziert!15 Obendrein war das Resultat von Karplus und Kroll falsch. Nachdem die Experimente erneut einen abweichenden Wert ergaben, wurde von anderen Forschern der Wert von -2,973 auf -0,328 korrigiert,16 eine absonderlich hohe Diskrepanz. Worin der Fehler von Karplus und Kroll bestanden hat, ist dagegen bis heute nicht bekannt. Beide räumten aber ein, dass ihre Behauptung, das Resultat sei durch unabhängige Rechnungen überprüft worden, unwahr gewesen war.17

»Oft werden die experimentellen Methoden und Auswertungskriterien im Hinblick auf den Nachweis des gewünschten Signals angepasst.«18 – Andrew Pickering

Noch größere Zweifel an wissenschaftlicher Integrität lassen zwei Experimente19 aufkommen, die 1961 und 1963 genau mit dem jeweiligen theoretischen Wert übereinstimmten und Grundlage für den 1965 an Feynman, Schwinger und Tomonaga verliehenen Nobelpreis waren. Es überrascht vielleicht den Leser hier nicht mehr, dass sich diese Messwerte in der Folge als falsch herausstellten und nachfolgend in Richtung des aktuellen theoretischen Wertes korrigiert wurden.20 Tatsächlich wird es jedoch mit der Zeit immer schwieriger, das wechselseitige Hinbiegen der theoretischen und experimentellen Resultate, das aus den damaligen Arbeiten offensichtlich ist, zu identifizieren. Die Berechnungen21 sind inzwischen so umfangreich, dass sie nur von Computerprogrammen ausgeführt werden können, die praktisch niemand überprüfen kann.LXXIV Auch in der jüngeren Vergangenheit haben sich die Theoretiker bei der Abzählung der Möglichkeiten vertan – was meist unbemerkt geblieben war –, sodass zwischenzeitlich sogar ein falscher Wert für die Feinstrukturkonstante α publiziert wurde.22

Marode Basis

Neben diesen mehr als verdächtigen Ungereimtheiten gibt es noch ein weiteres Ergebnis, das der Quantenelektrodynamik jede Grundlage entzieht. Freeman Dyson, vielleicht durch die erhaltene Kritik geläutert, erforschte nochmals die Voraussetzung der gesamten Theorie und bewies 1952, dass die von ihm vorgeschlagene Reihe gar nicht konvergiert,LXXV das heißt, aus mathematischen Gründen gar kein sinnvolles Resultat ergeben kann!24 E

»Das war ein schrecklicher Schlag für meine Hoffnungen. Es bedeutete wirklich, dass das ganze Programm keinen Sinn hatte.« – Freeman Dyson23

s ist unglaublich, dass dieses Todesurteil für eine Theorie in einer Wissenschaft totgeschwiegen wird, die sich »exakt« nennt. In der Folge gab Dyson jede Beschäftigung mit der Quantenelektrodynamik auf und wandte sich nach seiner Rückkehr nach England anderen Gebieten zu. 2006 bekannte er in einem Brief:

»Wir sahen damals die Quantenelektrodynamik als etwas Vorläufiges an, das spätestens nach zehn Jahren durch etwas Solides ersetzt werden sollte … nun sind 57 Jahre vergangen und das marode Gebäude steht immer noch …«25

Halb verschämt gibt sogar Feynman selbst die Unzulänglichkeit zu:

»Das wir auf so einen Hokus-Pokus zurückgreifen müssen, hat uns davon abgehalten, die mathematische Selbstkonsistenz der Theorie der Quantenelektrodynamik zu beweisen.«26

Insgesamt lassen Oliver Consas aktuelle Recherchen27 zur Historie der Quantenelektrodynamik wenig Zweifel daran, dass hier durch eine jahrzehntelang praktizierte Kombination aus abstrakten Wunschvorstellungen, kleinen Unredlichkeiten, Confirmation Bias und Gruppendenken eine Fata Morgana einer Theorie entstanden ist, deren Evaporation im Licht der Geschichte die Physik noch erheblich erschüttern wird. In jedem Fall liegt jedoch der Ball nun im Feld der eifrigen Modellierer, die ihre Annahmen und Rechnungen endlich transparent machen müssen.

Übermalter Rost

Es ist aber offensichtlich, dass die elementaren Schwachstellen der Quantenelektrodynamik lediglich mit undurchsichtigen Methoden übertüncht wurden und die vermeintliche »Genauigkeit« allenthalben nachgeplappert wird, ohne dass es irgendjemand überprüfen könnte. Im Jahr 2021 gab es Aufsehen erregende Messungen am magnetischen Moment des Myons,28 die – wieder einmal – nicht mit der Theorie übereinstimmten. Dennoch gilt die Quantenelek­trodynamik noch als unantastbare Wahrheit, sodass man zunächst wohl auf andere Ausreden verfallen wird, anstatt sie insgesamt infrage zu stellen.

»Einstein, Bohr, Heisenberg und Schrödinger dachten tief nach über die Fragen um Raum, Zeit und Materie und sie sahen sich in einer breiteren philosophischen Tradition […] bei dem Zugang zur Teilchenphysik von Feynman, Dyson und anderen hat Reflexion über grundlegende Probleme keinen Platz.«29 – Lee Smolin

Betrachtet man die seit 1950 entwickelten Modelle in weiterer Perspektive, so wird klar, dass diese Rechnungen in ihrer Art und Methodik nichts mehr mit der erfolgreichen Physik zu Anfang des 20. Jahrhunderts zu tun haben. Der Bruch mit der früheren Tradition ist hier überdeutlich. Feynmans Zugang veranschaulicht die Zufälligkeiten der Quantenmechanik mit den nach ihm benannten Diagrammen, die alle denkbaren Teilchenbahnen mit den entsprechenden Umwandlungsprozessen darstellen. Dennoch handelt es sich letztlich um einen spielerisch-naiven Ansatz, von dem klar ist, dass er die mikroskopischen Vorgänge nicht wirklich beschreibt. Zu Zeiten von Einstein oder gar Lord Kelvin, die stets nach anschaulich-intuitiven Erklärungen suchten, wären solche abstrakten Schemata undenkbar gewesen. Jeder hätte gefragt: Was soll das mit der Realität zu tun haben?

»Vom gesunden Menschenverstand aus betrachtet, ist die Beschreibung der Natur durch die Quantenelektrodynamik absurd. Und sie stimmt mit dem Experiment überein. Ich hoffe, Sie können die Natur also akzeptieren, wie sie ist – absurd.« – Richard Feynman30

Moderne Theoriebildung

Einer der wesentlichen Merkmale des Paradigmenwechsels zwischen der Vor- und Nachkriegsphysik ist eine Art von allgemeiner Exkulpation, dass die Physik verrückt aussehen darf. Die Forderung nach Anschaulichkeit ist dagegen verpönt und gilt als mangelndes Verständnis der »modernen« Methoden. Die Wurzeln dieser verqueren Sichtweise liegen tatsächlich in den enormen Schwierigkeiten, die sich in den 1920er Jahren in der Mikrowelt auftaten. Diese müssten gründlich verstanden werden, anstatt Phantasieprodukte zu akzeptieren, die gar nicht mehr den Anspruch haben, die Realität abzubilden. Anschaulichkeit wurde abgelöst von Rechenregeln, die auf metaphorischer Ebene mit den Experimenten assoziiert werden. Viele Physiker werden darin eine Erkenntnis der Moderne sehen. Der Stillstand der letzten Jahrzehnte legt aber vielmehr nahe, dass es sich um einen degenerativen Irrweg handelt.

Mit dem Verlust des anschaulichen Bauchgefühls ist den Physikern ein entscheidendes Werkzeug abhanden gekommen, bei neuen Ideen intuitiv die Spreu vom Weizen zu trennen. So gibt es leider nichts mehr, das zu absonderlich klingt, als dass es nicht diskussionswürdig wäre. Wenn dann die Vorhersagen so schwammig sind, dass eine experimentelle Widerlegung schwierig ist, ist dann das Überleben als veritables »Modell« schon gesichert.

Die Popularität der Quantenelektrodynamik und der damit assoziierten Feynman-Diagramme hat zu einer Monokultur im Denken der Physiker geführt, welches davon ausgeht, dass alle Wechselwirkungen durch einen Teilchenaustausch beschrieben werden. Es gibt aber nicht den geringsten Hinweis, dass dies zu einer Vereinheitlichung führt – ganz abgesehen davon, dass die Einteilung in vier Grundkräfte schon unbefriedigend ist. Dennoch wurden später nach dem gleichen Schema »Quantenfeldtheorien« wie die »Quantenchromodynamik« entworfen und als neue Erkenntnisse angepriesen. In der ihm eigenen Direktheit machte sich Feynman sogar selbst darüber lustig:

»Da kommt so ein Narr aus UCLALXXVI daher und sagt, wie wundervoll ähnlich diese Theorien sind. Nein! Nicht die Natur ist ähnlich, sondern den Physikern ist nichts Besseres eingefallen, als über das verdammt gleiche Ding nachzudenken, immer und immer wieder.«

Der Sunnyboy der Physik

»Was aber wunderbar erscheinen muss, ist die Art und Weise, in der es diesen geistreichen theoretischen Entwicklungen gelungen ist, unser Verständnis sechs Jahrzehnte lang in den von der Quantenfeld­theorie gezogenen Grenzen gefangen zu halten.«32 – Anthony Leggett, Nobelpreisträger 2003

Feynmans offene und humorvolle Art machte ihn zu dem Sympathieträger der Physik schlechthin. Seine anekdotischen Erinnerungen Surely You’re Joking, Mr. Feynman! sind nicht nur für Physiker ein Lesespaß. Auch sein Buch QED: Die seltsame Theorie des Lichts und der Materie wurde aufgrund seiner Anschaulichkeit ein Bestseller. Seinen geradlinigen Charakter bewies Feynman noch 1986, als er in einem Sumpf von Behördeninkompetenz und Vertuschungsversuchen die Ursache der Challenge-Katastrophe herausfand31 und der Öffentlichkeit vorführte, dass ein nicht kälteresistenter Gummiring zu dem Absturz geführt hatte. Feynman ist daher wohl der beliebteste Physik-Charakter der Moderne. Ich werde in späteren Kapiteln noch gerne zitieren, wie er die Absurditäten der postmodernen Physik wie die Stringtheorie mit Spott überzog.

Aber … auch Feynman hat über Physik nicht gründlich genug nachgedacht. Er versuchte, vieles auf eigene Art zu reproduzieren, was die Väter der Quantenmechanik mit Mühen herausgefunden hatten. Mit den konzeptionellen Problemen wollte er sich jedoch – ganz in der praktischen, anwendungsorientierten amerikanischen Tradition – nicht auseinandersetzen. Fragen, woher der Zufall in der Natur kommt oder wie eine Wahrscheinlichkeitsfunktion es schafft, sich plötzlich als Elektron in einem Punkt zu manifestieren, interessierten ihn nicht. Feynman wollte sich von dem Ballast der grübelnden Europäer befreien, doch mit ihm ist die Physik zu leichtgewichtig geworden.

Mit seiner Nichtachtung der Geschichte und der Attitüde, grundlegende Probleme nicht zur Kenntnis zu nehmen, die etwa Mach, Schrödinger, Einstein und Dirac umgetrieben haben, muss man leider auch sagen: Feynman ist der Gründervater der amerikanischen ArroganzLXXVII in der Physik.

Kein Respekt vor der Geschichte

»Vertraue denen, die die Wahrheit suchen, und misstraue denen, die sie gefunden haben.« – Voltaire zugeschrieben

 

Während Forscher vor hundert Jahren demütig vor den ungelösten Problemen der Natur standen, wird heute Studenten schon in den ersten Semestern überhebliches Besserwissen beigebracht. Um diese Zeit berichten die meisten schon mit Stolz auf ihre Zunft, wie großartig die Quantenelektrodynamik überprüft sei.

Feynman vermittelte einer ganzen Generation eine Art von Selbstbewusstsein, die dem wahren Natur­forscher abträglich ist. Obwohl er selbst auf manche wunden Punkte der theoretischen Physik hinwies, erzeugte sein Auftreten das Gefühl, alles sei lösbar und man mache Fortschritte dabei. Er spottete über Philosophie, die in diesen Jahren einen negativen Beigeschmack erhielt, aber machte sich nicht die Mühe, Veröffentlichungen zu lesen, die ein paar Jahrzehnte alt oder gar in einer Fremdsprache verfasst waren. Viele Rätsel, mit denen eine Generation tiefer Denker gerungen hatte, streifte er so nur oberflächlich.

Über die Renormierung, die seiner Quantenelektrodynamik zugrunde liegt, sagte er zutreffend, sie sei »wahrscheinlich mathematisch nicht gerechtfertigt«, zog aber nicht die einzige redliche Konsequenz, die Theorie aufzugeben. Feynman war offenbar der Ansicht, die Widersprüche seines Ansatzes würden geheilt, wenn man sie ungeniert anspricht. Er trug so dazu bei, dass eine Kultur entstand, in der man konzeptionelle Absurditäten akzeptierte, solange nur das Ergebnis der Theorie irgendwie brauchbar schien. Oft hört man dafür die Rechtfertigung »Die Natur ist eben so!«. Doch dies ist nur vordergründig bescheiden: denn die Möglichkeit, dass man etwas grundsätzlich falsch verstanden hat, wird dabei nur ausgeblendet.

Feynman beschrieb die Suche nach Naturgesetzen auch mit einer Beliebigkeit, die wenige Jahrzehnte vorher unter den führenden Physikern undenkbar gewesen wäre:33 »Auf unserem Gebiet haben wir das Recht, alles zu tun, was uns gerade passt. […] Es ist immer ein Ratespiel. […] Das Experiment wird uns schon erzählten, wenn es nicht stimmt.« Solche Worte wären Einstein nie in den Sinn gekommen. Das Credo seiner deduktiven Methode war: »Ich möchte wissen, ob der Herrgott [beim Erschaffen der Naturgesetze] eine Wahl hatte.« Mit der ihm eigenen Sturheit war Einstein dabei egal, wie dies andere sahen, aber er hatte für sich selbst einen Anspruch an Wahrhaftigkeit behalten.

Unter seinen Kollegen und Nachfolgern mag Feynman, was Integrität und Ernsthaftigkeit betrifft, durchaus noch hervorstechen. Dennoch symbolisiert wohl gerade er die theoretische Physik der Nachkriegszeit, die, von ihren Wurzeln getrennt, bald vom Boden der Realität abheben sollte.

Der mephistophelische Pakt

Die Direktoren der Kriegs- und Beschleunigerlaboratorien und anderen Großforschungseinrichtungen, die mit viel Geld nach dem Krieg aus dem Boden sprießten, waren die neuen Herren der Physik, obwohl nichts darauf hindeutet, dass der erfolgreiche Bau der Bombe sie in irgendeiner Weise für fundamentale Wissenschaft qualifiziert hätte. Im Grunde wussten sie nicht einmal, was sie tun sollten, da ihnen die Kultur, grundlegende Fragen aufzuwerfen, fremd war.

Eine Idee aus dem alten Europa (wenn auch keine besonders gute), die man mit den großen Anlagen testen konnte, war das Neutrino. Nachdem man den Vorschlag verworfen hatte, Neutrinos mit einer Kernwaffenexplosion zu erzeugen, versuchte man es an Atomreaktoren. 1956, gut 25 Jahre nach seiner (vielleicht nur als Provokation gemeinten) Vorhersage durch Pauli, erschien eine Veröffentlichung, die den Nachweis des Neutrinos feststellte. Einige methodische Unzulänglichkeiten34 führten dazu, dass in den 1960er Jahren noch viele gegenüber der Existenz von Neutrinos Vorbehalte hatten.35 Diese Stimmen sind heute praktisch ausgestorben.

»We’ve got no money, so we’ve got to think.«– Ernest Rutherford I

1954 wurde schließlich das europäische Kernforschungszentrum CERN gegründet. Als Wiederbelebung der europäischen Forschung gefeiert, war es letztlich ein Abbild der Beschleuniger in den USA, wenn es auch zwischenzeitlich jene an Größe und Leistungsfähigkeit übertraf. Vor dem Krieg hätte niemand etwas mit so einem Beschleuniger anzufangen gewusst, mit Ausnahme vielleicht von Rutherford, der aber auch nie um ihrer selbst willen so eine Anlage gebaut hätte.LXXVIII

Dies war der Anfang einer Entwicklung, immer größere Beschleuniger beziehungsweise Collider zu bauen, die sich über die Jahrzehnte hinweg zu einer Gigantomanie auswuchs. Neben der rein technischen Raffinesse, die durchaus Respekt abnötigt (vergleichbar mit der Baukunst einer Kathedrale), ist jedoch in all den Teilchenbeschleunigern keine grundlegend neue Idee enthalten, welche über das handtellergroße Zyklotron von 1930 hinausgeht, das ebenfalls schon Teilchen auf Kreisbahnen beschleunigte. Und doch war der Bau von Collidern Inbegriff der amerikanischen Vorstellung, mit Geld, Macht und Technologie alles erreichen zu können.

»Die Glühbirne ist nicht durch die stetige Verbesserung der Kerze entdeckt worden.« – Michael Faraday

Verdrängt wurde dabei, dass es Rätsel gibt, insbesondere bei fundamentalen Naturgesetzen, die sich nicht mit der Brechstange lösen lassen. Nicht immer führt brute force zum Ziel, manchmal kann sie sogar kontraproduktiv sein. Die amerikanischen Großprojekte basierten auf kollektiven Anstrengungen, die effizient koordiniert werden mussten. Die heute dominierende Big Science, also das Forschen in großen Kooperationen, ist Ausfluss dieser Forschungskultur, die sich in der Nachkriegszeit entwickelte.

Oft hört man, Forschen im Team sei deswegen notwendig, weil ein Einzelner die großen Probleme nicht mehr lösen könne. Für experimentelle Großprojekte mag dies zutreffen, jedoch wird hier Ursache und Wirkung verwechselt: Es ist die Forschungstradition der großen Kollektive, die grundlegende Probleme gar nicht mehr aufgreift.

Durchgehend an der Forschungsfront

Der einzige namhafte Physiker der Vorkriegszeit aus Europa, der sich an dieser Art der Forschung beteiligte, war Werner Heisenberg.LXXIX Heisenberg, seine Ehefrau und einige Biografen haben nach dem Krieg stets betont, er sei trotz seiner Gegnerschaft zum Regime nur aus Verantwortungsbewusstsein heraus und unter persönlichen Opfern in Deutschland geblieben, um nach dem Krieg die Wissenschaft dort wieder aufbauen zu können. Das kann sein, und sicherlich war er viel zu kultiviert, um irgendwelche Sympathien für die Nazis zu empfinden. Auch war er von den braunen Ideologen der »Deutschen Physik« übel angegriffen worden.

Umgekehrt war Heisenbergs Ehrgeiz auch immer etwas größer gewesen, als dem reinen Erkenntnisstreben zuträglich war, selbst wenn man seine Rolle36 im deutschen Atombombenprojekt ausklammert. In den 1950er Jahren kündigte er einmal mit den Worten »Nur Details fehlen noch« großspurig eine vereinheitlichende Theorie an, die jedoch in der Phase der Wunschvorstellung stecken blieb. Der stets zum Spott aufgelegte Wolfgang Pauli versandte daraufhin eine Postkarte, die einen leeren Bilderrahmen zeigte mit dem Kommentar: »Dieses Bild zeigt, dass ich malen kann wie Tizian. Nur die Details fehlen noch«.

Eine völlig aufrichtige Einstellung zu dieser neuen Art der Forschung wäre gewesen, klarzustellen, dass sie zu den offenen grundlegenden Fragen nichts beiträgt. Auch Heisenbergs Vorschlag, die Kernbausteine Proton und Neutron als zwei Zustände eines einzigen aufzufassen – später nannte man das »Isospin« –, war letztlich banal und trug nicht viel zum Verständnis bei. Es scheint tatsächlich, dass Heisenbergs beste Idee auf das Jahr 1925 zurückdatiert, als er in Helgoland die MatrizenmechanikLXXX entdeckte, welche schließlich zu seiner berühmten Unschärferelation führte.

Als einer der Göttinger Achtzehn setzte Heisenberg später gegen die atomare Bewaffnung Deutschlands ein. Wie bei Carl Friedrich von Weizsäcker, der 1941 eine Plutoniumbombe patentieren lassen wollte,37 hat sich hier wohl genuine Friedensliebe mit etwas schlechtem Gewissen vermischt.

Hinsichtlich seiner wissenschaftlichen Beschäftigung deutet alles darauf hin, dass Heisenberg sich sehr schnell an die Kultur der neuen Herren assimilierte und wenig Interesse an den ungelösten Problemen der 1920er Jahre hatte. In seinem Wirken blieb nicht viel übrig, was an die europäische Tradition erinnerte.

Auch Heisenbergs Angewohnheit, Überzeugungen der Mehrheit als Wahrheit zu präsentieren, hat die Nachkriegsphysik von ihm übernommen. Der kompetitive Geist in der amerikanischen Kultur verstärkte

»Wissenschaft ist die Suche nach der Wahrheit – nicht ein Spiel, in dem man seinen Gegner zu besiegen versucht.«– Linus Pauling, Nobelpreisträger 1954

diese Tendenz, Mindermeinungen auszugrenzen, was der Wissenschaft nicht guttut. Zwar waren schon Newton und Leibniz Rivalen, ebenso die Gebrüder Bernoulli oder Poincaré und Einstein. Am Ende stand aber das gemeinsame Ziel des Ringens um die Wahrheit.

Moderne Forschungskollaborationen benehmen sich dagegen oft wie konkurrierende Unternehmen, die um Anteile am Weltmarkt kämpfen. Investitionen mussten sich lohnen, und als Substitut für Erkenntnisgewinn, der sich eigentlich nicht messen lässt, dienten im 20. Jahrhundert die Nobelpreise. Dabei gab es oft Tricksereien bei der Priorität von Publikationen und subtile Strategien, wie ein Preis am besten abzuräumen ist.

Das Aussterben einer Art

Was ist aus den anderen führenden Physikern des beginnenden 20. Jahrhunderts geworden? Wurden sie als weise Orakel wenigstens bei grundlegenden Fragen konsultiert? Mitnichten. Niels Bohr, dessen ausufernde Betrachtungen zu seinem Komplementaritätsprinzip tatsächlich angreifbar waren, spielte in der Nachkriegszeit keine Rolle mehr. Ebenso erging es Einstein, dem hauptsächlich formale Bewunderung entgegengebracht wurde. Hinsichtlich seiner Feldtheorie, aber auch mit seiner Kritik an der Quantenmechanik stieß er auf totales Desinteresse. Schrödinger blieb schließlich in seinem Exil in Irland, wo er sich mit Kosmologie, Erweiterungen der allgemeinen Relativitätstheorie Einsteins und auch BiologieLXXXI beschäftigte. Er arbeitete isoliert, gebührenden Respekt der neuen Generation erhielt er nicht.

»Zu Beginn der Zeit waren die Naturgesetze wahrscheinlich ganz anders als heute.« – Paul Dirac

Fast noch weniger Achtung brachte man Dirac entgegen, der seine Ideen zur »Hypothese der großen Zahlen« verfolgte. In späteren Jahren wandte er sich dem Thema Naturkonstanten und deren Veränderlichkeit zu, einer ganz grundlegenden, aber in der heutigen Physik sträflich unterschätzten Frage. Er starb 1984, lebte jedoch schon lange vorher als wissenschaftlicher Einzelgänger.

So unterschiedlich die Schicksale von Einstein, Dirac, Schrödinger und Bohr waren, so spiegelt doch die allen gemeinsame Isolierung das Aussterben der europäischen, naturphilosophischen Denkweise wider, deren Wurzeln Jahrhunderte zurückreichten, die jedoch in der neuen Welt der Physik keine Früchte mehr trug.