11 Gravitation, Raketen, Mondlandung
Prestige im Weltall

Angewidert vom Nationalsozialismus, hatte Albert Einstein 1933 Deutschland verlassen, nachdem antisemitische Kräfte ihn schon seit 1920 bedroht hatten. In Amerika schätzte er die Freundlichkeit der Menschen und deren unkomplizierte Mentalität außerordentlich. Anstatt der grölenden, fanatisierten Horden der SA, die in deutschen Städten ihr Unwesen trieben, begegneten ihm hier offene und kooperative Menschen, die jeden so nahmen, wie er war.

»Hier in Princeton hält man mich für einen alten Narren.« – Albert Einstein

Doch Einsteins Emigration symbolisierte auch das Ende der europäischen Wissenschaftskultur, die auch für ihn selbst nicht mehr rückgängig zu machen war. Obwohl in Amerika später äußerlich bewundert, konnte er doch nichts mit den theoretischen Ansätzen der Nachkriegsphysik anfangen. Von wenigen AusnahmenXCII abgesehen, interessierten sich aber auch die amerikanischen Physiker nicht für seine Ideen. Faktisch sprachen sie verschiedene Sprachen, Einstein schien ihnen ein Relikt vergangener Zeiten. Seine Isolation signalisierte damit auch, dass mit ihm die europäische Denkweise aussterben würde.

Einstein stand wie kein anderer für die Tradition des Naturforschers, der unablässig nach den letzten Ursachen sucht. Man möchte annehmen, dass er infolgedessen nach seiner Emigration zu einem Magneten für junge Wissenschaftler wurde, vor allem in Princeton, wo er später eine Professur erhalten hatte. Niemand sonst hatte einen vergleichbaren Überblick über die Gebiete der theoretischen Physik, die zum Teil von ihm selbst gegründet worden waren. Stattdessen wurde Princeton zu Einsteins Elfenbeinturm.

Sicher lag es auch an seinem großen Eigensinn, der ihn in Europa schon zu einem »Einspänner« gemacht hatte, und sein schlechtes Englisch trug nicht dazu bei, den Kontakt zu der jungen Generation zu befördern. Aber dies erklärt nicht das Ausmaß, in dem seine Autorität ignoriert wurde. Zwar hatte er ein paar getreue Mitarbeiter, mit denen er seine nach wie vor grundlegenden Ideen verfolgte, jedoch waren diese Aktivitäten alles andere als im Zentrum der Aufmerksamkeit. Es ist auffällig, wie sehr Einstein, immerhin erst mit 54 Jahren, dem Altenteil zugerechnet wurde. Im Berlin der 1920er Jahre war Einstein eine Institution, die jeder führende Theoretiker zumindest konsultierte. Es ist aber nicht überliefert, dass Fermi, Compton, Lawrence, Yukawa oder Rabi ihn in Princeton jemals aufgesucht hätten, um eine Idee mit ihm zu diskutieren. Wahrscheinlich hätten Sie gar keine gemeinsame Basis für ein Gespräch gefunden. Amerikas Physikkultur, die sich als jung und erfolgreich begriff und sich zunehmend mit Großprojekten beschäftigte, war einfach anders. Einstein passte nicht mehr dazu.

Einstein und das Bild von ihm

Viel von dem, was über das Leben und Werk von Albert Einstein Allgemeingut geworden ist, ist von seinem guten Bekannten Abraham Pais beeinflusst, dessen Einstein-Biografie jedoch mit Vorsicht zu genießen ist. Offensichtlich fühlte Einstein zu Pais, der 1945 in Holland nur knapp der Deportation und dem Tod entkommen war, eine große persönliche Verbundenheit, die aus ihrem gemeinsamen Schicksal als Verfolgte des Nazi-Regimes entsprang. Dem steht gegenüber, dass Pais Einsteins Herangehensweise an die Physik nicht wirklich schätzte, ja nicht schätzen konnte. Selbst Teilchenphysiker, arbeitete Pais später sogar an den absonderlichen Konzepten des Standardmodells mit, dessen volle Auswüchse Einstein nicht mehr erlebt hat. Auch über Einsteins Versuche zu einer einheitlichen Feldtheorie äußerte sich Pais stets abwertend.1

Bemerkenswert ist, durch welche Brille Pais die allgemeine Relativitätstheorie sah. Er suchte in Einsteins Werk nach frühen Anzeichen für die formale Interpretation, die nach 1919 dominierte, und kaprizierte sich auf mathematische Aspekte der von Einstein verwendeten TensorrechnungXCIII. Dies trug auch dazu bei, dass man sich heute fast ausschließlich mit jener geometrischen Deutung der allgemeinen Relativitätstheorie beschäftigt. Einsteins Überlegungen waren jedoch breiter. Sein allererster Versuch zur Theorie, den er 1911 auf der Basis einer variablen Lichtgeschwindigkeit entwickelte,XCIV wird von Pais kaum erwähnt, weil er aus dessen Sicht »keinen Sinn hatte«.2

»Die Konstanz der Lichtgeschwindigkeit [kann] nur für Raum-Zeit-Gebiete mit konstantem Gravitationspotential Gültigkeit beanspruchen.« – Albert Einstein, 1911

Selbst als der in St. Luis geborene Robert Dicke 1957 eine eigene Version der allgemeinen Relativitätstheorie mit variabler Lichtgeschwindigkeit entwickelte (und dabei einen Fehler Einsteins korrigierte), bezog er sich nicht auf Einsteins Arbeiten3 von 1911, die ihm unbekannt waren.XCV Trotz Dickes Leistung spiegelt sich hier doch eine etwas überhebliche Sicht wider, die automatisch davon ausgeht, alles wissenschaftlich Relevante sei schon auf Englisch publiziert.4

Zwiespältige Huldigung

Nicht selten hört man bei Unterhaltungen mit Physikern, Einstein habe die letzten Jahrzehnte seines Lebens sich nur mit Unsinn beschäftigt, eine Sichtweise, welche die ganze Arroganz der Nachkriegsphysik offenbart.

»In Amerika sind die Jungen stets bereit, die Älteren an den Früchten ihrer Unerfahrenheit teilhaben zu lassen.« – Oscar Wilde

Nicht weil jeder Gedanke von Einstein richtig gewesen wäre, sondern weil damit grundlegenden Fragen unter den Tisch gekehrt wurden, die Einstein nicht aufhörte zu stellen. Abgesehen davon arbeitete Einstein zwar mit schwieriger Mathematik, aber nie ohne den Anspruch, sich auf Raum, Zeit und Ma­terie zu beziehen, während die vermeintlich kräftige Jugend der Physiker sich mit abstrakten, oberflächlichen Modellbildungen abgab. Sie erinnern an Halbstarke, die in der Gruppe große Sprüche klopfen und meinen, auf die Weisheit der Alten verzichten zu können.

Die oft unverhohlen geäußerte Geringschätzung gegenüber Einsteins Art, Physik zu ergründen, steht in erstaunlichem Kontrast zu einer zunehmenden Verklärung der geometrischen Formulierung der allgemeinen Relativitätstheorie, die in der Kosmologie fast schon zur Religion erhoben wird. Auch dies hätte dem lebenslang suchenden Zweifler Albert Einstein missfallen. Dennoch wurde sein Name immer öfter als Rechtfertigung für Großprojekte benutzt, welche die Forschung auch in der Astronomie und Kosmologie in den folgenden Jahrzehnten beherrschen sollten. So spielt Einstein auch heute in der US-Physikkultur eine scheinbar große Rolle. Sein Werk wurde jedoch seiner philosophischen Gedanken entkernt und seine Ideen selektiv als Rechtfertigung für Big-Science-Projekte verhackstückt.

Big Science im Weltraum

Vor allem nach Einsteins Tod 1955 gab es ein zunehmendes Inte­resse, Gravitationstheorien experimentell zu testen,5 wogegen natürlich nichts einzuwenden ist. Dies führte unter anderem zu eindrucksvollen Beobachtungen wie der eines Radarechos, das an der Venus reflektiert wurde, ein Test, der 1968 von I. I. Shapiro entwickelt wurde. Wenn der Strahl in der Nähe der Sonne vorbeiging, beobachtete man eine kleine Zeitverzögerung, in voller Übereinstimmung mit Einsteins Vorhersage. In dem legendären Haefele-­Keating-Experiment 1972 wurden die Effekte der speziellen und allgemeinen Relativitätstheorie auf den Ablauf der Zeit direkt mit Atomuhren in Flugzeugen gemessen. Einstein wurde ebenfalls glänzend bestätigt.

All dies sind unbestreitbare Verdienste einer technologisch orientierten Physik, welche in den USA zu nie da gewesener Blüte gelangte. Der Traum von der technischen Machbarkeit führte aber auch dazu, manche Phänomene unbedingt entdecken zu wollen, zu denen sich Einstein gar nicht so eindeutig geäußert hatte. Dies betrifft Gravitationswellen, schwarze Löcher, oder auch die »Dunkle Energie«. Zu den Gravitationswellen hatte Einstein zwar zuerst 1917 publiziert, seine späteren Äußerungen dazu sind jedoch durchaus widersprüchlich.6 Lange Zeit wurde unter Theoretikern kontrovers diskutiert, ob Gravitationswellen überhaupt eine Vorhersage der Einstein’schen Theorie sind7 und wenn ja, ob sie dann prinzipiell beobachtbar wären.

Suchen, bis man findet

»Nichts ist so schwer, als sich nicht selbst zu betrügen.«– Ludwig Wittgenstein

Die großtechnische, experimentell dominierte Physik interessierte sich immer schon mehr für die Frage, wie man solche Wellen messen könnte, als für die Frage ihrer Existenz. Dies war maßgeblich beeinflusst durch den amerikanischen Radiotechniker und Korvettenkapitän Josef Weber, der in den 1960er Jahren mit der Suche nach Gravitationswellen begann. Weber war durchaus ein geschickter Experimentator und strotzte vor Optimismus. Allerdings wurden auch seine Selbsttäuschungen legendär, mit denen er Signale in zufälliges Rauschen hineininterpretierte. Ein Kollege schrieb über ihn:8

»Joe kam ins Labor und drehte so lange an allen Knöpfen, bis er ein Signal hatte, und dann nahm er Daten auf … Erst danach definierte er, was als Schwelle des Rauschens zu gelten hatte, und probierte auf zwanzig verschiedene Arten, die Daten zu analysieren, bis endlich etwas sichtbar wurde und er sagte: ›Aha, da haben wir es.‹ Wenn dann jemand kam, der etwas von Statistik verstand und seine Methode zerpflückte, antwortete er: ›Was meinst Du? Als wir im Krieg nach Radarsignalen Ausschau hielten, probierten wir auch so lange herum, bis wir es hatten.‹ – ›Ja, Joe, aber da sendete auch jemand ein Signal.‹ Und Joe verstand dies nie.«

In diesem Extremfall gab es ausreichend Selbstkorrektur der Wissenschaft, die Webers Fehler aufdeckte. Doch entwickelte sich die Gravitationswellenforschung in Amerika zu einem großen Wissenschaftszweig, dessen Methoden keineswegs immer konsistent waren. Es folgten noch zahlreiche Berichte über die Beobachtung von Wellen, die sich nicht durchsetzen konnten.9 Es zeigte sich hier ein generelles Muster: Die Suche nach schwachen Signalen ist im Grunde nie zu Ende, wenn keine saubere theoretische Untergrenze des Erwartbaren definiert ist. Schlägt die Beobachtung fehl, gewinnen Modelle an Reputation, die schwächere Signale vorhersagen. Darüber sind Experimentatoren in der Regel aufgeschlossen, weil sie den Bau von neuen, noch raffinierteren Apparaturen erfordern.

Seit den 2016 in einer großen Pressekonferenz vorgestellten Messungen gelten Gravitationswellen als etabliert, obwohl es gewichtige offene Fragen dazu gibt.10 Auch wenn man gegenüber diesen Resultaten skeptisch bleibt, haben doch diese Laboratorien in der amerikanischen Tradition der Nachkriegsphysik zu den genausten und technologisch brillantesten Experimenten geführt, die von der Menschheit durchgeführt wurden.

Bewunderte Sternenmonster

Nachweislich noch skeptischer als gegenüber Gravitationswellen war Einstein bei schwarzen Löchern, deren ›Vorhersage‹ ihm oft fälschlicherweise zugeschrieben wird.11 Allein aus Newtons Gravitationsgesetz von 1687 ergibt sich, dass Massen eine bestimmte Fluchtgeschwindigkeit erreichen müssen, um einem gravitierenden Himmelskörper zu entkommen. Je kleinerXCVI und massiver der Körper ist, desto höher seine Fluchtgeschwindigkeit, die damit offenbar auch größer als die Lichtgeschwindigkeit werden kann. Dies wird heute schwarzes Loch genannt, wurde jedoch schon von dem englischen Naturforscher John Michell im Jahr 1784 thematisiert. Die heutige theoretische Mode, schwarze Löcher als mathematische Singularitäten zu betrachten, in denen alle Naturgesetze zusammenbrechen,XCVII wurde von Einstein ausdrücklich als unzulässige Extrapolation abgelehnt.

Doch auch hier entfaltete sich eine in der Nachkriegsphysik nicht unübliche Dynamik, die schließlich zur Anerkennung des Konzeptes führen sollte. 1967 wurden Pulsare entdeckt, Überreste von Sternexplosionen, welche eine entsprechende Masse auf wenigen Dutzend Kilometern Durchmesser konzentrieren. Sie rotieren unglaublich schnell und werden infolgedessen als gigantische, nur aus Neutronen bestehende Atomkerne angesehen. Vor allem der Gravitationsphysiker John Wheeler, der die Bezeichnung »schwarzes Loch« erfand, scharte zahlreiche junge Forscher um sich, welche die Pulsare intensiv analysierten.

Erstaunlicherweise gibt es aber keinen konkreten Zeitpunkt, dem der erste Nachweis eines schwarzen Loches zugeordnet werden kann – methodisch ist dies ein schlechtes Zeichen. Dennoch setzte sich bei bestimmten Objekten langsam die Deutung durch, es handle sich um schwarze Löcher, obwohl sie von Neutronensternen nicht wirklich gut zu unterscheiden waren.12 Heute gibt es weitere Beobachtungen, die tatsächlich auf sehr große, konzentrierte Massen im Universum hindeuten, etwa die 2020 mit dem Nobelpreis gewürdigten Messungen an einem Stern, der das Milchstraßenzentrum umkreist.

Eher unseriös war die Behauptung, ein »Foto« eines schwarzen Loches in der Galaxie M87 aufgenommen zu haben, die ebenfalls in einer großen Pressekonferenz verkündet wurde, denn das Bild besteht aus zahlreichen theoretischen Annahmen und Filterungen aus einer intransparenten Datenmenge.13 Die Interpretation solcher Beobachtungen als schwarze Löcher mag nachvollziehbar sein. Überzeugende Physik ist jedoch immer quantitativ. Ein solcher Nachweis, dass die Größe dieser Objekte tatsächlich mit dem aus der Theorie hergeleiteten, sogenannten SchwarzschildradiusXCVIII übereinstimmt, steht bis heute aus.

Kronzeuge wider Willen

»… die Übereilung, mit der Naturforscher sich gerne einbilden, sie hätten ein Phänomen verstanden, wenn sie in Wirklichkeit nur die Tatsachen beschreibend erfasst haben.«14 – Erwin Schrödinger

Besonders dreist wurde Einsteins Name 1998 missbraucht, um in der Kosmologie ein neues Konzept der sogenannten »Dunklen Energie« zu etablieren. Wieder hatte die Technologie den Anstoß gegeben. Mit dem Hubble-Weltraumteleskop war es erstmals möglich, sogenannte Supernovae – gewaltige Sternexplosionen, die über Milliarden von Lichtjahren hin sichtbar sind – in großer Zahl zu beobachten. Die auf diese Weise gemessenen Distanzen waren jedoch mit dem kosmologischen Standardmodell nicht zu vereinbaren. Die Anziehungskraft, von der man geglaubt hatte, sie würde die ExpansionXCIX des Universums abbremsen, schien einfach nicht vorhanden zu sein. Ohne diese Überzeugung infrage zu stellen, einigte man sich schließlich darauf, die nicht gemessene Abbremsung sei durch eine entsprechende Beschleunigung der Expansion kompensiert.

Da für diese eigenwillige Deutung immer noch eine Ursache fehlte, postulierte man, für eben jene Beschleunigung sei eine »Dunkle Energie« verantwortlich.C Als vage Parallele wurde eine Idee Einsteins der kosmologischen Konstante von 1917 herangezogen, die er selbst als seine »größte Eselei« bezeichnet hatte. Sicher­lich wäre es Einstein überdies nie eingefallen, einen Widerspruch in den Beobachtungsdaten einfach mit dem Postulat einer unbekannten Substanz zu lösen. Statt willkürlich neue Parameter einzuführen, hatte Einstein stets nach ersten Ursachen gesucht. Es ist wohl nicht zu viel unterstellt, dass er die Supernova-Messergebnisse zum Anlass genommen hätte, über die Ursachen der Expansion selbst noch einmal nachzudenken.

Mission Mond

Der Schlüssel zum wissenschaftlichen Erfolg Amerikas in der As­tronomie und Kosmologie, zu dem später viele weltraumgestützte Teleskope beitragen sollten, war das Raumfahrtprogramm. Nach dem Sputnik-Schock von 1957 und dem ersten bemannten Flug im Weltall 1961 hatte die Sowjetunion plötzlich die USA überrundet. Die Angst war groß, noch weiter ins Hintertreffen zu geraten. Bei der Entwicklung von Atom- und Wasserstoffbomben hatte die Sowjetunion gleichgezogen, und in Kombination damit war die Befürchtung eines Angriffs aus dem Weltall real. Es wurde damals als militärische Notwendigkeit angesehen, ein Raketen- und Raumfahrtprogramm zu entwickeln. Man kann die Apparate bewundern, die zur Erforschung der Physik beigetragen haben. Aber man sollte sich in Erinnerung rufen, dass die Physik im Kleinen von der Entwicklung von Nuklearwaffen profitierte und im Großen von der Fähigkeit, diese ans Ziel zu bringen. Darin steckt noch nicht wirklich viel Grundlagenwissenschaft.

»Denn die Wissenschaft des Weltraums hat, wie die des Atoms und alle Technologie, kein eigenes Gewissen. Ob sie eine Kraft zum Guten oder zum Schlechten wird, hängt vom Menschen ab, und nur wenn die Vereinigten Staaten eine Vorrangstellung einnehmen, können wir mitentscheiden, ob dieser neue Ozean ein Meer des Friedens oder ein neuer Kriegsschauplatz sein wird.«15 – John F. Kennedy

 

Die militärische Komponente wurde auch mehr oder weniger von Präsident John F. Kennedy eingeräumt, der im September 1962 das Apollo-Programm mit dem Ziel, einen Menschen auf den Mond zu bringen, ankündigte. Er appellierte dabei an den amerikanischen Pioniergeist, was in der Öffentlichkeit gut ankam. Nach dem Erfolg der Mondlandung am 20. Juli 1969 wurde damit auch Amerikas durch den Vietnamkrieg angeschlagenes Image wieder aufpoliert.

Anpassungsfähige Ingenieure

Bei der Entwicklung der Raketentechnologie hatten viele Deutsche mitgewirkt.16 Teilweise war dies eine Folge der Operation Overcast, in der man nach Ende des Zweiten Weltkriegs Wissenschaftler und Techniker aus Deutschland rekrutierte, um deren militärtechnisches Wissen für die USA zu sichern. Wernher von Braun hatte beispielsweis für die Nazis in Peenemünde die V2-Raketen gebaut, die 1944 noch zum Einsatz kamen. Grundlegend waren auch die Arbeiten von Hermann von Oberth. Dessen Dissertation war 1922 an der Universität Heidelberg als unrealistisch abgelehnt worden – eines jener Beispiele, in denen die europäische Denkkultur zu schwerfällig war, das Potenzial der Naturwissenschaften zu erkennen. Umgekehrt war das Land mit dem Credo, das Unmögliche möglich zu machen, gerade das Richtige für Menschen wie Oberth.

Die ersten Schritte auf dem Mond von Robert Armstrong, begleitet von den Worten »ein kleiner Schritt für den Menschen, ein großer Sprung für die Menschheit«, den Fernsehzuschauer auf der ganzen Welt verfolgen konnten, waren auch von immenser kultureller Bedeutung. Das Ereignis ließ für Wissenschaft und Technik begeistern und machte auf die Rolle unseres verletzlichen Planeten im riesigen Weltall aufmerksam, die sonst nicht gerade die Tagesnachrichten dominiert.

»Wer sind wir? Wir erkennen, dass wir auf einem unbedeutenden Planeten eines eintönigen Sterns leben, verloren in einer Galaxie, versteckt in einer vergessenen Ecke eines Universums, in dem es weit mehr Galaxien als Menschen gibt.« – Carl Sagan

Die Naturwissenschaften erlebten einen Aufschwung, besonders die Astronomie, die vorher in den USA keine besondere Beachtung gefunden hatte. Man sagt, der Astronom Carl Sagan habe mit seinem Buch Cosmos und der gleichnamigen populären Sendung eine ganze Generation von Studenten zur Astronomie motiviert.

Die gewaltsamen Modellierer

Freilich fand sich auch diese Generation in einer Wissenschaftskultur wieder, in der durch Einsatz von Mitteln und großen Forschungsgruppen alles lösbar schien. In der Sonnenphysik gab es zum Beispiel ein Problem mit der Opazität, der Lichtundurchlässigkeit ihrer oberen Schichten. Besteht die Sonne aus heißem Gas beziehungsweise Plasma, ist es ziemlich unerklärlich, dass sie sich mit einer so klar definierten Oberfläche zeigt.17 In einem Großprojekt von theoretischen Rechnungen wurde schließlich diese Eigenschaft beschrieben. Allerdings benötigte dieses komplizierte Modell viele unrealistische Hilfsannahmen.18 So erinnert auch dieses »Solare Standardmodell« sehr an die Modelle der Teilchenphysik und Kosmologie, die ebenfalls in der US-Denktradition entstanden sind. Auch hier werden grundlegende Probleme von den vielen Parametern überdeckt.

In seiner Arbeitsweise »Europäer« ist dagegen Pierre-Marie Robitaille, vormals Professor für Radiologie an der Universität von Ohio. Robitaille, der 1998 den leistungsfähigsten Kernspintomografen der Welt entwickelt hatte,19 wandte sich um die Jahrtausendwende der Astronomie zu und studierte die Entstehung des Sonnenmodells über die letzten 150 Jahre, wobei er viele Originalquellen in italienischer, französischer und deutscher Sprache heranzog. Robitaille vertritt die revolutionäre These, dass die Sonne aus flüssigem metallischen Wasserstoff besteht, einem Zustand, der nur bei sehr hohem Druck entstehen kann. 2017 wurde dieser Zustand erstmals in einem Labor nachgewiesen, obwohl seine Existenz bereits 1935 vorhergesagt worden war – allerdings einige Zeit, nachdem sich die Sonnenphysik bereits für das gasförmige Modell entschieden hatte.

Kollektive Wissenschaft – oft im Irrtum, aber niemals im Zweifel

»Selbst in der Physik gibt es leider viele Ideologien. (…) Wer nicht mit der Mode geht, der steht bald außerhalb des Kreises derer, die ernst genommen werden.« – Karl Popper

Diese Weggabelungen, an denen die Physiker sich per Mehrheitsentscheid entschließen, nur einen von mehreren Möglichkeiten weiterzuverfolgen, sind leider typisch für die moderne Wissenschaft. Weil die Community nicht mit zwei gegensätzlichen Hypothesen leben will, bleiben jene, welche die Mindermeinung für richtig halten, zurück und werden marginalisiert. Dies führt aber auch dazu, dass solche verworfenen Alternativen selbst im Lichte neuer Beobachtungen nicht mehr ernsthaft diskutiert werden, wie es beispielsweise bei der flüssigen Sonne der Fall ist.

»Ein Vorurteil wird leichter in der primitiven, naiven Form erkannt denn als das ausgeklügelte Dogma, zu dem es später so leicht wird.« – Erwin Schrödinger

Moderne Bilder von Sonneneruptionen, bei denen auf die Sonne zurückfallendes Material im Moment des Aufpralls aufleuchtet,20 lassen sich eigentlich gar nicht anders als durch eine flüssige Oberfläche interpretieren. Dennoch gilt Robitaille im Moment noch als Außenseiter, der eine vermeintlich abwegige These vertritt. Die Situation erinnert ein wenig an Alfred Wegener, der für seine Theorie der Kontinentaldrift noch 1928 von einem führenden Geologen21 wie folgt verspottet worden war: »Wenn wir der Hypothese von Wegener folgen würden, müssten wir alles vergessen, was wir in den letzten 70 Jahren gelernt haben.« Wegeners Hypothese, dies sei nicht verschwiegen, kam letztlich durch das US-Militär zu weltweiter Anerkennung, als der Konteradmiral Harry H. Hess seine Ergebnisse zum Sea Floor Spreading publizierte. Es bleibt zu hoffen, dass neue Sonnenmissionen der NASA ebenfalls einmal ganz unzweideutige Beobachtungsergebnisse zur Sonnenoberfläche liefern.

Insgesamt hatte die ursprünglich militärische Technologie der Raumfahrt auch einen großen Nutzen für die Wissenschaft, der in den folgenden Jahrzehnten mit den verschiedensten Weltraumteleskopen offenbar werden sollte.CI Aber auch die schon bei der Mondlandung selbst aufgestellten Reflexionsspiegel sorgen dafür, dass die Entfernung zum Erdtrabanten mittels leistungsfähiger Laser über die Lichtlaufzeit auf Zentimeter genau bestimmt werden konnte. Dies ermöglichte nicht nur präzise Tests des Gravitationsgesetzes, sondern erlaubte auch, den Einfluss der Gezeitenreibung auf die Erdrotation zu berechnen. Die Entwicklung des Lasers war eine bahnbrechende Neuerung für sich, die auf den 1927 in Los Angeles geborenen Theodore Maiman zurückgeht. Ihm wurden seinerzeit Mittel verweigert, weil seine Idee, so die Geldgeber, »keinen Anwendungsbezug« hatte.

Beginn der Halbleiterwelt

Dass der direkte Nutzen bemannter Missionen zum Mond überschaubar war, erkennt man allein daran, dass es nach dem prestigeträchtigen Rennen der Supermächte zum Mond über Jahrzehnte keinen Grund mehr gab, die Projekte zu wiederholen. Als Katalysator hat die Mondlandung jedoch auch für andere Technologien gedient. Der von dem ungarisch-amerikanischen Mathematiker John von Neumann gebaute Rechner MANIAC22 kam schon bei der Entwicklung der Wasserstoffbombe maßgeblich zum Einsatz, und das Apollo-Projekt wäre ohne den Einsatz von Computern undenkbar gewesen.

Das erste funktionsfähige Modell eines Computers aus dem Jahr 1941 geht bekanntlich auf den deutschen Informatiker Konrad Zuse zurück, bevor in den USA die Wichtigkeit der Technologie erkannt wurde und deren explosionsartige Entwicklung begann. Eine große Rolle spielte dabei William Shockley, der den Transistor entwickelte, welcher eine effiziente Anwendung der Computertechnik überhaupt erst ermöglichte. Shockley war es, der damit das Silizium in das Silicon Valley brachte, welches in erster Linie ein militärisches Forschungsvorhaben darstellte.

Shockley war sowohl an der Einsatzplanung der Atombombe als auch bei der Entwicklung der US-Nuklearstrategie maßgeblich beteiligt gewesen. Obwohl er 1956 mit dem Nobelpreis ausgezeichnet wurde, stellte sich später heraus, dass ihm bei der Entwicklung des Transistors die Patente von Julius Edgar Lilienfeld bekannt waren, diese jedoch bewusst verschwiegen hatte.23 Der aus Lemberg stammende Lilienfeld hatte das grundlegende Prinzip 1925 in Berlin patentieren lassen. Auch wegen des aufkommenden Antisemitismus wanderte er 1927 in die USA aus, wo er noch lange um die Durchsetzung seiner Rechte kämpfte.

Technologische Evolution der Zivilisation

Insgesamt hat die Computertechnik die Zivilisation viel nachhaltiger beeinflusst als die Raumfahrt. Während höhere Mathematik aus Europa kam, ist die Computertechnik ein typisches und fast ausschließliches Produkt der amerikanischen Wissenschaftstradition. Das Prinzip des Computers, wie übrigens auch das des Lasers, benötigt wenig Einsichten in fundamentale Naturgesetze von Raum und Zeit. Als Grundlage mag man die Entdeckung der Elektronen oder die Entwicklung der Quantenmechanik ansehen, ohne dass man darin ein entscheidendes Element erkennen kann.

Computer wurden gebaut, weil praktischer Erfindergeist sich nach und nach immer neue Anwendungen suchte. Mit der Freiheit der Forschung, den finanziellen Mitteln und dem großen Pool an Talenten war Amerika dafür offensichtlich der beste Ort. Vielleicht stellt dies auch klar, dass in diesem Buch nicht behauptet werden soll, die europäische Wissenschaftstradition sei in jeder Hinsicht »besser«. Möglicherweise liegt ein größerer Nutzen für die Menschheit (wenn man einen solchen überhaupt definieren kann) in den Anwendungen, die oft nicht weniger Kreativität und visionäres Denken verlangen als die Erforschung grundlegender Naturgesetze. Aber historische Wahrheiten haben eine Berechtigung, ausgesprochen zu werden. Gerade wenn man über die weitere Entwicklung der Menschheit nachdenkt, ist es wichtig, sich der unterschiedlichen Denktraditionen bewusst zu sein, welche in ihrer Kombination zum heutigen Stand der Zivilisation geführt haben.