8    Zahlengläubigkeit
Am 5. Oktober 1960 wurde Thomas J. Watso n Jr., der Präsident von IBM , gemeinsam mit zwei anderen Konzernchefs durch den »War Room« von NORAD geführt, der Kommandozentrale der North American Air Defense in Colorado Springs. Über den Landkarten an der Wand war eine Alarmanzeige zu sehen, die mit dem Raketenfrühwarnsystem der USA in Thule, Grönland, verbunden war. Den Managern wurde erklärt, dass eine blinkende »1« auf der Anzeige nicht viel zu bedeuten hatte, höhere Zahlen jedoch ernst zu nehmen waren. Während sie vor der Anzeige standen, begannen die Zahlen zu steigen. Als das Display die »5« erreicht hatte, legte sich ein Gefühl der Panik über den Raum, und die alarmierten Manager wurden rasch aus dem War Room in einen benachbarten Büroraum eskortiert, ohne nähere Erklärungen. Eine »5« war die höchste Alarmstufe. In diesem Fall bedeutete sie mit einer geschätzten Wahrscheinlichkeit von 99,9 Prozent einen massiven Angriff aus Sibirien, mit rapide näher kommenden Interkontinentalraketen. Mit höchster Dringlichkeit wurden die Stabschefs kontaktiert und um sofortige Befehle ersucht, wie darauf reagiert werden sollte. Nur wenige Minuten vor der zu erwartenden Vernichtung der ersten US -Städte fragte der kanadische NORAD -Vizekommandant, wo denn überhaupt Chruschtscho w sei. Die Information, dass er sich in New York bei den Vereinten Nationen aufhielt, genügte, um eine Pause zu rechtfertigen, bevor ein totaler atomarer Gegenschlag angeordnet wurde. Und dann stellte sich heraus, dass es sich bei dem von den Computern erkannten totalen Vernichtungsschlag de facto um den Mond handelte, der über Norwegen aufging. [1]
Was uns vor der atomaren Apokalypse bewahrt hat, war die Weisheit, den Alarm des Computermodells zu hinterfragen, statt einfach der scheinbar überwältigenden Macht seiner Vorhersagen nachzugeben. Es hätte auch anders laufen können: Die Überzeugungsmacht jener extremen Zahl – 99,9 Prozent – hätte uns dazu verleiten können, sämtliche Zweifel vom Tisch zu fegen.
Und das ist genau das, was im Vorfeld des Finanzcrashs von 2008 mehrfach passierte. Legionen von sehr schlauen Leuten in den Finanzzentren der Welt setzten Computermodelle ein, die extreme Zahlen produzierten – Zahlen, die im Widerspruch zu den Daten standen, die von der Außenwelt kamen. Im August 2007 wurde David Vinia r, der CFO von Goldman Sachs, in der Financial Times mit der Aussage zitiert: »Wir haben Kursschwankungen von 25 Standardabweichungen gesehen, an mehreren Tagen in Folge.« Etwas verständlicher ausgedrückt hat Vinia r damit gesagt, dass in einigen Märkten die Kurse so extrem geschwankt hatten, was laut den Vorhersagen der Computermodelle von Goldman Sachs nie hätte passieren sollen. »Nie passieren« ist etwas vereinfacht ausgedrückt: Goldmans Modelle besagten, dass solche Marktturbulenzen zwar auftreten können, aber äußerst unwahrscheinlich sind, eine so extreme Unwahrscheinlichkeit darstellen, dass sie sich kaum beschreiben lässt. Aber ich werde es versuchen: Ein 25-Standardabweichungen-Ereignis ist eines, dass viel seltener als ein einziges Mal in der Geschichte des Universums seit dem Urknall auftritt. Es ist ebenso unwahrscheinlich, wie den Jackpot der National Lottery in Großbritannien 21-mal hintereinander zu gewinnen. [2]
Dennoch waren solche Ereignisse nicht nur einmal, sondern mehrfach aufgetreten, an mehreren aufeinanderfolgenden Tagen. Anstatt jedoch diese Modelle aufzugeben, da sie von der Realität widerlegt waren, setzten Goldman Sachs – und viele andere Investmentbanken – sie weiterhin ein, um diverse Arten von Ungewissheit zu quantifizieren. Vielleicht dachten sie, was im Laufe der Zeiten zahlreiche Finanzexperten immer wieder behauptet haben: »Dieses Mal ist alles anders.«
Warum setzen sehr intelligente Leute ihr Vertrauen auf numerische Modelle von Ungewissheiten, selbst wenn deren Vorhersagen ganz offensichtlich im Widerspruch zur Realität stehen? Die meisten klugen Köpfe an den Finanzmärkten der Welt kennen sich mit der modernen Finanztheorie aus, einem Ableger der Ökonomik. Und der Trugschluss, man könne den Grad einer unerkennbaren Ungewissheit numerisch berechnen, wurde in ökonomischen Kreisen seit Jahrzehnten diskutiert, seit der RAND -Analyst Daniel Ellsber g 1961 ein Experiment veröffentlicht hatte (kurz nachdem es, wie oben beschrieben, im vorangegangenen Oktober beinahe zu einer atomaren Katastrophe gekommen wäre). Mit seinem Experiment hat Ellsber g präzise herausgearbeitet, wie fehlgeleitet der Versuch ist, reine Ungewissheit numerisch berechnen zu wollen – das heißt mithilfe von Wahrscheinlichkeiten.
Nehmen wir an, es gibt zwei Urnen: Urne 1 enthält genau 50 rote und 50 schwarze Kugeln; Urne 2 enthält ebenfalls insgesamt 100 rote und schwarze Kugeln, allerdings in einer unbekannten Verteilung. Aus einer Urne sollen Sie zufällig eine Kugel ziehen, doch Sie können wählen, aus welcher Urne. Sie gewinnen 100 Dollar, wenn die gezogene Kugel rot ist. Welche Urne wählen Sie?
Darüber muss man nicht lange nachdenken: Es ist keine Trickfrage. Und das gilt auch für die Folgefrage:
Nehmen wir jetzt an, Sie würden 100 Dollar gewinnen, wenn die gezogene Kugel schwarz ist, doch der Inhalt der Urnen wird nicht verändert; würden Sie jetzt die andere Urne wählen?
Mit seinem Experiment wollte Ellsber g keineswegs unser normales Denken lächerlich machen. Im Gegenteil: Er wollte damit die Kluft zwischen unserem normalen Denken und der intellektuellen Orthodoxie aufzeigen, die verbreitet wird von Ökonomen, Entscheidungsanalysten, Spieltheoretikern und anderen Anhängern von Theorien, die uns sagen wollen, wie wir denken sollten. Vor die Entscheidung zwischen Urne 1 und Urne 2 gestellt, wählen die meisten von uns zunächst Urne 1 und bleiben dann dabei, nachdem der Gewinn auf das Ziehen einer schwarzen Kugel ausgesetzt wird. Warum die meisten Menschen sich für Urne 1 entscheiden und dann dabei bleiben, scheint leicht erklärbar zu sein: Wir möchten gerne wissen, mit welchen Wahrscheinlichkeiten wir es zu tun haben, also wählen wir beide Male Urne 1, anstatt uns für die reine Ungewissheit von Urne 2 zu entscheiden.
Doch die vorherrschende Theorie zur Entscheidungsfindung unter Ungewissheit besagt, dass dies eine verwirrende, inkonsistente und irrationale Art sei, zu denken und sich zu entscheiden. Laut dieser vorherrschenden Auffassung – eines Ansatzes, dessen intellektuelle Ursprünge auf die Ökonomik zurückgehen, der aber heute in den Mainstream vielfältiger Anwendungsgebiete eingeflossen ist, von der Finanzwirtschaft bis hin zur Epidemiologie – sei die einzig rationale Art, sich angesichts von Ungewissheit zu entscheiden, in Begriffen von numerischen Wahrscheinlichkeiten zu denken.
In Situationen, in denen die Wahrscheinlichkeiten offensichtlich sind, scheint das unbestreitbar zu sein. Wenn ich eine Münze werfe, sollte ich wissen, dass ungefähr bei der Hälfte der Würfe »Kopf« kommen wird. Doch die vorherrschende Auffassung ist, dass wir immer in Wahrscheinlichkeiten denken sollten, selbst wenn wir absolut nicht wissen können, wie sie aussehen. Wenn wir die Wahrscheinlichkeiten nicht kennen, sollten wir sie uns einfach ausdenken. Und wenn Menschen rational sind, können wir die Wahrscheinlichkeiten, die sie sich ausgedacht haben, durch Beobachten ihrer Entscheidungen ableiten. Falls Sie sich in Ellsberg s Experiment am Anfang für Urne 1 entscheiden, muss das laut der orthodoxen Auffassung bedeuten, dass Sie glauben, Urne 1 würde mehr rote Kugeln enthalten als Urne 2 – was wiederum bedeutet, dass Sie glauben, die Wahrscheinlichkeit sei höher, eine rote Kugel zu ziehen. Daraus folgt, dass Sie glauben, Urne 1 enthalte weniger schwarze Kugeln als Urne 2, und wenn dann der Gewinn auf Schwarz geändert wird, sollten Sie auch Ihre Entscheidung ändern und Urne 2 wählen. Die Ökonomen fanden die Erkenntnis, dass kaum jemand so denkt, so rätselhaft, dass sie Ellsberg s Experiment das Ellsber g-Paradoxon nannten. Wie wir bald sehen werden, hat dieses Experiment revolutionäre Implikationen für das Denken über Ungewissheit, und die Welt wäre nicht dieselbe, wenn die Leute bei Goldman Sachs – und die Finanztheorie, auf die sie sich berufen – diese Implikationen ernst genommen hätten.
Daniel Ellsber g war ein unerwarteter Initiator einer so fundamentalen Kritik an der intellektuellen Orthodoxie: Man würde erwarten, dass ein RAND -Analyst das mathematische Berechnen von Ungewissheiten verteidigt, anstatt es infrage zu stellen. Ellsberg s Wunderkind-Bildung und seine frühe Karriere machten ihn zu einem natürlichen Kandidaten für eine Position bei der RAND Corporation. Er hatte seinen Abschluss in Wirtschaftswissenschaften an der Harvard University mit den höchsten Auszeichnungen gemacht, promovierte dann und diente eine Zeit lang als Oberleutnant der US Navy; danach teilte er seine Zeit auf zwischen RAND und Harvard. Im Jahr 1964 trat er einen Posten auf den obersten Ebenen des Pentagons an. Man könnte denken, dass dieser beruhigend elitäre Lebenslauf die traditionell vorsichtigen und konservativen Wirtschaftstheoretiker der RAND Corporation und der Harvard University dazu ermutigt hätte, sich die radikalen Implikationen des Ellsber g-Paradoxons zu eigen zu machen.
Doch dann kam es ganz anders. Soweit es sein Ansehen im US -Establishment betraf, lief Ellsberg s Karriere fürchterlich aus dem Ruder. Er wurde zum persönlichen Angriffsziel der berüchtigten »White House Plumbers«, der Assistenten von Präsident Nixo n, die später die Watergate-Einbrüche begehen würden. Außenminister Henry Kissinge r bezeichnete Ellsber g öffentlich als »the Most Dangerous Man in America«, den »gefährlichsten Mann Amerikas«. 17 Und so ist es vielleicht kein großes Wunder, dass das Ellsber g-Paradoxon eine Generation lang weitgehend ignoriert wurde.
Wahrscheinlichkeit wird subjektiv
Wahrscheinlichkeit ist keine neue Idee. Die Vorstellung, dass wir Menschen der Zukunft nicht passiv entgegensehen müssen, sondern unser Schicksal selbst in die Hand nehmen können, wurde einstmals als Selbstbehauptung gegen die Götter gesehen, gegen die unergründliche Natur. Es ist kein Zufall, dass moderne Konzepte über Wahrscheinlichkeiten sich in der westlichen Gesellschaft gegen Ende des 18. Jahrhunderts endgültig durchsetzten, also zu einer Zeit, als der eiserne Griff der Kirche sich durch den Triumph der Aufklärung zu lockern begann. Probabilistisches Denken stand für den zuversichtlichen Glauben, die stoische Unterwerfung unter Ungewissheiten durch Fortschritt hinter sich lassen zu können. Wie so vieles andere endete auch diese Zuversicht 1914.
Die Folgen des tödlichen Attentats auf Erzherzog Franz Ferdinan d am 28. Juni jenes Jahres waren nicht sofort absehbar. Die Finanzmärkte brauchten einen Monat, um dessen Auswirkungen zu erkennen, und die daraufhin entstehende Panik führte dazu, dass die Börsen in London und in New York am 31. Juli geschlossen wurden. Zu diesem Zeitpunkt hatten bereits mehrere europäische Länder sich gegenseitig den Krieg erklärt. Zwei Tage später sagte der Gouverneur der Bank of England, der vor der Küste Schottlands auf einer Segeljacht Urlaub machte, seinen Freunden, dass es »Gerede von Krieg« gebe, »aber es wird nicht so weit kommen«. [3] Zwei Tage danach erklärte Großbritannien Deutschland den Krieg.
Es kommt immer wieder zu unerwarteten Ereignissen. Mit Ausbruch des Ersten Weltkriegs war die Ungewissheit zurück und machte sich sehr deutlich bemerkbar. In den Nachwirren des Krieges, vier von Gemetzel und Kriegsgräueln angefüllte Jahre später, als der Zeitgeist von Beklommenheit und Ungewissheiten über die Zukunft erfüllt war, meldeten zwei Ökonomen Vorbehalte gegen das orthodoxe probabilistische Denken an. Frank Knigh t, ein Ökonom und Vordenker der Chicagoer Schule, machte eine kritische Unterscheidung zwischen dem, was er »berechenbare« und »unberechenbare« Ungewissheit nannte. Berechenbare Ungewissheit, so Knigh t, tritt bei Glücksspielen und generell in allen Situationen auf, in denen die Wahrscheinlichkeit von Ereignissen aus deren relativer Häufigkeit berechnet werden kann. Unberechenbare Ungewissheiten sind dagegen alles andere: von reiner Ungewissheit geprägte Situationen, bei denen keinerlei Informationen über relative Häufigkeiten zur Verfügung stehen. In Großbritannien machte John Maynard Keyne s eine ähnliche Unterscheidung wie Knigh t, die allerdings in eine eigenwillige und umstrittene Wahrscheinlichkeitstheorie eingebettet war, die allem Anschein nach Keynes ’ Argumentation mehr oder weniger unverständlich machte. Weder Knigh t noch Keyne s kann eindeutig zugeschrieben werden, diese Unterscheidung als Erster gemacht zu haben: Beide publizierten ihre Arbeit 1921, und davon abgesehen war diese Unterscheidung schon lange vorher bekannt gewesen, zum Beispiel implizit in dem Unterschied zwischen den Bedeutungen der französischen Wörter hasard und fortuit . 18 Aber sowohl Knigh t als auch Keyne s erinnerten Ökonomen und andere an Entscheidungstheorie interessierte Denker an die grundsätzliche Grenze des probabilistischen Denkens: In manchen Situationen haben wir keine Informationen über Wahrscheinlichkeiten, sodass die Ungewissheit unkalkulierbar ist.
Doch nur wenige Jahre später schien die Unterscheidung zwischen kalkulierbarer und unkalkulierbarer Ungewissheit überflüssig gemacht zu werden, durch eine Arbeit mit dem Titel »Truth and Probability« (»Wahrheit und Wahrscheinlichkeit«) eines Wunderkindes namens Frank P. Ramse y.
Der archetypische »Renaissancemensch« Leonardo da Vinc i war nicht nur ein Genie, sondern auch ein Universalgelehrter mit Begabungen in diversen Wissensgebieten. Doch seit seiner Zeit wurde es durch die fortschreitende Kumulation von menschlichem Wissen unvermeidlich, sich zu spezialisieren. Der Renaissancemensch mag inzwischen ausgestorben sein, aber man könnte sagen, dass Ramse y einer der letzten Vertreter dieser Spezies war. Er verkehrte unter Genies: Seine wichtigsten intellektuellen Schriftwechsel führte er mit John Maynard Keyne s und Ludwig Wittgenstei n. Beide haben von Ramse y gelernt, der tiefgründige und originäre Beiträge zur Philosophie, Ökonomik und Mathematik leistete (ein Zweig der Mathematik ist heute als Ramse y-Theorie bekannt). Etwa zur Philosophie: Als Wittgenstei n glaubte, er habe mit seinem Werk Tractatus logico-philosophicus die wichtigsten Probleme der Philosophie gelöst, zog er sich aus dieser Disziplin zurück, um in einem kleinen Dorf außerhalb Wiens Grundschullehrer zu werden. Es war Ramse y, der Wittgenstei n davon überzeugte, dass er mit seiner Abhandlung keineswegs alle offenen Fragen beantwortet hätte. Daraufhin kehrte Wittgenstei n nach England an die University of Cambridge zurück, um dort mit Ramse y zu arbeiten (was er selbst einer Zusammenarbeit mit Bertrand Russel l, dem größten damals in Cambridge lehrenden Philosophen, vorzog). Ramse y hatte Wittgenstei n überhaupt erst kennengelernt, weil er die erste Übersetzung des Tractatus in die englische Sprache angefertigt hatte, eines Buches, das etliche führende Philosophen als unübersetzbar bezeichnet hatten, wegen Wittgenstein s schwer verständlichem und verdichtetem Deutsch. Ramsey diktierte seine Übersetzung ganz einfach im Schreibbüro der University of Cambridge einem Stenografen in die Feder. Damals war Ramsey 18 Jahre alt.
Einige Monate darauf begann Ramse y, über Wahrscheinlichkeit und Ungewissheit nachzudenken. Als Erstes verfasste er eine Kritik der Wahrscheinlichkeitstheorie von Keyne s. Zehn Jahre lang hatte Keyne s seine umstrittene Theorie hartnäckig verteidigt, bis er 1931 Ramsey s Arbeit »Truth and Probability« las. Erst dann änderte Keyne s seine Meinung: »Ich gebe mich Ramse y geschlagen – ich glaube, er hat recht.« Doch in gewisser Hinsicht war es dafür schon zu spät. Ramsey s intellektueller Triumph ging in einer weit größeren Tragödie unter: Im Januar 1930 starb er unerwartet an den Folgen von Komplikationen nach einer Routineoperation. Er wurde nur 26 Jahre alt.
In »Truth and Probability« führte Ramse y die Wahrscheinlichkeitstheorie in eine ganz neue Richtung. Anstatt Wahrscheinlichkeiten nachträglich zu definieren, aufgrund beobachteter Häufigkeiten (beim Werfen einer Münze kommt ungefähr bei der Hälfte der Würfe »Kopf« heraus), betrachtete Ramse y Wahrscheinlichkeit im Voraus, als quantitatives Maß für die innere Gewissheit einer Person, dass ein zukünftiges Ereignis eintreten werde. Wenn ich glaube, dass ein Ereignis mit hundertprozentiger Sicherheit eintreten wird, ist das gleichbedeutend mit der Aussage, dass für mich die Wahrscheinlichkeit dieses Ereignisses eins beträgt; wenn ich glaube, dass es ganz sicher nicht eintreten wird, ist für mich seine Eintrittswahrscheinlichkeit gleich null. Und das gilt entsprechend auch für alle Wahrscheinlichkeiten zwischen diesen beiden Extremen: Wenn ich zum Beispiel glaube, dass ein Ereignis mit gleicher Wahrscheinlichkeit eintreten oder nicht eintreten wird, ist seine Eintrittswahrscheinlichkeit für mich 1 zu 2, also 0,5. Ramse y erklärt, wie solche »Überzeugungen als Wahrscheinlichkeiten« (»subjektive Wahrscheinlichkeiten«) im Prinzip berechnet werden können – und zwar im Wesentlichen, indem man die ungünstigsten Chancen ermittelt, die eine Person bei einer Wette über das Eintreten des ungewissen künftigen Ereignisses zu akzeptieren bereit wäre. Falls Ramsey s Ansatz funktioniert, wird das Konzept von Wahrscheinlichkeit plötzlich viel breiter: Sein Anwendungsgebiet wird dramatisch erweitert. Wahrscheinlichkeiten, die auf beobachteten Häufigkeiten basieren, sind nur dann kalkulierbar, wenn es Daten über häufig beobachtete Ereignisse gibt. Dagegen sind subjektive Wahrscheinlichkeiten von dieser Einschränkung befreit und können im Prinzip immer eingesetzt werden, um Knight s »unberechenbare«, reine Ungewissheit zu quantifizieren – auch für einmalige, nicht wiederholbare Ereignisse. Aber Ramsey s Ansatz setzt voraus, dass die betreffende Person in Bezug auf ihre subjektiven Wahrscheinlichkeiten vollkommen konsistent sein wird – und auf genau diese Konsistenz ist kein Verlass, wie Ellsber g gezeigt hat. Ellsberg s Experiment hat Folgendes demonstriert: Wenn wir von Menschen getroffene Entscheidungen so deuten, dass sie die subjektiven Wahrscheinlichkeiten der betreffenden Person reflektieren, können diese subjektiven Wahrscheinlichkeiten inkonsistent sein.
Doch Ellsberg s Arbeit sollte erst Jahrzehnte später stattfinden. Bis es so weit war, eröffneten Ramsey s revolutionäre Ideen die offensichtliche und unwiderstehliche Aussicht, eine Wissenschaft der Gesellschaft zu entwickeln, und sie hatten den womöglich einflussreichsten Ökonomen der damaligen Zeit überzeugt: John Maynard Keyne s. Aber es passierte nichts. Ramsey s Konzepte über Wahrscheinlichkeit wurden 50 Jahre lang beinahe völlig ignoriert. Aber warum?
Zunächst einmal erschienen Ramsey s Ideen als ein posthumer Beitrag zur Philosophie der Überzeugungen. Sie wurden von Ökonomen und anderen, die an praktischen Anwendungen einer Wissenschaft der Gesellschaft interessiert waren, nicht gelesen, und Ramse y war nicht mehr da, um sie weiter verbreiten zu können. Und Ramse y war seiner Zeit wirklich meilenweit voraus: Die existierenden Theorien und Denker konnten mit seinen Ideen zur Mathematik, Ökonomik und Philosophie erst in den 1960er-Jahren etwas anfangen und sie weiterentwickeln. In den 1920er-Jahren erkannte niemand die wahre Originalität und Bedeutung seiner Arbeit: Sie war zu neuartig, zu schwierig mit bereits vorhandenen Ideen zu verbinden. Auch Ramsey s Art, seine Arbeit zu präsentieren, war nicht gerade hilfreich: Er verwendete für seine mathematischen Ausführungen eine ungewöhnliche Notation, die auf Bertrand Russel l zurückging; seine mathematischen Beweise waren knapp, beinahe kryptisch, und die Schlichtheit seiner philosophischen Schriften ließ seine Ideen beinahe als leichtgewichtig und schnodderig erscheinen, nicht als tiefgründig und komplex. Wittgenstein s Ruf wurde untermauert – vor allem bei Leuten, die keine Ahnung hatten, wovon er redete – durch Formulierungen wie dem bedeutungsschweren letzten Satz des Tractatus : »Wovon man nicht sprechen kann, darüber muss man schweigen.« Vergleichen Sie das einmal mit Ramsey s Version: »Was wir nicht sagen können, können wir nicht sagen, und pfeifen können wir es auch nicht.« [4]
Was die Handvoll Leute in Cambridge angeht, die sich ernsthaft mit Ramsey s Konzepten zur Wahrscheinlichkeitstheorie beschäftigt hatten: Ihre Aufmerksamkeit wurde abgelenkt durch Keyne s und Wittgenstei n, die damals beide in Cambridge waren. Und Keynes ’ Ansichten über Wahrscheinlichkeit hatten sich weiterentwickelt. Die Vorzüge, die er zunächst in Ramsey s Ideen gesehen hatte, wurden spätestens seit Mitte der 1930er-Jahre überschattet von seine r Erkenntnis, dass reine, unkalkulierbare Ungewissheiten in der Praxis allgegenwärtig sind:
Mit dem Begriff »ungewisses Wissen«, lassen Sie es mich erklären, will ich nicht nur unterscheiden zwischen dem, was mit Sicherheit bekannt ist, und dem, was lediglich wahrscheinlich ist. In diesem Sinne ist an einem Roulettespiel nichts Ungewisses. … Die Bedeutung, in der ich den Begriff verwende, ist die, nach der die Aussicht auf einen Krieg in Europa ungewiss ist, oder der Preis von Kupfer und der Zinssatz in 20 Jahren, oder das Veralten einer neuen Erfindung. … Für solche Fragen gibt es keine wissenschaftliche Grundlage, auf der man zu einer kalkulierbaren Wahrscheinlichkeit kommen könnte. Wir wissen es einfach nicht. [5]
Diese Worte schrieb Keyne s 1937, als Erwiderung auf Kritik an seinem Buch Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes , das fraglos eine der wichtigsten Entwicklungen der Wirtschaftswissenschaften im 20. Jahrhundert darstellt. Mit diesem Werk hat Keyne s letztlich die moderne Volkswirtschaft erfunden – es ist wahrscheinlich der wichtigste Beitrag zur Ökonomik, seit Adam Smith s The Wealth of Nations (deutsche Ausgabe: Der Wohlstand der Nationen ) erschienen war, über 150 Jahre zuvor. Und so ist es kein Wunder, dass Keyne s’ ausdrückliche Betonung der großen Bedeutung wirtschaftlicher und politischer Ungewissheit enorm einflussreich war.
Aber nicht einflussreich genug: Die keynesianisch e Sicht von Ungewissheit ist nicht die heute vorherrschende Orthodoxie. Vielmehr haben der Zweite Weltkrieg und seine Nachwehen einen neuerlichen Optimismus hinsichtlich einer Wissenschaft der Gesellschaft genährt. (Ironischerweise mag sogar die keynesianisch e Wirtschaftslehre diesen Optimismus beflügelt haben, mit ihrem Glauben an die Fähigkeit, die nationale Wirtschaftsleistung eines Landes berechnen und managen zu können.) Freilich war, wie wir in Kapitel 2 gesehen haben, John von Neumann s und Oskar Morgenstern s Version einer Wissenschaft der Gesellschaft etwas völlig anderes als die keynesianisch e Ökonomik: Sie hielten Keyne s für einen »Scharlatan« und meinten, die Ökonomik müsse von Grund auf neu aufgebaut werden, auf den rigorosen mathematischen Grundlagen der Spieltheorie. Ungewissheit müsse in präzise Zahlen gefasst werden; von Neumann und Morgenster n hatten keine Zeit für keynesianisch e Launen wie »Wir wissen es einfach nicht«.
Buchstäblich als nachträglichen Einfall verfassten von Neuman n und Morgenster n einen Anhang für die zweite Auflage ihrer Theory of Games and Economic Behavior (deutsche Ausgabe: Spieltheorie und wirtschaftliches Verhalten ), in dem sie eine mathematische Entscheidungstheorie beschrieben. Sie basierte vollständig auf Ideen, die von Neuman n auf der Rückseite eines Briefumschlags notiert hatte. Von Neumann s und Morgenstern s Theorie geht schlicht davon aus, dass der Entscheider die Wahrscheinlichkeit eines jeden relevanten zukünftigen Ereignisses kennt. Die Arbeit, die Ramse y über 20 Jahre zuvor gemacht hatte, kannten sie nicht. Es sollte bis 1951 dauern, bis Ramsey s bahnbrechende Ideen in den USA in schriftlicher Form anerkannt wurden – und zwar von Kenneth Arro w, der ein Genie erkannte, wenn er es sah. Gleichwohl sollte der nächste wichtige Beitrag nicht von Arro w kommen, sondern von dem Mathematiker Leonard »Jimmie« Savag e. 19
Milton Friedma n hat Savag e beschrieben als »einen der wenigen Menschen, die ich kennengelernt habe, die ich ohne Zögern als Genie bezeichnen würde«. [6] Und doch war Savag e nur durch Zufall Mathematiker geworden: Kurz nachdem er begonnen hatte, an der University of Michigan Chemie-Verfahrenstechnik zu studieren, verursachte er ein Feuer im Chemielabor, weil er extrem schlecht sehen konnte. Daraufhin wurde er der Universität verwiesen. Doch dann gestattete man ihm, zurückzukommen und Mathematik zu studieren, wofür er nicht im Labor arbeiten musste. Kurz nachdem Savag e seinen Doktorgrad abgeschlossen hatte, fiel seine mathematische Begabung John von Neuman n an der Princeton University auf, der Savag e ermutigte, Wahrscheinlichkeit und Statistik zu studieren. Im Jahr 1954 erweiterte Savag e von Neumann s Entscheidungstheorie um das Konzept der subjektiven Wahrscheinlichkeit. Savag e betonte, dass seine Kernideen im Wesentlichen denen von Ramse y entsprachen, und er wies darauf hin, dass Ramsey s Arbeit bislang wenig Einfluss entfaltet hatte. Doch inzwischen war die Zeit dafür reif: John von Neumann s und Morgenstern s neue Entscheidungstheorie war für Ökonomen und andere Möchtegern-Gesellschaftswissenschaftler unwiderstehlich, weil sie schnell erkannt hatten, dass es für diese Theorie endlose Anwendungen gab, da die ungewisse Zukunft stets mithilfe von subjektiven Wahrscheinlichkeiten quantifiziert werden kann.
Der Computer sagt, das kann nicht einfach so passiert sein
Außerhalb der akademischen Welt war eine der wichtigsten Wirkungen der neuen Entscheidungstheorie – der neuen Orthodoxie nach der Arbeit von Savag e –, dass sie bei zahlengläubigen Menschen den Glauben nährte, man könne die ungewisse Zukunft »managen«, indem man die Wahrscheinlichkeiten zukünftiger Ereignisse erfindet. Da die neue Orthodoxie von Savag e implizierte, dass subjektive Wahrscheinlichkeiten ebenso valide und legitim seien wie objektive Wahrscheinlichkeiten, die aus beobachteten Häufigkeiten berechnet werden, verwischte sie die Grenze zwischen Glaube und Fakt. Sie ersetzte Keyne s’ »Wir wissen es einfach nicht« durch beruhigend wirkende numerische Wahrscheinlichkeiten, einen Anschein von wissenschaftlicher Erkenntnis. Dieser Drang zur versicherungsmathematischen Alchemie, mit der das Unberechenbare im Berechenbaren aufgelöst wird, ist am stärksten, wenn alles andere infrage Stehende objektiv und quantitativ erfassbar ist, sodass Ungewissheit die einzige noch verbleibende Hürde auf dem Weg zu einem vermeintlich völlig rationalen mathematischen Entscheidungsprozess ist. Und der Drang zur versicherungsmathematischen Alchemie ist sogar noch stärker, wenn manche Menschen bereit sind, dafür eine Menge Geld auszugeben. Dieser Drang findet seinen Höhepunkt am Aktienmarkt.
Allerdings bleibt noch das Problem, die Wahrscheinlichkeiten zu finden. Am Aktienmarkt sind Statistiken über vergangene Performance der offensichtliche Ausgangspunkt. Es ist klar, dass Aktienkurse nicht konstant bleiben oder einer einfachen Trendlinie folgen. Der nächste Schritt ist also dann, die Entwicklung der Kurse mathematisch zu beschreiben – wie diese Entwicklung statistisch verteilt ist. Und der überaus praktische letzte Schritt ist dann die Annahme, dass die Zukunft der Vergangenheit ähneln wird. Wenn wir annehmen, dass die statistische Verteilung früherer Kurse sich in der Zukunft fortsetzen wird, können wir die Wahrscheinlichkeiten verschiedener zukünftiger Entwicklungen der Aktienkurse berechnen und daraus wiederum die beste Allokation für ein Aktienportfolio.
Vielleicht ahnen Sie schon, dass das in der Praxis nicht ganz so glatt funktioniert.
Neben den offensichtlichen Problemen – wie etwa der Annahme, dass die Zukunft der Vergangenheit ähneln wird –, gibt es dabei noch einige technische Schwierigkeiten, mit denen man sich beschäftigen sollte, da ihre Folgen weit gravierender als nur technischer Art sind. Bestimmte Fehler im konventionellen Denken über Ungewissheit führen direkt zu der Schlussfolgerung, dass es mit extrem geringer Wahrscheinlichkeit zu Katastrophen kommt. Zu den Katastrophen, die aufgrund dieser Fehler fahrlässig ignoriert werden, zählen solche an den Finanzmärkten und in Bezug auf das globale Klima.
Das konventionelle Denken über Ungewissheit basiert auf der Annahme, dass ungewisse Phänomene einem vertrauten Muster folgen, das in der Natur häufig zu finden ist, nämlich einer Normalverteilung. (Diese Verteilung ist so natürlich und vertraut, dass Statistiker sie aus genau diesem Grunde als Normal verteilung bezeichnen.) So folgt zum Beispiel die Körpergröße von Menschen einer Normalverteilung. Es gibt eine typische – oder durchschnittliche – Körpergröße, und die Anzahl der Menschen mit anderen Größen nimmt ab, je weiter wir uns von diesem Durchschnittswert entfernen. Wenn wir diese Beobachtungen als Kurve auftragen, mit der Körpergröße entlang der horizontalen Achse und der entsprechenden Anzahl Menschen entlang der vertikalen Achse, ergibt sich eine Kurve durch die Datenpunkte, die einer Glocke gleicht – im Englischen wird eine solche Verteilung daher als »bell curve« bezeichnet. Es ist ja nicht nur so, dass ungewöhnlich große oder kleine Menschen selten vorkommen, sondern sehr selten, während extrem große oder kleine Menschen extrem selten sind. Die Wahrscheinlichkeit, einem Menschen einer bestimmten Körpergröße zu begegnen, sinkt immer schneller, je weiter wir uns von der Durchschnittsgröße entfernern. Abhängig davon, welche Annahmen wir über die heutige Weltbevölkerung treffen, ist ein Mensch im Durchschnitt etwa 1,67 Meter groß. Die Wahrscheinlichkeit, 10 Zentimeter größer als der Durchschnitt zu sein (also 1,77 Meter), liegt bei etwa 1 zu 6,3. Die Wahrscheinlichkeit, 20 Zentimeter größer zu sein (1,87 Meter), beträgt etwa 1 zu 44. Die Wahrscheinlichkeit hat deutlich abgenommen, aber um einen Faktor von kleiner als 7, bei einer um 10 Zentimeter höheren Körpergröße. Wenn wir allerdings ein anderes 10-Zentimeter-Intervall der Körpergröße betrachten, nämlich die Zunahme von 2,17 auf 2,27 Meter, fällt entsprechend die Wahrscheinlichkeit von 1 zu 3,5 Millionen auf 1 zu 1000 Millionen – das ist ein Rückgang der Wahrscheinlichkeit um das 286-Fache. [7] An den beiden Enden der Normalverteilungskurve nimmt die Wahrscheinlichkeit von »unglaublich selten« auf »praktisch nie« ab. Was uns zu den 25-​Standardabweichungen-Ereignissen zurückbringt, von denen der Goldman-Sachs-CFO im August 2007 sprach.
Die Bankanalysten und ihre Computermodelle gingen davon aus, dass die Kursentwicklung an den Finanzmärkten einer Normalverteilung folgt. Eine Standardabweichung ist die Entfernung vom Durchschnitt, von der Mitte der Normalverteilungskurve; Ereignisse mit 25 Standardabweichungen sind sehr weit von dieser Mitte entfernt und sollten daher eigentlich in der Geschichte des Universums seltener als einmal auftreten. Ereignisse mit extremen Folgen, die völlig unerwartet auftreten (obwohl sie im Rückblick durchaus vorsehbar aussehen können), sind von Nassim Nicholas Tale b als Schwarze Schwäne bezeichnet worden. Tale b ist ein Mathematiker und ehemaliger Hedgefondsmanager mit libanesischen Wurzeln. Das auf der Normalverteilung beruhende Denken geht im Wesentlichen davon aus, dass die Möglichkeit von Schwarzen Schwänen ignoriert werden kann, da sie nie auftreten werden.
Die Leute von Goldman Sachs waren nicht die einzigen, die in Normalverteilungen dachten. Diese Orthodoxie dominiert die Finanzbranche und ist wiederholt von Aufsichtsbehörden als Grundlage für die Einschätzung von Risiken genehmigt worden. Die globale Finanzkrise, die 2007 ihren Anfang nahm, hat Banken und ihre Aufsichtsbehörden keineswegs dazu veranlasst, ihr Normalverteilungsdenken aufzugeben, obwohl die Ereignisse dieser Zeit schwerlich als noch nie da gewesene »Ausreißer« abgetan werden können. Zwei Jahrzehnte zuvor, am 19. Oktober 1987 – einem Tag, der als »Black Monday« in die Finanzgeschichte einging –, war der Aktienmarkt um beinahe 30 Prozent abgestürzt. Bei einer Normalverteilung der Risiken würde die Wahrscheinlichkeit eines solchen Crashs bei etwa 1 zu 10 46 liegen (einer 10 mit 45 Nullen). Das Gleiche gilt für die Kursstürze während der Krise an den ostasiatischen Finanzmärkten im Jahr 1997 und die Dotcom-Blase. Ereignisse, zu denen es laut Finanztheorie nie kommen wird, passieren immer wieder. Warum verlassen wir uns also nach wie vor auf diese Theorie?
Die Vorstellung, dass wir, obwohl wir irgendeine Zahl noch nicht kennen, ihren durchschnittlichen oder typischen Wert schätzen können, ist ebenso verlockend wie beruhigend. Und sicherlich sind außergewöhnlich niedrige oder hohe Zahlen sehr unwahrscheinlich, da sie eine Serie von außergewöhnlichen Gründen oder Ursachen erfordern würden, um herbeigeführt zu werden. Diese Logik – der »gesunde Menschenverstand« – stützt das Normalverteilungsdenken. Es gibt zweierlei Situationen, in denen sie gut funktioniert. Erstens in der Natur, wenn immanente oder systemische Einschränkungen – etwa die Schwerkraft – große Extreme praktisch unmöglich machen. Es gibt grundlegende Merkmale des menschlichen Körperbaus, die erklären, warum noch nie ein Mensch drei Meter groß oder 150 Jahre alt geworden ist. Das ist nicht nur Zufall. Solche natürlichen Grenzen sind überall in der Natur zu beobachten. Und im größten Teil unserer evolutionären Geschichte hatten wir es mit Risiken zu tun, die ihren Ursprung in der natürlichen Welt hatten, nicht in einer menschlichen Gesellschaft, sodass der Mensch sich im Laufe seiner Entwicklung das vereinfachte Normalverteilungsdenken zu eigen gemacht haben mag, weil es sich als eine im Allgemeinen zuverlässige Überlebensstrategie in einer natürlichen Umgebung erwiesen hat.
Eine weitere korrekte Anwendung von Normalverteilungsdenken ist, wenn echte Zufallsereignisse wiederholt auftreten. In der wirklichen Welt kommt das nur bei Glücksspielen vor. Wenn eine Münze viele Male neutral geworfen wird, ist das wahrscheinlichste Ergebnis, dass Kopf und Zahl gleich häufig kommen. Etwas weniger wahrscheinlich ist, dass Kopf einmal häufiger vorkommt als Zahl, und umgekehrt. Noch etwas weniger wahrscheinlich ist Kopf zweimal häufiger als Zahl und so weiter. Der im 18. Jahrhundert lebende französische Mathematiker Abraham de Moivr e hat als Erster erkannt, dass solche wiederholten Zufallsereignisse eine Normalverteilung generieren. 20
Die Probleme fangen an, wenn wir solche Konzepte auf die falschen Situationen übertragen. Auch hier spielte Jimmie Savag e eine Schlüsselrolle. Er hatte die Arbeit von Louis Bachelie r wiederentdeckt, einem obskuren französischen Mathematiker, der im Jahr 1900 eine »Theorie der Spekulation« veröffentlicht hatte, der zufolge die Kurse an den Finanzmärkten völlig zufällig schwanken. Savag e war der Erste, der Bachelier s Theorie ins Englische übersetzte. Bachelier s Ideen fanden breitere Beachtung, als in den 1960er-Jahren die »Markteffizienzhypothese« aufkam. Nach dieser Hypothese (die auch heute noch eine Hypothese ist, da es nach wie vor keine überzeugenden Belege für ihre Richtigkeit gibt) reflektiert zu jedem beliebigen Zeitpunkt der Kurs einer Aktie alle für deren Kurs relevanten Informationen. Das beruht auf der Annahme, dass Märkte völlig frei seien und die an ihnen agierenden Käufer und Verkäufer hyperrational und allwissend. Wenn alle relevanten Informationen bereits eingepreist sind, müssen kurzfristige Schwankungen der Aktienkurse zufällig sein und die vielen individuellen und voneinander unabhängigen Kauf- und Verkaufsaktionen reflektieren – ganz ähnlich wie wiederholte Münzwürfe. Angesichts dieser Illusion über die Kurse an Finanzmärkten ist die Normalverteilungskurve das offensichtliche Werkzeug, um die Ungewissheiten zu beschreiben – ganz so, wie sie auch die Ergebnisse von tatsächlichen Münzwürfen beschreiben kann. Als 1999 die US -Banken dereguliert wurden (mit der Aufhebung des Glass-Steagall Act, der während der Weltwirtschaftskrise verabschiedet worden war, um zu verhindern, dass Banken mit Spareinlagen ihrer Kunden auf eigene Rechnung spekulierten), geschah das ausdrücklich unter Berufung auf die Markteffizienzhypothese. Man verließ sich so felsenfest darauf, dass die Computermodelle die »Ungewissheiten managen« würden, dass ihnen die automatisierte Kontrolle über den Handel mit Aktien übertragen wurde. Jegliches menschliche Eingreifen wurde möglichst weitgehend eliminiert, um Fehler auszuschließen.
Ein einfacher Grund, warum wir nach wie vor an solchen Vorstellungen festhalten, ist die Aussicht auf die Alternative. Eine auf Normalverteilungen basierende Analyse lässt sich mit relativ einfachen mathematischen Verfahren durchführen, und das Risiko von extremen Ereignissen kann letztlich mit einer einzigen Zahl ausgedrückt werden – der Standardabweichung, die beschreibt, ob die Glocke der Normalverteilungskurve hoch und schmal oder flach und breit ist. Die Alternative macht höllisch komplizierte mathematische Verfahren notwendig, die kaum bessere Ergebnisse liefern: Selbst mit solchen komplizierten Verfahren kann das Risiko eines Schwarzen Schwans nicht mit einer einzigen Zahl ausgedrückt werden. De facto gibt es logische Grenzen, inwieweit solche Risiken überhaupt berechnet werden können.
»Es ist wie ein gewaltiges Erdbeben«
Das sagte Kirsty McCluske y, eine Börsenhändlerin der großen Investmentbank Lehman Brothers, an dem Tag, als die Bank pleiteging. [8] Und dieser Vergleich ist durchaus angebracht, da sowohl das Risiko eines Erdbebens als auch der Finanzkrise, die Lehman Brothers in den Abgrund riss, sich mit den gleichen mathematischen Verfahren beschreiben lässt. Das Ergebnis sind nicht die »Wird nie passieren«-Ereignisse am Ende einer Normalverteilungskurve, sondern eine »exponentielle« oder »fraktale« Häufigkeitsverteilung von Ereignissen. Keine Sorge: Obwohl ein großer Teil der zugrunde liegenden Mathematik einen Doktorgrad erfordert, sind die fundamentalen Konzepte relativ einfach zu verstehen. In manchen Teilen der Welt ist die Erdbebenaktivität beinahe konstant, aber auf einem sehr niedrigen Niveau, für Menschen kaum wahrnehmbar. Dann kommt es hin und wieder zu einem großen Erdbeben, das sehr viel stärker ist als diese Hintergrundaktivität. Dann sprechen wir nicht von einem »normalen« oder »durchschnittlichen« Erdbeben, weil es völlig sinnlos wäre – geradezu albern –, die Stärke solcher seltenen Erdbeben zu der Vielzahl an Hintergrundaktivitäten zu addieren, um die durchschnittliche Intensität eines Erbebens zu berechnen. Was die meisten von uns ein »Erdbeben« nennen, kommt zu selten vor, als dass seine durchschnittliche Stärke eine nützliche Zahl sein könnte. Die Schlussfolgerung, dass es keine »normale« oder »natürliche« Größe für bestimmte ungewisse Phänomene wie Erdbeben gibt, ist tiefgründiger, als es auf den ersten Blick erscheinen mag.
Was ist die natürliche Größe einer Schneeflocke? Ihre instinktive Reaktion, dies sei eine alberne Frage, ist richtig. Wenn es eine Antwort gäbe, wäre sie sicherlich in den physischen Eigenschaften einer Schneeflocke zu erkennen. Aber wenn wir uns Schneeflocken durch eine Lupe genau ansehen, erkennen wir eine andere Art von Eigenschaft. Schneeflocken werden von Physikern als »skaleninvariant« oder »skalenunabhängig« bezeichnet, da ihre Kristallstruktur sich immer gleicht, ganz gleich, wie sehr wir sie vergrößern. Schneeflocken sind ein Beispiel für ein Phänomen, das der Mathematiker Benoît Mandelbro t »Fraktale« genannt hat – das sind Strukturen ohne natürliche oder normale Größe, die in unterschiedlichen Größenordnungen wiederkehren. (Ein weiteres Beispiel sind Bäume: Das Muster von Ästen und Zweigen gleicht dem Muster der Blätter an einem Zweig und auch dem Muster der winzigen Haargefäße in einem Blatt.) Mandelbro t fiel auf, dass auch die Kursentwicklungen an den Finanzmärkten diese Eigenschaft haben: Eine Kurve der Entwicklung von Börsenkursen über einen Zeitraum, etwa ein Aktien- oder Marktindex, wird immer ähnlich aussehen, ganz unabhängig davon, ob der betrachtete Zeitraum ein paar Sekunden, mehrere Jahrzehnte oder irgendetwas dazwischen ist. Das gilt auch für grafische Darstellungen von Erdbebenaktivitäten.
Skaleninvarianz entsteht, wenn es keine inhärenten systemischen Grenzen gibt, die extreme Ereignisse oder Veränderungen verhindern. Im Gegensatz zur Körpergröße, dem Gewicht oder der Lebenserwartung von Menschen und den meisten Tieren gibt es praktisch keine physischen Grenzen für die Stärke eines Erdbebens. Bei fraktalen Verteilungen gibt es lediglich eine grundlegende Beziehung, die beschreibt, inwieweit große Ereignisse oder Veränderungen weniger wahrscheinlich sind als kleine. Wenn die Stärke von Erdbeben sich verdoppelt, werden sie etwa viermal weniger wahrscheinlich. [9] Skalenunabhängigkeit bedeutet jedoch, dass diese Beziehung immer gilt: Sie verändert sich nicht mit der Stärke des Erdbebens. Im Gegensatz zu normalverteilten Phänomenen wie der menschlichen Körpergröße geht die Wahrscheinlichkeit mit einer konstanten Rate zurück: Sie nimmt nicht schneller ab, wenn wir extreme Ereignisse betrachten. Dieses technische Detail spielt eine entscheidende Rolle, da es impliziert, dass bei fraktalen Häufigkeitsverteilungen extreme Ereignisse realistische, wenn auch sehr unwahrscheinliche Möglichkeiten sind. Es sind keine Ereignisse, die »in der Geschichte des Universums nie passieren«, wie sie an den Extremen einer Normalverteilungskurve zu finden sind.
Zurück in der Welt der Finanzen lassen einschlägige Studien vermuten, dass folgende Beziehung existiert: Wenn das Ausmaß der Veränderung im Kurs eines Aktienindex sich verdoppelt, wird sie etwa um das Achtfache seltener. Doch dies ist keine besonders nützliche Erkenntnis; sie macht es ebenso wenig möglich, den Zeitpunkt eines Crashs am Aktienmarkt vorherzusagen, wie wir den Zeitpunkt eines Erdbebens vorhersagen können. Die Beziehung basiert auf Daten aus der Vergangenheit, und wir können nicht davon ausgehen, dass sie auch in Zukunft gelten wird. Und es gibt noch ein fundamentaleres Problem. Obwohl wir uns inzwischen vom Normalverteilungsdenken verabschiedet haben, versuchen wir immer noch, die Wahrscheinlichkeit von extrem gravierenden, extrem seltenen Ereignissen aufgrund von Daten aus der Vergangenheit einzuschätzen. Um jedoch die Häufigkeit von extrem selten auftretenden Ereignissen zu schätzen, brauchen wir eine extrem große Zahl an Beobachtungen. Im Fall der Aktienmärkte ist es über Jahrzehnte nur zu wenigen Abstürzen gekommen, was bedeutet, dass wir viel zu wenige Datenpunkte haben, um die Wahrscheinlichkeit künftiger Abstürze einigermaßen zuverlässig einschätzen zu können. Die Lektionen des Anwendens von mandelbrotsche r Mathematik auf die Aktienmärkte sind allesamt negativ: Die Wahrscheinlichkeit der Kursentwicklungen, die wir am dringendsten wissen wollen (nämlich der extremen), lässt sich nicht berechnen; und wir können das jahrzehntelange Ausbleiben eines Marktcrashs nicht als Beweis dafür werten, dass Normalverteilungsdenken letztlich doch funktioniert. Diese Lektionen sind wertvoll – aber nicht so wertvoll, dass Menschen eine Karriere damit machen wollen, sie Investoren zu erklären. Die auf Normalverteilungsdenken beruhenden Selbsttäuschungen des »Risikomanagements« haben sich als deutlich lukrativer erwiesen.
Laut den Behauptungen von Risikomanagern und ihrer Modelle im Vorfeld der Finanzkrise waren diverse undurchsichtige, auf dem Immobilienmarkt basierende Finanzprodukte sichere Geldanlagen: Die Modelle warfen aus, dass ein Rückgang der Immobilienpreise um mehr als 20 Prozent so unwahrscheinlich wäre, dass er nur »weniger als einmal in der Geschichte des Universums« passieren könne. Doch die Leute, die solche Produkte verkauften, mussten wissen, dass ein Rückgang der Immobilienpreise um 20 Prozent eine realistische Möglichkeit war – vielleicht unwahrscheinlich, aber keineswegs eine so niedrige Wahrscheinlichkeit, dass es »nie passieren« konnte. [10] Die offensichtliche Erklärung für ihre vorsätzliche Realitätsblindheit ist kaum zu bestreiten: Gier.
Gier wirkt auch noch auf andere, subtilere Arten. Manche Menschen werden Ihnen viel Geld zahlen, wenn Sie ihnen anbieten, die eingegangenen finanziellen Risiken zu berechnen und zu managen. Hoffentlich merken sie nicht, dass Sie dieses Kunststück nur vollbringen können, indem Sie »Risiko« umdefinieren. Diese Neudefinition von Risiko begann, als Harry Markowit z, ein Student an der University of Chicago, vor einem Termin mit seinem Professor warten musste, um mit ihm das Thema seiner Doktorarbeit zu besprechen. Neben ihm im Wartezimmer saß ein Aktienmakler, mit dem Markowit z ins Gespräch kam. [11] Diese zufällige Unterhaltung führte dazu, dass Markowit z 1952 eine Arbeit veröffentlichte, die auf Normalverteilungsdenken beruhte und (über 20 Jahre später) zur Grundlage der Orthodoxie des finanziellen Risikomanagements wurde. Unser alltägliches Verständnis von finanziellen Risiken ist klar: die Möglichkeit, Geld zu verlieren. Die moderne finanzielle Orthodoxie definiert Risiko dagegen als Volatilität (Schwankungsanfälligkeit). Ein nichtvolatiles Investment ist daher eine nichtriskante oder »sichere« Geldanlage – obwohl seine moderaten Schwankungen durchweg größer und häufiger nach unten gerichtet sein können, sodass sie damit trotzdem Geld verlieren.
Natürlich können wir Entscheidungstheorikern und -forschern nicht die Gier und das Wunschdenken von Bankern, Finanzökonomen und anderen zum Vorwurf machen, die annehmen, dass Ungewissheiten immer mithilfe einer Normalverteilungskurve dargestellt werden können. Doch Savage s Anhänger sind tatsächlich für die solchen Vorstellungen zugrunde liegende Idee verantwortlich, dass das Verwandeln von reiner Ungewissheit in numerische Wahrscheinlichkeit eine Art Alchemie ist, mit der sich die beste Entscheidung hervorbringen lässt. Es war genau diese Idee, die Daniel Ellsber g ablehnte.
»Call in the Plumbers«
Die akademische Begabung von Daniel Ellsber g war schon in seiner Kindheit offensichtlich. Doch ihm lag mehr am Klavierspiel – und seiner Mutter lag noch mehr daran, dass er eine Laufbahn als Musiker verfolgte. Am 4. Juli 1946 waren der 15-jährige Dan, seine Schwester und seine Eltern auf dem Weg zu einer Feier in Denver und fuhren inmitten von Getreidefeldern durch Iowa. Auch am Vortag waren sie schon den ganzen Tag gefahren. Sie kamen zu spät in der Unterkunft an, wo sie übernachten wollten, sodass ihre Reservierung storniert und das Zimmer schon anderweitig vergeben war. Also übernachtete die Familie im Auto und unter freiem Himmel, in den Dünen am Lake Michigan. Dans Vater konnte kaum schlafen und war schon am Anfang einer weiteren ganztägigen Autofahrt völlig übermüdet. Kurz nach dem Mittagessen schlief er am Lenkrad ein. Das Auto krachte gegen eine Mauer, Dan s Mutter und seine Schwester waren sofort tot. [12] Nachdem seine Mutter gestorben war, verliefen Dans musikalische Ambitionen bald im Sande. Doch die Musik hatte ihn geprägt: Daniel Ellsber g war keineswegs der engstirnige Militärstratege, den man vielleicht angesichts der Stationen seines Lebenslaufs – Harvard University, US Marine Corps, wieder Harvard, RAND Corporation – hätte erwarten können.
Als e r nach seinem Dienst als Marineinfanterieoffizier als junger Akademiker an die Harvard University zurückkehrte, fragte er sich, ob er den Großteil seines Stipendiums darauf verwenden sollte, sämtliche Klaviersonaten Beethovens spielen zu lernen, anstatt Wirtschaftswissenschaften zu studieren. Auch außerhalb der Musik zeigte Ellsber g bei allem, was er tat, hervorragende Leistungen. Er war in viel geringerem Maße Computerfreak als seine Harvard-Kommilitonen und RAND -Kollegen. Den meisten Berichten zufolge war er ein arroganter, egoistischer Schürzenjäger und Partygänger, wusste aber auch, wie er Interesse an seiner akademischen Arbeit wecken konnte. Ellsber g arbeitete mit Thomas Schellin g daran, die Spieltheorie auf nukleare Strategien anzuwenden. Er gab einer seiner Vorlesungen den provokanten Titel »The Political Uses of Madness« (»Die politischen Anwendungen von Wahnsinn«) und argumentierte darin, Hitler sei ein erfolgreicher Erpresser gewesen, weil er sich »in überzeugender Weise [als] wahnsinnig« dargestellt habe. [13] Ellsber g erklärte seine Ideen Henry Kissinge r, der damals ebenfalls an der Harvard University war; später fungierte Kissinge r als Berater Nixon s, der über seine »madman theory« prahlte, in Vietnam Krieg zu führen.
Selbst Zeitgenossen, die Ellsber g schwierig fanden, lobten seinen Intellekt. Die talentiertesten unter ihnen empfanden es als Privileg, mit ihm arbeiten zu können: Schellin g hielt Ellsber g für »einen der intelligentesten Menschen, die ich jemals kennengelernt habe«. Aber häufig fiel es Ellsber g schwer, eine akademische Arbeit abzuschließen, sie zu Papier zu bringen. Er ließ sich zu leicht von neuen Interessen ablenken, akademischen und anderen. Nach der Spieltheorie wandte er sich dem neu entstehenden Gebiet der mathematischen Entscheidungstheorie zu, für die Jimmie Savage s Arbeit den aktuellen Erkenntnisstand verkörperte. Die sich abzeichnende Orthodoxie der Entscheidungstheorie begann mit einigen abstrakten mathematischen Annahmen (sogenannten »Axiomen«) über Rationalität. Daraus leitet die Theorie Schlussfolgerungen darüber ab, wie ein rationaler Entscheider sich in beliebigen Entscheidungskontexten unter Berücksichtigung seiner vorhandenen Überzeugungen entscheiden sollte. Die Logik der Theorie kann auch umgekehrt eingesetzt werden: Aus einigen Informationen darüber, wie sich eine Person tatsächlich entschieden hat, können deren Überzeugungen abgeleitet werden – vorausgesetzt, dass ihre Entscheidungen »rational« sind in dem Sinne, wie es die Theorie definiert. Wenn also jemand bei dem von Ellsber g beschriebenen Experiment bei der Auswahl zwischen Urne 1 und Urne 2 sich für Urne 2 entscheidet, kann daraus gefolgert werden, dass diese Person glaubt, Urne 2 enthalte mehr Kugeln derjenigen Farbe, auf die der Preis ausgesetzt ist.
Oder auch nicht, wie Ellsber g in seiner bahnbrechenden, 1961 veröffentlichten Arbeit »Risk, Ambiguity and the Savag e Axioms« (»Risiko, Mehrdeutigkeit und die Savag e-Axiome«) schrieb, mit der er sein Experiment der Welt vorstellte. [14] Darin argumentierte er, dass eine Person, die aufgefordert wird, eine Kugel aus einer Urne mit einer unbekannten Mischung aus roten und schwarzen Kugeln zu ziehen, Rot und Schwarz keine numerischen Wahrscheinlichkeiten zuschreibt oder ihre eigenen subjektiven Wahrscheinlichkeiten erfindet. Ihre erste Reaktion sei vielmehr, eine solche reine Ungewissheit von vornherein zu meiden – und sich daher für die andere Urne zu entscheiden, deren Mischungsverhältnis zwischen Rot und Schwarz sie kennt. Generell versuchen wir in allen Lebenslagen, reine Ungewissheit zu vermeiden: Wir zögern, eine Entscheidung zu treffen, wenn wir keinerlei Information über die relativen Wahrscheinlichkeiten der verschiedenen denkbaren Folgen haben (außer natürlich, die Entscheidung ist trivial – dann ist uns das Ergebnis ziemlich egal).
Doch von Anfang an leistete die orthodoxe Entscheidungstheorie einen doppelten Dienst. Sie nahm für sich in Anspruch zu beschreiben, wie Menschen sich entscheiden sollten und wie sie sich tatsächlich entscheiden. Die offensichtliche Möglichkeit, dass diese beiden sich unterscheiden könnten, wurde verschleiert durch eine selbstreferenzielle Anwendung der Idee, dass die Menschen rational seien: Rationale Menschen entscheiden sich tatsächlich so, wie die Theorie es erwarten lässt – da die Theorie definiert, was als rationales Verhalten gilt. Dieser Trick war hilfreich, um die Kritiker im Zaum zu halten (und auch viele Ökonomik-Lehrbücher des 21. Jahrhunderts weichen diesem Problem nach wie vor aus). Natürlich wussten Insider wie Ellsber g und Savag e nur allzu gut, dass eine Theorie darüber, wie Menschen sich entscheiden, nicht unbedingt mit ihrem tatsächlichen Verhalten übereinstimmen muss. Tatsächlich hatte Savag e spätestens 1961 akzeptiert, dass Menschen häufig Entscheidungen treffen, die nicht der Theorie entsprechen. Der Schwerpunkt der Debatte hatte sich daher verlagert auf die Frage, ob die Theorie überzeugende Gründe dafür liefern könne, wie rationale Menschen sich entscheiden sollten . Ellsber g wusste also: Wenn sein Experiment lediglich zeigte, dass Normalbürger Entscheidungen treffen, die mit der Theorie unvereinbar sind, würden die Unterstützer der Savag e-Orthodoxie darauf nur antworten: »Ja und?«
Daher entschloss sich Ellsber g, anstatt normale Bürger zu bitten, an seinem Experiment teilzunehmen, sich an Unterstützer der Savag e-Orthodoxie – Akademiker und Doktoranden, die an Fragen der Entscheidungstheorie arbeiteten – zu wenden. Und wenn sie dabei – wie es bei den meisten der Fall war – Entscheidungen trafen, die im Widerspruch zur Anwendung von Wahrscheinlichkeiten standen, erklärte Ellsber g ihnen ihren »Fehler« und fragte sie, ob sie ihre Entscheidung überdenken wollten. Aber die meisten wollten das nicht: Sie blieben bei ihrer ursprünglichen Entscheidung und stellten sich damit gegen Savage s Theorie, selbst nachdem sie Gelegenheit hatten, ihre Entscheidung zu reflektieren und sie zu ändern. (Laut Ellsber g war Savag e selbst einer von diesen »uneinsichtigen Dissidenten« gegen seine eigene Theorie, aber bislang sind keine unabhängigen Belege aufgetaucht, die Ellsberg s Geschichte bestätigen könnten. [15] ) Die Lektion daraus war klar: Es ist absurd, selbst dann darauf zu bestehen, dass ein rationaler Entscheider angesichts von Ungewissheit Wahrscheinlichkeiten erfinden muss, wenn sogar Unterstützer dieser Theorie sie in der Praxis selbst nicht befolgen, obwohl sie ausreichend Gelegenheit haben, ihre Entscheidung zu überdenken.
Ellsberg s Strategie, Anhänger der orthodoxen Entscheidungstheorie dazu zu bringen, Entscheidungen zu treffen, die damit unvereinbar sind, war clever – vielleicht sogar zu clever. Er ließ den Verteidigern der Orthodoxie keine Rechtfertigung, keine Ausflucht, keine Möglichkeit, ihr Gesicht zu wahren. Was ihnen nur einen Ausweg ließ: das Ellsber g-Paradoxon komplett zu ignorieren. Ellsber g selbst machte ihnen das leicht, weil sein ruheloser Verstand sich bereits anderen Dingen zugewandt hatte. Als »Risk, Ambiguity and the Savag e Axioms« veröffentlicht wurde, fungierte Ellsber g als Berater des US -Verteidigungsministeriums und des Weißen Hauses. Im Jahr 1961 entwarf er für die Joint Chiefs of Staff die Richtlinie über den Operationsplan eines nicht näher definierten Atomkriegs; und so ist es kein Wunder, dass er im Jahr darauf mit der Kubakrise beschäftigt war. Was die Verbreitung seiner Ideen in akademischen Kreisen angeht, war Ellsber g praktisch auf Tauchstation gegangen. Er hatte sich auf die eine oder andere Art auf den Vietnamkrieg fixiert. Nachdem er an Plänen gearbeitet hatte, das US -Engagement in Vietnam auszuweiten, lebte Ellsber g zwei Jahre in Saigon und kehrte dann zu RAND zurück, um dort an einer streng geheimen Auswertung der US -Entscheidungsprozesse in Bezug auf Vietnam zu arbeiten. Und dann passierte es.
Ellsber g verwandelte sich vom Falken zum Whistleblower. Durch seine Arbeit bei RAND war er zu der Überzeugung gelangt, dass die US -Regierung ihre militärischen Operationen in Vietnam ohne Zustimmung des Kongresses ausgeweitet und die Öffentlichkeit über ihre wahren Absichten getäuscht habe. Ellsber g verbrachte viele Stunden damit, heimlich Fotokopien der 7000 Seiten umfassenden Auswertung zu machen (er brachte seinen 13-jährigen Sohn Robert mit, um ihm dabei zu helfen). Nachdem es Ellsber g 1971 nicht gelungen war, die Senatoren im Foreign Relations Committee (Ausschuss des US -Senats zur Außenpolitik) davon zu überzeugen, den Bericht zu veröffentlichen, schickte er ihn an 19 Zeitungsredaktionen. Nachdem der Bericht – der später als »Pentagon Papers« bekannt wurde – veröffentlicht worden war, stellte er sich der Polizei. Er musste damit rechnen, wegen Spionage angeklagt und zu einer Gefängnisstrafe von bis zu 115 Jahren verurteilt zu werden. Aber dann traten die sogenannten »Plumbers« auf den Plan – und retteten ihn, ohne es zu wollen.
Die Plumbers waren eine bunte Truppe von Ex-CIA -Agenten, Freunde von Freunden von Richard Nixo n, die bei dem Versuch, belastendes Material gegen Feinde von Nixon zu beschaffen, kriminelle Methoden einsetzten (indem sie zum Beispiel in die Praxis des früheren Psychoanalytikers von Daniel Ellsber g einbrachen). Sobald klar war, dass die Anklage gegen Ellsberg auf groben Verfehlungen der Regierung und illegaler Beschaffung von Beweismaterial basierte, ließ der Richter sämtliche Anklagepunkte fallen. Ellsber g musste nicht hinter Gitter, hatte jedoch in aller Welt einen zweifelhaften Ruf erlangt, wie ein 1970er-Jahre-Vorgänger von Julian Assang e und Edward Snowde n. Dieser traurige Ruhm lieferte den Entscheidungstheorikern eine weitere Ausrede – sofern sie denn überhaupt eine brauchten –, um das Ellsber g-Paradoxon noch etwas länger ignorieren zu können.
Fünf Schwarze Schwäne und Nobelpreise
Unterdessen verbanden sich Normalverteilungsdenken und die Markteffizienzhypothese zu einer neu entstehenden Orthodoxie und der Behauptung, dass die Ungewissheit an Finanzmärkten gebändigt oder gar völlig neutralisiert werden könne. In der akademischen Welt kulminierte diese Entwicklung damit, dass fünf Wirtschaftsnobelpreise Finanzökonomen zugesprochen wurden: Drei im Jahr 1990 (sie gingen an Harry Markowit z und zwei andere, die seine Arbeit fortgeführt hatten) und zwei weitere im Jahr 1997, für Robert Merto n und Myron Schole s. An den Finanzmärkten führte die Kulmination der Idee, dass Ungewissheit neutralisiert werden könne, zum Entstehen von Hedgefonds, die behaupteten, genau das zu tun. Merto n und Schole s praktizierten, was sie predigten, und betätigten sich als hochrangige Manager des Hedgefonds LongTerm Capital Management. LTCM machte zunächst riesige Profite, aber mit seiner Anlagestrategie ignorierte der Hedgefonds die Möglichkeit von Schwarzen Schwänen. Als einer auftauchte, in Form eines großen Zahlungsausfalls mit anschließender Währungsabwertung aufseiten der russischen Regierung, ging LTCM pleite. Das war 1998 – nur ein Jahr, nachdem Merto n und Schole s den Wirtschaftsnobelpreis gewonnen hatten.
Leider sind jedoch die meisten Finanzökonomen und Banker, wenn es um ihre Blindheit für die Probleme des orthodoxen Denkens über Ungewissheit geht, Wiederholungstäter. In der jüngeren Finanzgeschichte wurde diese Orthodoxie 1987 durch den Black Monday infrage gestellt, später dann durch den Zusammenbruch von LTCM , die Dotcom-Blase und die Finanzkrise, die 2007 begann (um nur die offenkundigsten Herausforderungen zu nennen). Bei jedem dieser Fälle war die Reaktion meistenteils Schweigen – oder der Einwand, da solche Ereignisse ja Schwarze Schwäne seien, man von niemandem habe erwarten können, sie kommen zu sehen. Kaum jemals wurde eingeräumt, dass wir ein neues Denken über Ungewissheit brauchen, das ausdrücklich die Möglichkeit von Schwarzen Schwänen mit einbezieht und anerkennt, dass wir – da ihrem Wesen nach keine Hoffnung besteht, sie vorhersehen zu können – Vorkehrungen treffen müssen, um mit den Folgen fertigzuwerden, wenn unerwartet einer auftaucht.
Das größte Hindernis, das der Ablösung der alten Orthodoxie im Wege steht, besteht in unserer tief sitzenden Abneigung, angesichts von Ungewissheit die Grenzen unseres Wissens anzuerkennen, und in unserem daraus folgenden hartnäckigen Glauben, Ungewissheit quantifizieren zu können. Wir haben bereits festgestellt, dass es verlockend ist, das Normalverteilungsdenken den schwer errungenen, aber dürftigen Vorzügen der mandelbrotsche n Mathematik vorzuziehen. Etwas allgemeiner ausgedrückt: Die Vorstellung, wir könnten Ungewissheit auf eine einzige Zahl, eine Wahrscheinlichkeit, reduzieren, spricht unser Bedürfnis nach Einfachheit, Sicherheit und Stabilität an. Ungewissheit kann, sobald sie mit dieser einen Zahl erfasst wurde, scheinbar beherrscht werden. Und wir können uns entscheiden, wie viel Risiko wir tolerieren wollen.
Mit dem Wunsch, unser Schicksal bestimmen zu wollen, geht eine Reihe von Überzeugungen einher, die uns glauben machen, das sei tatsächlich möglich. Viele Menschen haben die tief sitzende, kaum bewusste Überzeugung, dass es in der Geschichte stabile Muster gibt, die sich in die Zukunft hinein fortsetzen werden. Diese Überzeugung verbindet sich mit der Art, wie wir die meisten Dinge in Form von Erzählungen und Geschichten verstehen. Die Zukunft als eine sich aus der Gegenwart entwickelnde Geschichte zu sehen, ist nicht nur eine Art, in Ungewissheit einen »Sinn zu erkennen« und auf diese Weise Zweifel durch Erklärung zu ersetzen; zudem ist es kognitiv einfacher. Bekanntlich hat der Romancier E. M. Forste r einer einfachen Aufzählung von Fakten – »Der König starb und die Königin starb« – eine Handlung gegenübergestellt: »Der König starb, und dann starb die Königin vor Kummer«. Die Handlung enthält mehr Informationen, und doch ist sie nicht schwieriger in Erinnerung zu behalten: Sie ist kognitiv effizienter. [16]
Doch es gibt einen Haken an der Sache, der zuerst von Daniel Kahnema n und Amos Tversk y eindeutig belegt wurde. Eines ihrer bekanntesten Experimente ist die Verknüpfungstäuschung, das sogenannte »Linda-Problem«:
Linda ist 31 Jahre alt, alleinstehend, sehr intelligent und nimmt kein Blatt vor den Mund. Sie hat einen Abschluss in Philosophie gemacht. Als Studentin war sie tief bewegt von Problemen wie Diskriminierung und sozialer Gerechtigkeit, und sie hat auch an Anti- AKW -Demonstrationen teilgenommen.
Was ist wahrscheinlicher?
1. Linda ist eine Bankangestellte.
2. Linda ist eine Bankangestellte und in der Frauenbewegung aktiv. [17]
Die meisten Teilnehmer entscheiden sich für Option 2. Doch Option 2 muss auf jeden Fall weniger wahrscheinlich sein als Option 1, da Option 1 in beiden Fällen zutrifft – wenn Linda sich in der Frauenbewegung engagiert und wenn sie es nicht tut. Unsere Tendenz, eine Erzählung heranzuziehen, um mit Informationsmangel umzugehen, setzt sich über die fundamentalen Gesetze der Wahrscheinlichkeit hinweg. Anders ausgedrückt: Die Kombination aus unserer Tendenz zu erzählerischen Interpretationen und unserem Drang, Ungewissheit mit Wahrscheinlichkeiten zu beschreiben, kann katastrophale Folgen haben. Dennoch müssen wir uns davor hüten, das Problem zu übertreiben. Ja, einfache Menschen greifen auf Erzählungen zurück, um besser mit Ungewissheit fertig zu werden, aber Experten greifen auf ihre Werkzeuge, Theorien und Computermodelle zurück. Experten können sich mit optimistischem Normalverteilungsdenken in die Tasche lügen, doch zumindest fallen sie nicht auf so einfache Fehler wie das Linda-Problem herein.
Freilich tun sie das doch, wie Kahnema n und Tversk y herausfanden, als sie ähnliche Experimente mit Ärzten und anderen ausgebildeten Experten durchführten. Und es gibt klare Belege dafür, dass es entsprechend ausgebildeten Entscheidern schwerfällt, sich von einer anderen Erzählung zu lösen – nämlich von der optimistischen Orthodoxie über Entscheidungsfindung bei Ungewissheit. Diese Orthodoxie wurde in diesem Kapitel bereits beschrieben – sie beginnt damit, dass John von Neuman n etwas auf der Rückseite eines Briefumschlags notierte, und geht mit Savag e und einer Reihe von Verbesserungen und Anwendungen weiter, bis hin zu Nobelpreisverleihungen und anderen Ehren.
Hier ist ein Zitat von Alan Greenspa n, dem gefeierten früheren Chef der US Federal Reserve, der nach Ausbruch der Finanzkrise in einer Anhörung vor dem US -Kongress im Oktober 2008 Folgendes sagte:
In den vergangenen Jahrzehnten hat sich ein riesiges Risikomanagement- und Preisfindungssystem entwickelt. … Ein Nobelpreis wurde verliehen. … Dieses moderne Risikomanagement-Paradigma hat jahrzehntelang vorgeherrscht. Doch im Sommer letzten Jahres brach das gesamte Gedankengebäude zusammen …
So weit, so gut.
… da die Daten, mit denen die Risikomanagement-Modelle gefüttert wurden, zumeist nur die vergangenen beiden Jahrzehnte abdeckten – eine Phase der Euphorie. [18]
Also bleibt für Greenspa n die Validität von Normalverteilungsdenken und der Quantifizierung von Ungewissheit unbestritten und vielleicht unbestreitbar. Das Einzige, was schiefgelaufen sei, war, dass wir nur 20 Jahre an Daten verwendet hätten. Damit zeigt Greenspa n, dass er das Problem auf fundamentale Weise falsch versteht. Schwarze Schwäne tauchen nicht oft genug auf, um aus vergangenen Daten ihre Auftretenswahrscheinlichkeit zuverlässig einschätzen zu können. Sei es an den Finanzmärkten oder anderswo, die Wahrscheinlichkeit seltener Ereignisse kann nicht aus ihren vergangenen Häufigkeiten berechnet werden, eben weil sie selten sind. Und die Logik sagt uns, dass unvorhergesehene Ereignisse im Vorhinein unvorhergesehen sein müssen, also kann ihre Wahrscheinlichkeit nicht geschätzt werden. Überraschungen müssen überraschend sein.
Die Seltenheit von Schwarzen Schwänen liefert einen weiteren Grund, warum wir so tun, als gebe es sie nicht, wenn wir Ungewissheit aus Wahrscheinlichkeiten berechnen wollen. Menschen, die Schwarze Schwäne ignorieren und Normalverteilungsdenken anwenden, können für längere Zeiträume den Eindruck erwecken, sie könnten Ungewissheit managen. Und viele von ihnen werden unterdessen für diesen vermeintlichen Erfolg fürstlich entlohnt. Über kurz oder lang wird ein Schwarzer Schwan auftauchen – aber, um es mit Keyne s zu sagen: »Auf lange Sicht sind wir alle tot.« Oder haben uns mit einer komfortablen Rente zur Ruhe gesetzt.
Doch vielleicht ist diese Argumentation zu vorschnell. Warum werden viele Menschen – etwa Banker, die Risiken managen – so gut bezahlt, wenn ihre Logik fehlerhaft ist? Einige der Gründe haben wir schon erwähnt: Die Orthodoxie ist, von Nobelpreisträgern abwärts, so dominant geworden, dass alternative Stimmen kaum Gehör fanden. Hinzu kommt, dass diese Alternativen nicht die tröstliche Illusion bieten können, Ungewissheit bändigen zu können, sondern stattdessen nur eine harsche Beschreibung der Grenzen unseres Wissens. Aber daneben gibt es auch noch einen weniger offensichtlichen Grund: Solche Leute werden normalerweise für ihre Leistung bezahlt, nicht für die Logik, die dahintersteckt. Und in vielen Branchen, etwa der Finanzwirtschaft, ist diese Performance ganz und gar relativ. Wenn Ihre Rivalen, an denen Ihre Leistung gemessen wird, alle dieselben orthodoxen Verfahren für »Risikomanagement« einsetzen, dann sichern Sie sich ab, wenn Sie es genauso machen. Damals gab es einen Spruch in der Technologiebranche: Es wurde noch nie jemand gefeuert, weil er einen Computer von IBM gekauft hat. Mit einer orthodoxen Entscheidung ist man immer auf der sicheren Seite – wenn etwas schiefläuft, werden Ihre Rivalen auch nicht besser abschneiden, und dann können Sie alle zusammen sagen, Sie hätten sich nur an die gängigen wissenschaftlichen Theorien und Modelle gehalten. Sie wahren Ihr Gesicht. Fondsmanager nennen das »benchmarking against the market«; Keyne s nannte es »der Herde folgen«.
Wenn Sie sich dagegen von der Orthodoxie lösen, bedeutet das, dass Sie ihre eigenen Entscheidungen treffen – und dafür verantwortlich sind, wenn die Dinge schlecht laufen oder Ihre Rivalen besser abschneiden. Der Chef der britischen Börsenaufsicht hat es einmal so gesagt: »Du bist auf sehr viel gefährlicherem Gelände unterwegs, da du kein Denksystem hast, das du bei jeder deiner Entscheidungen zurate ziehen kannst«. [19]
Ökonomen und andere Verteidiger der Orthodoxie haben Entscheidern die Legitimation erteilt, nicht selber urteilen zu müssen, die Legitimation, ihre Verantwortung an die Entscheidungstheorie abzugeben. Doch diese unwiderstehliche Macht der Entscheidungstheorie, das Beurteilen künftiger Entwicklungen überflüssig zu machen, beruht auf einem fundamentalen Fehler. Weil es sich dabei um einen philosophischen Fehler handelt und keinen mathematischen, scheint er den Verteidigern der Orthodoxie nicht aufgefallen zu sein. Eine Entscheidungstheorie, die subjektive Wahrscheinlichkeiten verwendet, kann nicht beschreiben, wie Sie sich entscheiden sollten . Denn wenn man das mathematische Etikett entfernt, ist eine subjektive Wahrscheinlichkeit nichts anderes als ein numerischer Ausdruck ihrer persönlichen Überzeugung, für wie wahrscheinlich Sie eine zukünftige Entwicklung halten. Und Ihre persönlichen Überzeugungen können nicht als Entscheidungsgrundlage dienen, weil sie falsch sein können. Ich kann mich entscheiden, auch in Zukunft ein starker Raucher zu bleiben, weil ich glaube, dass Rauchen mein Risiko, an Lungenkrebs zu erkranken, nicht erhöht. Aber wir können nicht sagen, dass ich weiter rauchen sollte, oder dass meine Entscheidung, weiter zu rauchen, durch meine Überzeugung, Rauchen würde mein Krebsrisiko nicht erhöhen, gerechtfertigt wäre – weil diese Überzeugung falsch ist. [20] Eine Theorie, die vorschreibt, wie wir uns entscheiden sollten, und die bei Ungewissheit bestimmte Entscheidungen rechtfertigt – was genau das ist, was die moderne Orthodoxie zu leisten behauptet –, erfordert objektive Standards und Fakten, die nichts mit dem Entscheider selbst zu tun haben. Sie kann nicht ausschließlich auf seinen subjektiven Überzeugungen beruhen.
Frank P. Ramse y, der Pionier der subjektiven Wahrscheinlichkeiten, wusste das. Im Gegensatz zu Savag e war Ramse y nicht der Meinung, dass subjektive Wahrscheinlichkeiten uns sagen können, wie jemand sich entscheiden sollte . Ramse y nutzte subjektive Wahrscheinlichkeiten als konzeptionelles Vehikel, um die Entscheidungen zu erklären, die Menschen tatsächlich treffen. (Und Ellsberg s Experiment weckte dann sogar daran gewisse Zweifel.)
Es waren Savag e und seine Anhänger, die weiter gingen und Überzeugungen und Meinungen, die vorher als subjektive Wahrscheinlichkeiten dargestellt wurden, den gleichen Rang wie objektiven Fakten zuschrieben. Das bringt uns zu der verdeckten Arroganz der modernen Orthodoxie unseres Denkens über Ungewissheit; es führt uns in ein kompliziertes Rechtfertigungsmanöver. Die Mathematik verdeckt diese zugrunde liegende Arroganz: Wir rechtfertigen unsere Entscheidungen, indem wir uns auf unsere eigenen Überzeugungen beziehen. Aber nur, weil man an etwas glaubt, muss es nicht wahr sein. Wir ignorieren die Fakten – und vor allem die Fakten über unsere fehlende Kenntnis der Zukunft. Es ist unsere moderne griechische Tragödie. Wir agieren mit Hochmut und Selbstüberschätzung und bieten den Göttern des Glücks die Stirn. Hochmut kommt vor dem Fall – und manchmal steht dabei viel mehr auf dem Spiel als bei einer globalen Finanzkrise.
Eine Zahl wird fabriziert
Obwohl über die Details heftig gestritten wird, besteht ein weitgehender wissenschaftlicher Konsens, dass wir damit rechnen müssen, dass das Klima der Erde sich im Durchschnitt um vier Grad erwärmen wird, wenn wir weiterhin so viel CO 2 in die Atmosphäre blasen wie jetzt. (Hinter diesem durchschnittlichen Temperaturanstieg verbirgt sich ein komplexes Szenario verschiedener Dimensionen der Klimaveränderung – extremere Temperaturen und mehr Überflutungen, Dürren, Desertifikationen, Wirbelstürme, Sturmfluten und so weiter.) Aber wie wichtig ist das?
Am 30. Oktober 2006 lieferte ein Bericht für die Regierung Großbritanniens, der »Ster n Review on the Economics of Climate Change«, die bisher einflussreichste Antwort auf diese Frage. Der Ster n-Report machte weltweit Schlagzeilen mit seiner Behauptung, dass Nichtstun in Sachen Klimaveränderung zwischen 5 und 20 Prozent der globalen Wirtschaftsleistung kosten würde, und zwar jedes Jahr. Die Schlussfolgerungen des Ökonomen Nicholas Ster n basierten auf einem aufwendigen ökonomischen Modell. Sein Bericht führte zu einer explosionsartigen Vermehrung ähnlicher Forschungsmodelle von anderen Ökonomen, die den derzeitigen Konsens herbeiführten: Der durch eine Erwärmung des Klimas um vier Grad entstehende Schaden wird auf fünf Prozent der weltweiten Wirtschaftsleistung pro Jahr geschätzt. Natürlich sind selbst fünf Prozent der weltweiten Wirtschaftsleistung immer noch eine hohe Zahl – und eine runde Zahl, die Politiker, Wirtschaftsführer und andere Menschen mit der Macht, einen Unterschied zu bewirken, leicht im Hinterkopf behalten können. Die Differenz zwischen 5 und 20 Prozent entsteht aus den Unterschieden zwischen den unzähligen Annahmen, Vereinfachungen und Auslassungen, die notwendig sind, um zu so handlichen Prognosen zu kommen.
Es ist schwer zu sagen, wo man anfangen soll. Um einerseits zu einer hohen Zahl wie 20 Prozent zu kommen, müssen auch die Risiken der Klimaveränderung berücksichtigt werden, die aus wissenschaftlicher Sicht weniger gut verstanden werden. Daher muss stärker auf ungesicherte Vermutungen zurückgegriffen werden, um den finanziellen Schaden zu beziffern, den solche Risiken möglicherweise anrichten können – und eine Schadenssumme ist natürlich das, was gebraucht wird, um sämtliche Schäden aufzuaddieren und sie als prozentualen Anteil der Wirtschaftsleistung auszudrücken. Um andererseits zu einer niedrigeren Zahl wie fünf Prozent zu kommen, braucht man naivere oder optimistischere Annahmen über das Ausmaß der Klimaveränderung, und man muss einige ihrer Auswirkungen ignorieren. Hier ist eine bei Weitem nicht vollständige Liste der potenziellen Schäden, die ignoriert werden, um zu dieser Prognose von fünf Prozent zu kommen: Auftauen der Permafrostböden in arktischen Gebieten, Freisetzung von Methan, Luftverschmutzung durch Verbrennung fossiler Brennstoffe, steigende Meeresspiegel, die zur Überflutung kleiner Inselstaaten und küstennaher Städte führen, sowie Konflikte, die durch große Migrationsströme von Menschen entstehen, die sich aus den am schlimmsten betroffenen Gebieten in Sicherheit bringen wollen.
Was die Auswirkungen betrifft, die tatsächlich berücksichtigt werden, um zu einer einzigen magischen Zahl zu kommen (ob es nun 5 oder 20 Prozent sind): Nur wenige dieser sogenannten Klimafolgen sind absolut gewiss. Um also zu einer Gesamtschadenssumme durch die Klimaveränderung zu kommen, muss der Betrag eines jeden ungewissen Folgeschadens mit seiner Eintrittswahrscheinlichkeit multipliziert werden. Leider besteht für viele der wichtigsten Folgeschäden völlige Ungewissheit. Wir kennen ihre Wahrscheinlichkeiten nicht; wir kennen nicht einmal einigermaßen zuverlässig den Bereich, in dem die anzunehmenden Wahrscheinlichkeiten liegen werden. Wir wissen es einfach nicht.
Zuverlässige Zahlen sind ebenso schwierig zu ermitteln, wenn es darum geht, den finanziellen Schaden jeder einzelnen Klimafolgenkategorie zu beziffern. Nehmen wir die vielleicht wichtigste – den verfrühten, wahrscheinlich grausamen Tod vieler Millionen Menschen. In einem 2002 veröffentlichten Bericht der Weltgesundheitsorganisation wird geschätzt, dass ein Temperaturanstieg von höchstens einem Grad etwa 150 000 Todesfälle pro Jahr verursachen könnte (durch mehr Hitzewellen, Malaria und Wasserknappheit neben anderen Ursachen). Da die gesundheitlichen Schäden für die Bevölkerung mit steigenden Temperaturen überproportional zunehmen, ist zu erwarten, dass eine Erwärmung um vier Grad mehr als eine halbe Million vorzeitiger Todesfälle pro Jahr verursachen würde. [21]
Wie wir in Kapitel 6 gesehen haben, hat Thomas Schellin g ein umstrittenes Verfahren in die Ökonomik eingeführt, um den finanziellen Wert eines verfrühten Todes (oder dessen Verhinderung) zu beziffern. Dieser Wert wird daraus abgeleitet, wie viel Geld man Menschen zahlen muss, damit sie bereit sind, ein erhöhtes Risiko zu tolerieren. Die Kalkulation basiert normalerweise auf dem Vergleich der gezahlten Löhne zwischen mehr oder weniger riskanten, aber sonst identischen Arbeiten. Aber wo auch immer die Daten herkommen mögen, werden wir stets feststellen, dass es von seinem Einkommen abhängt, wie viel Geld ein Mensch verlangen wird, um ein höheres Risiko zu tolerieren, und wie viel er auszugeben bereit ist, um dieses Risiko zu vermeiden. Arme Menschen werden riskantere Arbeiten bereitwilliger tolerieren als Reiche, weil sie auf den Lohn angewiesen sind. Und sie geben weniger dafür aus, Risiken zu vermeiden, weil ihnen weniger Geld zur Verfügung steht. Daher ergibt Schelling s Methode in einer armen Gesellschaft einen geringeren Wert für die Rettung eines Menschenlebens (einen vorzeitigen Tod zu verhindern) als in einer reichen. Das heißt, dass der Wert eines »statistischen Lebens« in einem armen Land niedriger ist als in einem reichen. Dies ist nicht bloß ein Gedankenspiel, sondern hat auf direktem Wege dazu geführt, dass in dem 1995 veröffentlichten Bericht des einflussreichen Intergovernmental Panel on Climate Change (IPCC , Zwischenstaatlicher Ausschuss für Klimaänderungen) der Wert eines Menschenlebens in reichen Ländern mit 1,5 Millionen Dollar angesetzt wird, in armen Ländern dagegen nur mit 100 000 Dollar. [22]
Die meisten Ökonomen erkennen an, dass es weithin als inakzeptabel gilt, manche Menschenleben höher zu bewerten als andere. Aber eine andere Vorgehensweise, die sie stattdessen eingeführt haben, ist auch nicht besser: Viele ökonomischen Modelle ignorieren ganz einfach den potenziellen Verlust an Menschenleben durch Klimaveränderung völlig, indem sie eine feste Größe der Weltbevölkerung annehmen. Eine halbe Million verfrühter Todesfälle pro Jahr qua Annahme verschwinden zu lassen, ist schon ein erstaunliches Manöver, doch in den von Ökonomen angestellten Berechnungen, die den größten Einfluss auf das Endergebnis – beispielsweise »fünf Prozent der Wirtschaftsleistung« – haben, steckt noch eine weitere verdeckte Annahme, die noch folgenschwerer ist.
Diese verdeckte Annahme ist der »Diskontsatz«, der angewendet wird, um aus den zukünftigen Kosten und Nutzen der Klimaveränderung Beträge zu errechnen, die mit den heutigen Kosten und Nutzen vergleichbar sind. Das bedeutet, dass die Kosten künftiger Klimafolgen gegenüber entsprechenden heutigen Folgen »diskontiert« – also reduziert – werden. Und je weiter in der Zukunft ein Schaden entsteht, desto mehr wird er diskontiert, mit einem Kumulationseffekt, der eine gewaltige Wirkung entfaltet, wenn wir längere Zeiträume betrachten: In ökonomischen Standardmodellen mit Standarddiskontsätzen wird die gesamte globale Wirtschaftsleistung in 200 Jahren auf den heutigen Gegenwert von vier Milliarden Dollar diskontiert (das entspricht dem BIP von Togo, oder etwa 2,5 Prozent des Vermögens von Jeff Bezo s, dem Amazon-Gründer und reichsten Mann der Welt im Jahr 2019). Das Ergebnis: Wenn wir entscheiden wollen, wie viel Geld es heute wert ist, um zu verhindern, dass die Erde in 200 Jahren zerstört ist – auf der Basis verlorener künftiger Wirtschaftsleistung, der Messlatte von ökonomischen Modellen –, wäre die Antwort nicht mehr als eine kleine Delle in Jeff Bezos’ Vermögen. Zumindest wenn es über lange Zeiträume angewendet wird, scheint Diskontieren absurd zu sein, weil es herannahende Katastrophen dermaßen bagatellisiert.
Die Geschichte des Diskontierens bringt uns zurück zu dem überragenden Frank P. Ramse y. Er war der Erste, der zwei wichtige Argumente fürs Diskontieren in mathematischen Begriffen formuliert hat, mithilfe einer eleganten und knappen Formel, der Ramse y-Regel, die auch heute noch in ökonomischen Modellen die Inspiration für das Diskontieren von künftigen Klimafolgen bildet. Ramsey s erstes Argument ist atemberaubend einfach: das sogenannte »reine Diskontieren« – die grundlegende Annahme, dass Menschenleben in der Zukunft weniger wichtig sind als Menschenleben in der Gegenwart. Falls Sie meinen, das höre sich an wie eine direkte Diskriminierung künftiger Generationen, sind Sie in guter Gesellschaft: Die meisten Philosophen, Religionen und ethischen Normen geben Ihnen recht. Ramse y mag diese Rechtfertigung fürs Diskontieren mathematisch beschrieben haben, aber auch er war der Meinung, dass sie moralisch unhaltbar sei (und er hätte sicherlich auch erkannt, wie absurd es ist, über Zeiträume von 200 Jahren zu diskontieren). Leider ist es heute so, dass zwar die meisten Klimaökonomen Ramsey s mathematischen Modelle verehren, aber seine Warnungen, wie unmoralisch es sei, sie falsch anzuwenden, in den Wind schreiben. Es ist keine Übertreibung zu sagen, dass die meisten ökonomischen Klimafolgenmodelle nachfolgende Generationen in unhaltbarer Weise diskriminieren, indem sie auf Klimafolgen das Verfahren des »reinen Diskontierens« anwenden.
Ramsey s zweites Argument fürs Diskontieren ist subtiler: Wenn in Zukunft die Menschen im Durchschnitt wesentlich reicher sein werden als heute, dann wird Geld keine so große Rolle mehr für sie spielen. Je reicher Sie sind, desto weniger ist Ihnen ein zusätzlicher Dollar wert. Daraus folgt, dass auch die Klimafolgen in Zukunft eine geringere Rolle spielen werden, in Relation zu heutigen Folgen mit dem gleichen finanziellen Wert: Der gleiche Geldbetrag wird in Zukunft weniger wert sein. Also sollten wir bei unseren Berechnungen zukünftigen Klimafolgen ein geringeres Gewicht beimessen. Dies ist ein besseres Argument, als Diskontieren mit Diskriminierung zu rechtfertigen – aber nicht viel besser, da es in verantwortungsloser Weise davon ausgeht, dass die Wirtschaft auch in Zukunft immer weiter wachsen wird, ganz ähnlich wie bisher. Und es ignoriert die Anzeichen – die nicht nur von Umweltschützern, sondern auch von der gesamten Versicherungsbranche ernst genommen werden –, dass die Klimaveränderung die wirtschaftlichen Aktivitäten dermaßen stören wird, dass die gewohnten wirtschaftlichen Wachstumsraten nur noch eine rasch verblassende Erinnerung sein werden. Die aufgrund der Klimaveränderung entstehende Bedrohung für das Wirtschaftswachstum solchermaßen zu ignorieren, ist eine erstaunliche Lücke in einer wirtschaftlichen Klimafolgeneinschätzung. Sie ist bestenfalls damit zu erklären, dass sie die Mathematik einfacher zu bewältigen macht und die Modelle enger an Ramsey s ursprüngliche Analyse heranführt, mit der Ökonomen seit ihrem Studium aus Lehrbüchern vertraut sind. Aber auch hier führt diese Auslassung letztlich zu einer irreführenden Verringerung der Klimafolgekosten, ausgedrückt als prozentualer Anteil der globalen Wirtschaftsleistung. Würde ein Wirtschaftswissenschaftler die ökonomische Klimafolgeneinschätzung so manipulieren wollen, dass seine Tricksereien vor der demokratischen Kontrolle durch Nichtökonomen verborgen sind, würden sich technische Finessen mit der Diskontrate als Mittel zum Zweck anbieten.
Aber selbst wenn in dieser Hinsicht ein paar Schurken unter den Mainstream-Ökonomen sein sollten, sind jene viel zahlreicher, die sich der Grenzen eines Modells schmerzlich bewusst sind, das all die wissenschaftlichen, ökonomischen, politischen und sozialen Ungewissheiten und Dimensionen zu einer einzigen Zahl zusammenrührt, nämlich dem Prozentsatz der Wirtschaftsleistung. Nachdem sein Bericht veröffentlicht war, wurde Nicholas Ster n klar, dass so gut wie alle Ungewissheiten in seinen Modellen diese Zahl in dieselbe Richtung beeinflussen. In einer führenden Fachzeitschrift für Ökonomik [23] hat er die Situation so beschrieben: »Grafting Gross Underestimation of Risk onto Already Narrow Science Models« (»Grobe Unterschätzung von Risiken auf ohnehin enge wissenschaftliche Modelle draufsatteln«). Und Ster n ist aufgebracht über die Aufmerksamkeit, die diese BIP -Prozentsätze auf sich ziehen. Er weist darauf hin, dass den Modellen, die diese Zahlen hervorbringen, gerade mal 30 von 692 Seiten des Ster n-Reports gewidmet sind; der ganze Rest drehte sich um andere Denkweisen zur Klimaveränderung. Dennoch halten Ster n und die meisten Klimaökonomen an diesen Modellen fest und vertreten die Auffassung, dass globale Entscheidungen zur Klimapolitik auf verbesserten Modellen beruhen sollten, die höhere Werte für die Reduzierung der globalen Wirtschaftsleistung durch die Klimaveränderung auswerfen.
Für jeden Menschen, der auf nennenswerte Maßnahmen gegen die Klimaveränderung hofft, ist diese Strategie der Ökonomen beunruhigend, in Anbetracht ihres nach wie vor großen Einflusses auf politische Entscheidungen. Die Reaktion auf den Ster n-Report zeigt Folgendes: Sobald ein Prozentsatz der Wirtschaftsleistung genannt wurde, wird diese Zahl alle anderen Arten, über die Klimafolgeschäden zu sprechen und zu denken, in den Hintergrund drängen. Wenn man nicht will, dass Politiker und die Medien sich auf eine einzige, leicht zu merkende Zahl konzentrieren, darf man ihnen keine geben. Und auch der Einsatz eines neuen Modells, um eine höhere Zahl zu bekommen, nützt nichts.
Denn letzten Endes interessiert sich kaum jemand ernsthaft dafür.
Dass eine ungebremste Klimaveränderung fünf Prozent der globalen Wirtschaftsleistung kosten könnte, ist ohnehin schon ein viel höherer Wert, als es den Anschein hat. Sowohl der Erste als auch der Zweite Weltkrieg haben kaum einen Rückgang der globalen Wirtschaftsleistung verursacht (insgesamt hat der Zweite Weltkrieg die globale Wirtschaftsleistung wahrscheinlich sogar erhöht , im Vergleich zu dem, was sonst geschehen wäre). [24] Im Vergleich dazu ist ein Rückgang um fünf Prozent beachtlich. Doch die eigentliche Botschaft dieses Vergleichs ist, dass der Tod von zig Millionen Menschen – Holocaust und menschliches Leid in einem noch nie da gewesenen Ausmaß – in den Statistiken zur Wirtschaftsleistung kaum erkennbar ist. Daher liegt es auf der Hand, dass die Folgen von globalen Katastrophen sich nicht in BIP -Zahlen niederschlagen werden – ganz gleich, ob es sich dabei um Kriege oder die Klimaveränderung handelt.
Wenn die Orthodoxie hinsichtlich einer Erderwärmung um 4 Grad sich von 5 auf 20 Prozent der globalen Wirtschaftsleistung verändern würde, ist keineswegs klar, dass dadurch ein nennenswerter Effekt auf die weltweite Debatte zur Klimaveränderung entstünde: Vielleicht verstehen die meisten Menschen instinktiv, dass BIP -Zahlen eine begrenzte Aussagekraft haben, wenn es um enorme weltweite Veränderungen geht. Trotz der scheinbaren Dominanz der ökonomischen Sprache in der Politik spielen diese Zahlen letztlich kaum eine Rolle.
Aber selbst wenn wir diese Orthodoxie aufgeben, müssen wir uns nach wie vor mit dem gleichen Problem herumschlagen, mit dem Keyne s’ Anhänger angesichts reiner Ungewissheit konfrontiert sind: »Wir wissen es einfach nicht.« Auf welcher Grundlage sollen wir sonst entscheiden? Wenn wir nicht einer umfassenden Schätzung der Klimafolgekosten die Kosten der Bekämpfung der Klimaveränderung gegenüberstellen wollen, die alles in Geldbeträgen kalkuliert – was sonst?
Irgendeine Zahl ist besser als gar keine Zahl?
Manche Risiken haben zwei Merkmale, die es sehr viel schwieriger machen, mit ihnen fertigzuwerden. Erstens: reine Ungewissheit. Zweitens: das Potenzial einer Katastrophe – einer nicht nur negativen, sondern qualitativ andersartig negativen Entwicklung, die in vielen Fällen zu unumkehrbaren Schäden oder Verlusten führt oder zu einem totalen Zusammenbruch der zugrunde liegenden Systeme, Organisationen oder Bezugssysteme, innerhalb derer Entscheidungen getroffen werden. Vermutlich weisen sowohl die Klimaveränderung als auch globale Finanzkrisen diese beiden Merkmale auf. Wenn es um solche Risiken geht, ist das traditionelle ökonomische Denken – das fordert, Nutzen minus Kosten präzise zu maximieren und die verfügbaren Mittel zum Zweck aggressiv-effizient einzusetzen – fahrlässig. Stattdessen muss die alles beherrschende Priorität sein, die Katastrophe zu verhindern: Wir brauchen Stabilität und Sicherheit statt Maximierung und Effizienz. In der Natur wird diese Priorität in vielen Fällen durch das Gegenteil von Effizienz befolgt, nämlich durch Redundanz – so hat zum Beispiel der Mensch zwei Nieren statt nur eine. In politischen und rechtlichen Zusammenhängen ist diese Einstellung als »Vorsorgeprinzip« bekannt. Generell empfiehlt dieses Prinzip, an praktische Entscheidungen mit einer Haltung heranzugehen, die sich auf Stabilität, Sicherheit und das Treffen von Vorsorgemaßnahmen konzentriert. [25] Dabei kommt es vor allem darauf an, sich dessen bewusst zu sein, was wir nicht wissen und dass die Zukunft wahrscheinlich Überraschungen mit sich bringen wird (wer hätte ahnen können, dass FCKW s – die chemischen Verbindungen, die sich als ideales Kühlmittel für Kühlgeräte erwiesen haben – sich als eine der Ursachen der Erderwärmung herausstellen würden?). Diese alternativen Vorgehensweisen, an Risiken heranzugehen, lehnen die dominante Orthodoxie ab, jede mögliche künftige Folge einer jeden Entscheidung mit einem Preisschild und einer Wahrscheinlichkeit zu etikettieren. Stattdessen empfehlen sie, sich auf eine sorgfältige, detaillierte und multidimensionale Einschätzung der möglichen Folgen zu konzentrieren und sich nicht hartnäckig darum zu bemühen, ihre Eintrittswahrscheinlichkeiten zu erraten. Diese Wahrscheinlichkeiten kennen wir einfach nicht, und selbst wenn sie bekannt wären, würde uns das wenig nützen, wenn wir nicht eine gute Vorstellung davon hätten, auf was sich diese Wahrscheinlichkeiten eigentlich beziehen. Im Gegensatz zu dem Gouverneur der Bank of England erwarteten viele Menschen im Sommer 1914 völlig zutreffend, dass es wahrscheinlich zu einem Krieg kommen würde. Doch das spielte kaum eine Rolle, weil niemand ahnte, dass dieser Krieg eine noch nie da gewesene Dimension erreichen würde.
Anders ausgedrückt: Wir können keine Pläne machen, um das Risiko von Katastrophen zu reduzieren, wenn wir uns nicht darüber einig sind, was als Katastrophe zählt. Wir müssen uns die Frage stellen: »Was ist uns am wichtigsten?« Und im Fall der Klimaveränderung auch: »Was wird zukünftigen Generationen am wichtigsten sein?« Es liegt auf der Hand, dass diese Fragen außerhalb der Domäne einer jeden Wissenschaft der Gesellschaft liegen. Geld ist ein grobes Maß für Gutheit oder Schlechtheit, das wir hinter uns lassen müssen. Die technische Ökonomik kann uns nicht helfen, unsere Verpflichtung gegenüber künftigen Generationen zu durchdenken. Schon aus der Bezeichnung der Theorie – die »Zukunft diskontieren« – wissen wir, welchen Zweck sie verfolgt. Absurde Diskontierungsrechnungen werden nicht gebraucht; sie dienen nur dazu, unsere Missachtung für die Zukunft zu verschleiern.
Seit etwa 50 Jahren waren Ökonomen und ökonomische Ideen die treibende Kraft hinter dem Trend, sämtliche Risiken und Werte zu quantifizieren. Dieser Trend war ein Teil des Bestrebens, der Ökonomik ein neues Image als neutrale Wissenschaft – ähnlich der Physik – zu verschaffen, anstatt lediglich als eine auf politischen und moralischen Prämissen basierende Form von Analyse zu gelten. Auf der Fassade des Social Science Research Building an der University of Chicago prangt folgende Inschrift (die dem Physiker Lord Kelvin zugeschrieben wird, aber kein eigentliches Zitat ist): »When you cannot measure, your knowledge is meager and unsatisfactory.« (»Wenn du nicht messen kannst, ist dein Wissen dürftig und unbefriedigend.«) Ökonomen haben das interpretiert als: Ja, die Zahlen haben ihre Fehler, aber irgendeine Zahl ist besser als gar keine Zahl . Frank Knigh t, der untypischste der Ökonomen der Chicagoer Schule insofern, als er großen Wert auf die Feststellung legte, dass reine Ungewissheit nicht gemessen werden könne, war weniger optimistisch. Aus seine r Sicht lieferte diese Inschrift den Ökonomen die Legitimation zu der Schlussfolgerung: »Ach, na ja, wenn du nicht messen kannst, dann miss eben trotzdem.« [26]
Ein einfaches Problem mit dem Mantra »irgendeine Zahl ist besser als gar keine Zahl« ist, dass wir nicht in der Lage sind, irrelevante Zahlen nicht zu berücksichtigen. Kahnema n und Tversky s »Ankereffekt« beschreibt, wie Menschen – auch erfahrene Entscheider – von irrelevanten Anfangswerten, sogenannten Ankern, beeinflusst werden, und zwar auch von solchen Zahlen, von denen sie wissen , dass sie irrelevant sind. In einem entsprechenden Experiment sprachen zum Beispiel deutsche Richter, die vor der Urteilsfindung würfelten, längere Haftstrafen aus, wenn sie hohe Zahlen geworfen hatten. [27]
Und ökonomische Zahlen – Wahrscheinlichkeiten und in Geldbeträgen ausgedrückte Werte – bringen ihre eigenen speziellen Probleme mit sich, sodass wieder eine x-beliebige Zahl schlechter sein kann als gar keine Zahl. Manche Dinge, die wichtig sind, werden ignoriert, weil sie schwierig oder unmöglich zu quantifizieren sind. Wie es Einstei n einmal gesagt haben soll: Nicht alles, was gezählt werden kann, zählt, und nicht alles, was zählt, kann gezählt werden. Wir haben in diesem und anderen Kapiteln entsprechende Beispiele gesehen (etwa, dass die RAND Corporation den Tod von Piloten nicht berücksichtigte, weil ihre Analysten sich nicht darüber einigen konnten, welchen Dollarbetrag sie für deren Leben ansetzen sollten). Schlimmer noch: Sobald erst einmal eine Zahl produziert worden ist, verlieren wir in vielen Fällen aus dem Blick, was bei ihrer Berechnung alles ignoriert wurde – und vergessen so, dass die Zahl systematisch verfälscht sein kann. Ein Beispiel ist die auf Wirtschaftsleistung basierende Schätzung der Kosten der Klimaveränderung. Eine etwas weniger offensichtliche Art von Verfälschung entsteht, wenn wir das Risiko ignorieren, dass schlechte Dinge passieren (es lohnt sich, solche Risiken von vornherein zu vermeiden, selbst wenn sie nicht zum Tragen kommen). Schlechte Dinge, die nicht passiert sind, sind wesentlich schwieriger zu quantifizieren als gute Dinge, die passiert sind. Das ist einer der Gründe, warum Investmentbanken risikofreudige Börsenhändler wesentlich besser bezahlen als diejenigen, die in der Bank für Risikokontrolle oder die Einhaltung von Vorschriften zur Einschränkung von Risikofreude verantwortlich sind. Das Bestehen auf Quantifizierung fördert die Neigung zur Waghalsigkeit.
Zwanghafte Quantifizierung bringt noch eine andere Gefahr mit sich: Das Verfahren, das angewendet wird, um die Zahl zu produzieren, kann das Konzept, das wir zu messen versuchen, verfälschen oder falsch darstellen. Am Ende kann das ursprüngliche Konzept sogar völlig verschwinden, weil es in Begriffen der Zahl neu definiert wird. Beginnend mit der Arbeit von Harry Markowit z haben Ökonomen und Finanzexperten stillschweigend Risiko zu Volatilität umdefiniert, was kaum jemandem aufgefallen ist – obwohl sich diese Neudefinition auf vielerlei Weise auf unseren Alltag auswirkt, von Renten bis zu Versicherungen. Dies ist nur eines von vielen Beispielen für die transformierende Macht ökonomischer Zahlen. Solche Zahlen in eine Entscheidung oder Debatte einfließen zu lassen, ist keineswegs ein neutraler Schritt, geschweige denn immer eine Verbesserung, die mehr Genauigkeit ergibt. Vielmehr sind ökonomische Zahlen nur allzu oft undemokratisch, weil sie die moralischen und politischen Probleme hinter einem technischen Nebel verschwinden lassen. Und wie wir gesehen haben, können ökonomische Zahlen, wenn es um die Zukunft geht, die Neigung verstärken, waghalsige Entscheidungen zu treffen und die Interessen künftiger Generationen zu missachten.
Falls es zu einem Umdenken kommen soll, fort vom blinden Vertrauen in solche Zahlen und zurück zum Vertrauen in unser eigenes Urteilsvermögen, wird es allmählich stattfinden, von unten nach oben, vorangetrieben von einzelnen Entscheidungsträgern. Es gibt einige kleine Gründe, optimistisch zu sein.
Erstens hat die Orthodoxie der Entscheidungstheorie stets ein hohes Maß an Wissenschaftlichkeit für sich reklamiert, mit Hinweis auf ihre anspruchsvollen mathematischen Grundlagen. Doch neuere Entwicklungen an der vordersten Front der Entscheidungstheorie führen allmählich dazu, dass auch alternativen Prinzipien (etwa dem Vorsorgeprinzip) mathematische Respektabilität eingeräumt wird, was bedeutet, dass sehr kluge Menschen womöglich beginnen werden, solche alternativen Ansätze ernst zu nehmen. Zweitens: Um Beurteilungen zu treffen, müssen wir zwar Verantwortung übernehmen, aber zumindest haben wir dann etwas zu tun. Heute führen Computer nicht mehr nur Berechnungen durch, sondern können währenddessen auch mithilfe von künstlicher Intelligenz das zugrunde liegende mathematische Modell modifizieren und verbessern. Je mehr künstliche Intelligenz zum Einsatz kommt und den Menschen immer mehr darauf reduziert, über seine Überflüssigkeit nachzugrübeln, desto attraktiver erscheint es letzten Endes, reiner Ungewissheit und moralischen Fragen mit sorgsamen, vorsichtigen, aber typisch menschlichen qualitativen Entscheidungen zu begegnen.