© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023
J. WeimannEinfach zu einfachhttps://doi.org/10.1007/978-3-658-40697-4_7

7. Selbstüberschätzung

Joachim Weimann1  
(1)
LS für Wirtschaftspolitik, Otto-von-Guericke-Universität, Magdeburg, Deutschland
 

Ab jetzt wird es politisch ein wenig unkorrekt, weil es nun darum gehen soll, welche großen und kleinen Fehler reale Menschen häufig begehen. Das geht nicht ohne die Zuweisung von Eigenschaften ab, die man wirklich nicht als „positiv“ oder „erstrebenswert“ bezeichnen würde. Aber natürlich muss sich die geneigte Leserin nicht angesprochen fühlen. Bei Fehlern denkt man ja ohnehin immer eher an die Anderen als an sich selbst – womit wir schon beim Kardinalfehler wären: Selbstüberschätzung.

Das Bild, das in diesem und den nächsten Kapiteln gezeichnet wird, entspringt nicht der überbordenden Fantasie des Autors oder seiner persönlichen Beobachtungen. Es ist das Bild, das vor allem die psychologische Forschung der letzten fünfzig Jahre von den Menschen in entwickelten westlichen Gesellschaften gezeichnet hat. Als Ökonom stellt man das an dieser Stelle mit einer gewissen Genugtuung fest, denn für gemeinhin ist es die Ökonomik, die als die „dismal science“ gilt, die düstere Wissenschaft, die immer nur die schlechten Nachrichten überbringt und den Menschen ständig sagt, dass es leider kein „free lunch“ gibt, weil nun einmal alles seinen Preis hat. Dieses Mal sind es also die Psychologen, die den Menschen sagen, wie schlecht sie in vielen Disziplinen abschneiden.

Allerdings kommen die Ökonomen nicht ganz aus der Nummer raus. Immerhin hat ein berühmter Psychologe, von dem noch viel die Rede sein wird, den Nobelpreis für Ökonomie bekommen. Daniel Kahneman gilt als einer der Begründer der sogenannten Verhaltensökonomik, die die ökonomischen Konsequenzen des psychologischen Menschenbildes untersucht und die heute ein fester Bestandteil der ökonomischen Forschung ist. Vieles von dem, was auf den nächsten Seiten besprochen wird, hat deshalb bereits Eingang in die Wirtschaftswissenschaft gefunden – was sie wahrscheinlich in den Augen vielen Beobachter erst recht zur dismal scince macht.

In einem Interview wurde Daniel Kahneman einmal gefragt, welche Verzerrung, der Menschen unterliegen, er als erste aus der Welt schaffen würde, wenn er dazu die Macht hätte. Die Antwort war: Die Selbstüberschätzung. Verwunderlich ist das nicht, denn die Selbstüberschätzung bildet gewissermaßen die Basis, die Grundlage oder vielleicht sogar den Nährboden für viele andere Verzerrungen, die Menschen davon abhalten sich rational zu verhalten, d. h. keine Fehler bei der Verfolgung ihrer eigenen Ziele zu begehen.

Das vielleicht größte Problem mit der Selbstüberschätzung ist, dass sie bei dem Prozess massiv stört, der für das Thema dieses Buches überragende Bedeutung besitzt. Es geht um den Prozess, in dem Menschen ihren sense making Trieb befriedigen und versuchen sich einen Reim auf das zu machen, was sie in ihrer Umwelt wahrnehmen. Genau dabei überschätzen sie sich gewaltig und das führt zu ungeahnt großen Problemen. Das Bedürfnis, die Dinge so sehen zu können, dass sie einen Sinn ergeben, erklärbar sind und verstanden werden können, ist verantwortlich für die Gestaltung zentraler gesellschaftlicher Strukturen. Ohne den sense making Trieb ist die ungeheure Kraft der Religionen nicht denkbar. Der Trieb kann das TNT sein, mit dem Veränderungen herbeigebombt werden sollen, oder das Pech und der Schwefel, die Dinge gegen alle Logik und gegen alle Widerstände zusammenhalten können. Und immer ist es die Selbstüberschätzung, die dem sense making diese Kraft verleiht, denn bei einer realistischen Einschätzung der eigenen Möglichkeiten und Fähigkeiten können die Überzeugungen, zu denen der Versuch des sense making führt, niemals so fest sein, dass es für ein konsequentes Glaubensbekenntnis jedweder Art und dessen Konsequenzen reicht.

Deshalb ist es wichtig, ein wenig mehr über dieses Phänomen der Selbstüberschätzung zu erfahren. Wie tritt sie auf? Was sind ihre Ursachen? Was sind ihre Folgen? Kann man sie überwinden? Bevor wir uns dieser Aufgabe widmen, ist es sinnvoll, sich mit einem psychologischen Konzept vertraut zu machen, das zu verstehen hilft, warum wir uns selbst überschätzen und zahlreiche andere Fehler begehen.

Exkurs: „Dual processing“

Psychologen gehen davon aus, dass unser Gehirn nach einem zentralen Prinzip der Arbeitsteilung funktioniert, bei dem die Arbeit zwischen dem System 1 und dem System 2 aufgeteilt wird.13 Das bedeutet nicht, dass es keine Zusammenarbeit zwischen den beiden Systemen gibt. Die ist sogar höchst effizient geregelt, schafft aber gelegentlich doch ein paar Probleme. System 1 ist, wie Kahneman es in seinem berühmten Buch „Schnelles Denken, langsames Denken“ definiert, für das schnelle Denken zuständig. Damit sind alle die Prozesse gemeint, die mehr oder weniger automatisch ablaufen, ohne dass wir darüber bewusst nachdenken müssten. Das klingt nach einfacher Routinearbeit, ist aber tatsächlich ein hoch komplexer Vorgang. Wenn Ihnen jemand einen Tischtennisball zuwirft, sind sie problemlos in der Lage, den zu fangen. Klingt einfach und fällt uns ja auch nicht schwer. Aber wir müssen dabei die Flugbahn des Balles berechnen, wobei wir berücksichtigen müssen, dass es sich um einen Zelluloidball handelt und nicht um einen Tennisball und auch nicht um eine leichte Papierkugel. Außerdem müssen wir den genauen Zeitpunkt der Ankunft des Balles bei uns berechnen und wir müssen unsere Bewegungen durch entsprechende Auge-Hand-Koordination so steuern, dass wir die Hand zur richtigen Zeit an der richtigen Stelle haben und mit der richtigen Kraft zufassen. Eine hoch komplexe Aufgabe, aber für unser System 1 eine leichte Übung. Und System 1 kann noch viel mehr. Es verwaltet auch große Teile unseres Gedächtnisses und zaubert bei entsprechender Anfrage blitzschnell die passenden Assoziationen herbei. Wenn wir beispielsweise die Straße entlanglaufen und uns kommt ein Mann mit finsterer Miene, riesigen Muskeln und einem Kampfhund an der Leine entgegen, dann müssen wir nicht darüber nachdenken, ob es ratsam ist, die Straßenseite zu wechseln. System 1 veranlasst das einfach. System 1 kommt beim Klavierspielen zum Einsatz aber es beherrscht auch Fußball, wenn wir es geübt haben, und die Bedienung einer PC-Tastatur hat es auch im Repertoire.

Das System 2 ist für das langsame Denken zuständig. Es springt ein, sobald man für die Beantwortung einer Frage, für eine Entscheidung oder die Lösung eines Problems nachdenken muss. System 2 ist deshalb unter anderem für das logische Denken und für die sorgsame Erinnerung an vergangene Erfahrungen zuständig. Häufig benutzt es dabei Regeln, die es gelernt hat und an die es sich erinnert. Beispielsweise an Rechenregeln, die helfen mathematische Probleme zu lösen, oder an Regeln der Logik. System 2 kommt grob gesprochen immer dann zum Zuge, wenn System 1 nicht mehr weiter weiß oder das System 2 auffordert, Kapazitäten für die rechenaufwändigen Gedanken zur Verfügung zu stellen. Es gibt also eine Zusammenarbeit, die sich nicht nur auf die Aufteilung der verschiedenen Aufgaben beschränkt, sondern weiter geht. System 1 stellt seinem langsamen, aber gründlichen Partner häufig Unterstützungen zur Verfügung, beispielsweise in Form von leicht zugänglichen Erinnerungen oder leicht abrufbaren Analogien.

An dieser Stelle muss man sich klarmachen, dass wir nur über eine begrenzte Hirnkapazität verfügen. Und die ist ziemlich gefordert. Wir denken permanent und wir müssen permanent alles, was wir wahrnehmen, was wir sehen, riechen, tasten oder schmecken, verarbeiten, auswerten und gegebenenfalls in Entscheidungen umsetzen. Auch dabei kommt es zu einem engen Zusammenspiel von System 1 und System 2. Ein etwas makabres Beispiel dazu: Ich las unlängst in der Zeitung von einem Ehepaar, das im Wald frischen Bärlauch gepflückt hatte, um daraus ein schmackhaftes Pesto zu machen. Leider haben sie dabei den Bärlauch mit einer ähnlich aussehenden, giftigen Pflanze verwechselt. Als sie das Pesto aßen, stellten sie fest, dass es bitter schmeckte (System 1). Die Frau aß daraufhin nicht weiter. Das war eine richtige Entscheidung von System 2, das sich vermutlich daran erinnert hat, dass ein bitterer Geschmack ein Alarmsignal ist. In dem Zeitungsartikel hieß es weiter sinngemäß: „Der Mann aß weiter, was er mit dem Leben bezahlt hat.“ Offensichtlich hat das System 1 des Mannes geschlafen und System 2 nicht rechtzeitig zu Hilfe gerufen. Oder System 2 hat die Warnung von System 1 (Achtung: Bitterer Geschmack) in den Wind geschlagen und ist nicht aktiv geworden (hab dich nicht so, ist halt Bärlauch). Das ist durchaus plausibel, denn System 2 ist grundsätzlich darauf bedacht, Aufgaben möglichst schnell wieder an System 1 abzugeben. Das ist keine Laune der Natur, sondern eine sehr ökonomische Reaktion auf die Knappheit der Rechenressourcen. Man kann sich nicht mit zu vielen Dingen befassen, dann schafft man gar nichts mehr! Aber der Wunsch nach einem effizienten Umgang mit den zur Verfügung stehenden Ressourcen hat seine Tücken, wie nicht nur das Beispiel mit dem Bärlauch zeigt. Mitunter kommt es vor, dass System 1 entscheidet, obwohl System 2 eigentlich gefragt ist. Wir entscheiden dann „intuitiv“ oder „aus dem Bauch heraus“ und oft genug entscheiden wir dann falsch. Es gibt dafür ein in der Verhaltensökonomik und der Psychologie oft verwendetes Beispiel, das in unseren weiteren Überlegungen noch eine Rolle spielen wird und das deshalb hier erwähnt sei. Gemeint ist das sogenannte Schläger-Ball Problem:

Ein Schläger und ein Ball kosten zusammen 11 Euro. Der Schläger ist genau 10 Euro teurer als der Ball. Wieviel kostet der Ball?

System 1 ist mit dieser Aufgabe schnell fertig, denn intuitiv ist die Antwort, dass der Schläger 10 und der Ball 1 € kostet. Ist aber falsch. Wenn der Ball 1 € kostet, dann muss der Schläger 1 + 10 = 11 € kosten, was nicht sein kann, denn dann wäre ja der Gesamtpreis 12 und nicht 11 €. Wenn man System 2 einschaltet und über das Problem nachdenkt, wird die richtige Lösung schnell klar. Der Ball kosten 50 Cent und der Schläger 10,50 €. Das Schläger Ball Problem ist Teil des sogenannten „Cognitive Reflexion Test“ der auf Frederick (2005)14 zurückgeht, mit dem überprüft wird, ob Probanden dazu neigen eher intuitiv zu entscheiden oder in der Lage und bereit sind, analytisch zu denken. Die anderen beiden Fragen des Tests sind die folgenden:

5 Maschinen schaffen in 5 Minuten 5 Stücke (wovon auch immer) zu produzieren. Wie lange brauchen 100 Maschinen, um 100 Stücke zu produzieren?

Ein See wird von Seerosen überwuchert. Jeden Tag verdoppelt sich die Anzahl der Seerosen. Es dauert 48 Tage, bis der halbe See bedeckt ist. Wie lange dauert es, bis ein Viertel des Sees bedeckt ist?

Die intuitiven Antworten auf diese Fragen sind klar: 100 min und 24 Tage. Die richtigen Antworten zu finden überlasse ich dem System 2 des Lesers.

Kommen wir zurück zur Selbstüberschätzung. Beginnen wir mit einem eher harmlosen, weil eher positiven Aspekt der allgemeinen Neigung zur Selbstüberschätzung. Diese steht in einem engen Zusammenhang mit einer optimistischen Grundhaltung.15 Ein Mensch, der seine eigenen Fähigkeiten überschätzt, wird hinsichtlich der Frage, ob er eine bestimmte Aufgabe bewältigen wird, sehr optimistisch sein. Das kann durchaus positive Folgen haben. Die Gründung vieler Start-Ups dürfte darauf zurückzuführen sein, dass die Gründer fest davon ausgehen, dass sie Erfolg haben werden. Dieser Optimismus dürfte zu einem großen Teil auf Selbstüberschätzung beruhen, denn die Empirie zeigt, dass die allermeisten Start-Ups scheitern. Würde man die Statistik zu Rate ziehen anstatt die Selbsteinschätzung, würde man zu deutlich realistischeren Erwartungen kommen. Aber ohne diesen Optimismus würden die am Ende erfolgreichen Start-Ups vermutlich auch nicht gegründet, denn Erfolg ist niemals sicher und deshalb funktioniert eine Gründung nur mit einer optimistischen Grundhaltung.

Aber auch in schon bestehenden Unternehmen ist Optimismus mitunter wirksam und auch dort kann er auf einer Selbstüberschätzung beruhen. Kahneman (2012) weist darauf hin, dass dieser Effekt besonders wirksam sein kann, wenn Gruppen Entscheidungen zu treffen haben. Gruppen entscheiden anders als Individuen. Innerhalb einer Gruppe kann es passieren, dass optimistische, an Selbstüberschätzung leidende Menschen die Führerschaft übernehmen und eher bedächtig abwägende, vorsichtige Menschen an die Seite drängen. Das kann dazu führen, dass der Optimismus die gesamte Gruppe erfasst und sie unfähig macht die Risiken, die mit einer Entscheidung verbunden sein können, noch wahrzunehmen.

Selbstüberschätzung führt nicht nur zu einem mitunter fruchtbaren Optimismus, sie führt auch zu grundlegenden Problemen bei der Entscheidungsfindung. Dabei äußert sie sich in vielfältiger Weise. Ganz allgemein kann man sie folgendermaßen beschreiben. Wenn es darum geht, Dinge zu bewerten, Entscheidungen zu treffen oder Informationen zu sammeln, sind Menschen stets in der Gefahr systematische Fehler zu begehen. Es wäre deshalb eine vernünftige Strategie, sich die möglichen Fehlerquellen zu vergegenwärtigen und sich gezielt zu fragen, ob man vielleicht dem einen oder anderen Irrtum unterlegen ist. Selbstüberschätzung führt dazu, dass genau diese Prüfung unterbleibt, weil „man“ ja weiß, dass einem so etwas nicht passieren kann. Schauen wir uns ein paar Fehler, die auf diese Weise übersehen werden, einmal an.

Als erstes sei der sogenannte „Rückschaufehler“ genannt. Er eignet sich als Einstieg deshalb besonders gut, weil er sehr gut durch experimentelle Studien belegt ist.16 Nehmen wir an, Sie werden heute nach der Wahrscheinlichkeit gefragt, mit der ihrer Meinung nach ein unsicheres zukünftiges Ereignis eintreten wird. Beispielsweise fragt man Sie im Jahr 2021 danach mit welcher Wahrscheinlichkeit Deutschland 2022 in Katar Fußball Weltmeister wird. Sagen wir, Sie antworten darauf, dass das mit einer Wahrscheinlichkeit von 10 % eintritt. Danach warten wir ein Jahr und stellen fest, wer Weltmeister wird. Nehmen wir an, es wird tatsächlich Deutschland. Jetzt fragen wir Sie danach, wie hoch sie diese Wahrscheinlichkeit im Jahr 2021 eingeschätzt haben. Wenn Sie den Rückschaufehler begehen (und das passiert im Experiment signifikant oft), dann werden Sie behaupten, dass sie die Wahrscheinlichkeit höher und zwar deutlich höher als 10 % eingeschätzt haben. Das bedeutet aber, dass Sie in der Rückschau ihre damalige prognostische Fähigkeit deutlich überschätzen – ein typischer Fall von Selbstüberschätzung.

Wichtig ist an dieser Stelle, dass mit dem Rückschaufehler verbunden ist, dass man seine Fähigkeit, den Weltenlauf – oder zumindest den Ausgang einer Fußball Weltmeisterschaft – richtig vorauszusagen, deutlich überschätzt. Das Weltverständnis, das nur im Lichte der eigenen Selbstüberschätzung existiert, verleitet sehr leicht zu dem Schluss, dass man auch die Gegenwart und die Zukunft richtig verstehen kann, also ein wirklich gutes Modell besitzt, mit dem man die Welt erklären kann.

Eng verwandt mit dem Rückschaufehler ist der sogenannte Ergebnisfehler. Damit bezeichnet man die Neigung, die Qualität von Entscheidungen ausschließlich davon abhängig zu machen, zu welchem Ergebnis eine Entscheidung geführt hat. Das ist in einer Welt, in der Entscheidungen in aller Regel unter Unsicherheit getroffen werden, aber ein sehr zweifelhaftes Verfahren. Ein einfaches Beispiel macht den Punkt klar. Stellen wir uns zwei Geschäftsführer von mittelständischen Unternehmen vor. Der erste möchte den Wert des Unternehmens dadurch steigern, dass er ein neues Produkt auf den Markt bringt. Er führt eine sorgfältige Marktanalyse durch, investiert in die Entwicklung und das Marketing und macht auch sonst alles, was die besten Lehrbücher der BWL in so einem Fall vorschlagen. Schließlich deutet alles darauf hin, dass das Produkt einschlagen und das Ganze ein Erfolg wird. Leider kommt es dann doch anders und das neue Produkt entpuppt sich als Flop. Der zweite Geschäftsführer macht sämtliche verfügbaren liquiden Mittel des Unternehmens locker, fährt damit nach Monte Carlo in die Spielbank und setzt alles auf Rot. Rot fällt und der Geschäftsführer hat auf einen Schlag die liquiden Mittel der Firma verdoppelt. Und das auch noch steuerfrei. Hat der erste alles falsch und der zweite alles richtig gemacht? Sicher nicht. Wem von den beiden würden Sie Ihre Ersparnisse anvertrauen, um sie anzulegen? Keine Frage, selbstverständlich nicht dem Glücksspieler, sondern dem ersten Geschäftsführer.

Das reine Ergebnis, zu dem eine Entscheidung führt, ist also kein verlässlicher Indikator dafür, ob derjenige, der die Entscheidung getroffen hat, eine gute, vernünftige Entscheidung getroffen hat oder nicht. Die Qualität des Entscheidungsverhaltens lässt sich nicht allein am Ergebnis ablesen. Wenn wir das tun, dann vernachlässigen wir die Tatsache, dass der Zufall eben eine große Rolle spielt, wenn es um Erfolg oder Misserfolg geht. In dem Beispiel wird das natürlich vollkommen klar und jeder wird sofort sehen, dass es eine ziemlich riskante und sehr gefährliche Strategie ist, sein Glück im Spielkasino zu suchen. Aber nicht nur dort spielt der Zufall eine große Rolle. Auch der erste Geschäftsführer hat in gewisser Weise auf eine Lotterie gesetzt, denn der Ausgang der Produkteinführung war nicht sicher prognostizierbar. So wie man nicht weiß, wohin die die Kugel des Rouletts rollt, weiß man auch nicht sicher, ob das Ergebnis der Marktforschungsstudie die wahre Nachfrage nach dem neuen Produkt richtig vorhersagt. Der Unterschied zwischen den beiden Geschäftsführern liegt darin, dass der erste durch sein Verhalten alles getan hat, das Risiko des Scheiterns so klein wie eben möglich zu machen, und nur deshalb das Produkt einführte, weil dieses Risiko gering war. Das zu tun zeichnet einen guten Unternehmensführer aus.

Erfolg und Misserfolg liegen oft eng beieinander und es ist nicht selten der reine Zufall, der darüber entscheidet, was eintritt. Aber daran glauben Menschen nicht gern. Den Zufall kann man nicht beherrschen, man ist ihm ausgeliefert. Zwar kann man die Wahrscheinlichkeiten, mit denen etwas erfolgreich ist, beeinflussen, am Ende bleibt aber ein Stück Zufall übrig, das wir nicht wirklich in den Griff bekommen können. Das macht Angst, denn dem Zufall ausgeliefert zu sein bedeutet, dass man selbst machtlos ist. Deshalb haben viele Menschen die Neigung zu glauben, dass alles seinen Grund hat, dass immer und überall klar erkennbare kausale Zusammenhänge am Werk sind. Und deshalb machen sie die Güte einer Entscheidung eben doch häufig am Ergebnis fest, denn „Das kann doch kein Zufall sein!“.

Ein schönes Beispiel dafür lässt sich im Profisport beobachten, vor allem im Fußball. Trainer können ein Lied davon singen, dass ihre Leistung an den Resultaten gemessen werden, die ihre Mannschaften einfahren. Aber die hängen nun einmal in erheblichem Maße vom Zufall ab. Und eine Niederlagenserie bedeutet noch lange nicht, dass der Trainer schlecht arbeitet. Auch beim Würfeln kommt es vor, dass man mehrmals hintereinander nur eine Eins zustande bringt. Ein hübsches Beispiel liefert einer der bekanntesten deutschen Trainer, Jürgen Klopp. Nachdem er mit Borussia Dortmund große Erfolge gefeiert hatte, geriet er in einer Saison in eine Niederlagenserie, die er nicht stoppen konnte und die dazu führte, dass seine Mannschaft nach der Hinrunde der Bundesliga auf einem Abstiegsplatz stand. Entgegen den üblichen Mechanismen hielt der Verein in diesem Fall dennoch an seinem Trainer fest und tatsächlich führte der die Borussia noch auf den siebten Tabellenplatz, der zur Teilnahme an einem internationalen Wettbewerb berechtigte. Die katastrophalen Ergebnisse der Hinrunde waren also keineswegs ein verlässlicher Hinweis darauf gewesen, dass Klopp als Trainer versagt hatte. In den meisten anderen Fällen geht das weniger gut für die Trainer aus, weil es nach ein paar Niederlagen auf der Tribüne und in den Medien die Forderung gibt, den Trainer rauszuwerfen, denn diese Niederlagen können doch kein Zufall sein! Aber nicht nur Fußballtrainer, auch Managerinnen und Politiker oder Entscheidungsträger in öffentlichen Ämtern müssen sich damit arrangieren, dass der Einfluss des Zufalls auf die Ergebnisse ihrer Entscheidungen vom Publikum nicht gesehen wird. Stets ist die Person schuld, die eine Entscheidung getroffen hat, die sich später als falsch herausstellt, denn Menschen glauben an Ursache und Wirkung, aber nicht an die Macht des Zufalls.

Eine direkte Folge des Ergebnisfehlers ist, dass die betroffenen Entscheider ihr Verhalten entsprechend anpassen. Das führt vor allem dazu, dass sie sich für Alternativen entscheiden, die möglichst geringe Risiken beinhalten, und sich dadurch abzusichern versuchen, dass sie sich eng an vorgegebene Regeln halten. Es gibt Situationen, in denen ist genau das durchaus angebracht, aber ebenso gibt es viele Situationen, in denen Entscheider eigentlich besser beraten wären, wenn sie gewisse Risiken eingingen.

Genauso wie der Rückschaufehler hat auch der Ergebnisfehler zur Folge, dass Menschen, die ihn begehen, der Illusion erliegen, sie wüssten, was richtig und was falsch ist. Als der Bundestrainer Jogi Löw seinen Rücktritt erklärte (das war mitten in der Corona Pandemie), las ich das Bonmot, dass es deshalb so schwer sei einen Nachfolger zu finden, weil die 80 Mio. Bundestrainer, die es in Deutschland gäbe, gerade alle als Epidemiologen oder Virologen beschäftigt seien. Netter kann man das Phänomen der Selbstüberschätzung kaum beschreiben. Der Ergebnisfehler ist ein Ausdruck davon.

Ein weiteres Element, das dazu beiträgt, dass Menschen zur Selbstüberschätzung neigen, ist eine Regel, die Kahneman (2012) die WYSIATI Regel genannt hat. Das steht für „What You See Is All There Is“. Gemeint ist damit, dass Menschen dazu neigen, bei der Beurteilung von Situationen nur auf die Informationen zurückzugreifen, die ihnen leicht verfügbar sind. An dieser Stelle kommt es wieder einmal zu einem Fehler beim Zusammenspiel von System 1 und System 2. Wenn man ein Urteil fällen muss, oder eine Entscheidung zu treffen hat, dann müssen Informationen verarbeitet werden. Wie würde System 2 dabei vorgehen? Wie sähe eine rationale Herangehensweise aus? Als erstes würde man eine Liste der Informationen erstellen, die für ein Urteil oder eine fundierte Entscheidung notwendig sind. Der nächste Schritt ist die Beschaffung dieser Informationen. In aller Regel gelingt das nicht vollständig, weil es zu viel Mühe und Zeit kostet, wirklich alle Informationen aufzutreiben. System 2 sollte sich darüber im Klaren sein, also wissen, dass jetzt eine Entscheidung unter unvollständiger Information zu treffen ist. An dieser Stelle gilt es zu überlegen, ob das möglich ist oder ob die fehlende Information so essenziell ist, dass es sich entweder doch lohnt sie zu beschaffen oder eine Entscheidung ohne die Information eben nicht möglich ist.

System 1 funktioniert da ganz anders: Es nimmt die Information zur Hand, die leicht verfügbar ist, die gewissermaßen automatisch vom Gedächtnis bereitgestellt wird, und belässt es dabei. Was man sieht ist alles, was man braucht. Warum sich Mühe geben und weitere Information beschaffen? Dazu müsste an System 2 übergeben werden und das macht System 1 nur im Notfall. Der liegt aber nicht vor, wenn es gelingt aus den Informationen, die leicht verfügbar sind, schnell eine konsistente Geschichte zu entwickeln. Die Konsistenz ist dabei sehr wichtig, denn wir beurteilen nicht die Qualität unseres Urteils (und auch nicht die der Information, die wir haben), sondern vor allem die Konsistenz der Geschichten, die wir uns daraus zusammenreimen. System 1 ist nur zu bereit, an diese Geschichte zu glauben, und genau das führt zu einer grandiosen Selbstüberschätzung. Wir glauben Dinge zu verstehen, die wir aufgrund der verfügbaren Information gar nicht verstehen können, und gelangen zu falschen Urteilen, von denen wir tief überzeugt sind, weil die Geschichten, die uns zu diesen Urteilen bringen, so wunderbar konsistent und in sich geschlossen sind.

Ein sehr illustratives Beispiel für diesen Effekt der WYSIATI Regel liefert wieder einmal die klimapolitische Diskussion um den Europäischen Emissionshandel. Der wurde am Anfang des Buches ja bereits erwähnt und kurz erklärt. Um diesen Emissionshandel gibt es seit vielen Jahren immer wieder erbittert geführte Diskussionen. Die am schlechtesten informierten Gegner des Emissionshandels glauben daran, dass es sich dabei um eine Art Ablasshandel handelt, mit dem man sich vom Klimaschutz freikaufen kann. Das ist natürlich barer Unsinn, denn der Emissionshandel macht genau das Gegenteil. Aber konzentrieren wir uns auf die Kritiker, die typischerweise Sätze sagen wie diesen: „Nun, eigentlich, in der Theorie ist der Emissionshandel natürlich eine feine Sache und ein gutes Instrument. Aber wir haben ja gesehen, dass er in der Praxis nicht funktioniert. Die Preise für CO2-Rechte waren ja viel zu niedrig.“ Manchmal kommt dann noch der Satz „Es gibt einfach zu viele Emissionsrechte.“. Menschen, die so argumentieren, sind ganz sicher weit überdurchschnittlich gut über Klimapolitik im Allgemeinen und den Emissionshandel im Speziellen informiert. Und dennoch folgen sie der WYSIATI Regel und die konsistente Geschichte, die sie aus den leicht verfügbaren Informationen gewinnen, entpuppt sich bei genauerem Hinsehen unter Verwendung etwas tiefer gehender Informationen als falsch.

Wie schon ausgeführt, besteht ein ETS (Emission Trading System) aus zwei Stufen und auf der ersten Stufe wird festgelegt, wie hoch die Jahresemissionen im Emissionshandelssektor noch sein dürfen. Die EU hat das ab 2012 so festgelegt, dass sich die Höchstmenge in der Weise verändert, dass bis 2030 eine CO2-Reduktion von 40 % erreicht wird. Das war das politisch ausgehandelte Vermeidungsziel, auf das sich die EU-Staaten geeinigt hatten. Die Anzahl der Emissionsrechte war an diesem Ziel orientiert, sie entsprach der jährlichen CO2-Menge, die mit einer Reduktion um 40 % vereinbar war. Zu sagen, die Anzahl der Emissionsrechte sei zu hoch, macht nicht viel Sinn, denn „zu hoch“ bezeichnet eine Relation, d. h. man müsste angeben, in welcher Hinsicht „zu hoch“. Im Hinblick auf das politische Ziel der EU war die Anzahl genau richtig. Wenn man also Kritik üben will, dann müsste man dieses Ziel als zu lasch kritisieren und eine stärkere Reduktion der CO2-Emissionen fordern – was aber nicht gefordert wurde.

Die Geschichte vom Versagen des ETS wird vor allem durch die sehr niedrigen Preise „konsistent“, die zwischen 2012 und 2019 auf dem Markt für Emissionsrechte herrschten. Sie lagen teilweise in der Größenordnung von 5 € pro Tonne. Die Geschichte dazu ist einfach (deshalb war sie so erfolgreich): Wenn der Preis so niedrig ist, hat doch niemand einen Anreiz CO2 zu vermeiden und deshalb funktioniert das ganze System nicht. Außerdem lohnen sich bei einem so niedrigen Preis weder die Wärmepumpe noch die Windkraft – und die brauchen wir doch! Auf den ersten Blick – und mehr riskieren wir nicht, wenn wir der WYSIATI Regel folgen – ist das sehr plausibel. Schließlich hat CO2-Vermeidung deshalb einen Sinn, weil man durch sie der Notwendigkeit entgeht, ein Emissionsrecht kaufen zu müssen. Wenn das aber billig ist, dann kauft man eher das Recht, als zu vermeiden – alles klar!

Leider wird dabei ein entscheidender Punkt übersehen. Wieviel CO2 in einem ETS einzusparen ist, hängt nicht vom Preis ab, sondern nur von der Menge der ausgegebenen Zertifikate. Der Preis, der sich auf dem Markt für Emissionsrechte einstellt, signalisiert lediglich, zu welchen Kosten der politische Plan (Absenkung um 40 %) realisiert werden kann. Was man verstehen muss, ist, dass die Mengenvorgaben der Politik den Preis bestimmen und nicht der Preis die eingesparte CO2-Menge. Der Preis entspricht nämlich in etwa den Grenzkosten der Vermeidung bei der Quelle, die zuletzt Emissionsrechte verkauft hat. Man kann es auch so ausdrücken: Die niedrigen Preise zeigen, dass das politische Ziel zu sehr geringen Kosten erreichbar war. Sie sind also eigentlich eine gute Nachricht und zeigen, wie exzellent der Emissionshandel funktioniert, denn dessen Sinn ist es ja gerade, die politische Vorgabe zu minimalen Kosten zu realisieren.

Zu dieser Einsicht zu gelangen, ist aber nicht möglich, wenn man sich mit der auf den ersten Blick plausiblen Geschichte zufriedengibt, die behauptet, dass niedrige Preise dazu führen, dass kein CO2 vermieden wird. Das ist sehr schade, denn das bedeutet gleichzeitig, dass man den eigentlich möglichen Schluss nicht zieht, der da lautet: Weil der Emissionshandel dazu geführt hat, dass wir zu sehr niedrigen Kosten vermeiden können, ist es möglich, das politische Klimaziel ambitionierter zu formulieren. Das hätten wir schon vor Jahren tun können, aber leider hat sich die einfache Geschichte durchgesetzt und nicht die wahre Geschichte.

Dass die WYSIATI Regel tatsächlich zu einer erheblichen Selbstüberschätzung führt, hat sich mir persönlich in vielen Diskussionen über die Klimapolitik immer wieder gezeigt. Es kam dabei schon mal vor, dass mir Menschen erklärt haben, offenbar verstünde ich nichts von der Wirtschaft, weil ich nicht verstanden hätte, wie ein Preis wirkt. Nun ja, ich gebe gerne zu, dass ich von vielen Dingen, auch innerhalb des ökonomischen Universums, das ziemlich groß ist, wirklich sehr wenig verstehe, aber nachdem ich mich jetzt seit 45 Jahren professionell (das Studium eingerechnet) mit Ökonomik und seit 30 Jahren mit dem Emissionshandel beschäftigt habe, denke ich schon eine gewisse Expertise mitzubringen – zumindest, wenn es um das Verständnis von Märkten geht. Meine Diskussionspartnerinnen waren dagegen zumeist nicht ökonomisch vorgebildet – was sie nicht daran hinderte, sich selbst zu attestieren, dass sie den Emissionshandel durch und durch verstanden hätten. Selbstüberschätzung kann schon sehr mächtig sein.

Zu den vielen Dingen, die ganz allgemein dazu beitragen, dass sich Menschen sehr leicht selbst überschätzen, zählen auch eine Reihe von Heuristiken, die Menschen benutzen, wenn sie Entscheidungen treffen müssen. Im Sinne von Kahneman (2012) lassen sich Heuristiken als Instrumente der Entscheidungsvereinfachung verstehen. Kurz gesagt ersetzen Heuristiken komplizierte Fragen durch einfach zu beantwortende Fragen. Es gibt eine ganze Reihe von Heuristiken, die sich auf die Selbstüberschätzung auswirken, aber besonders bedeutsam dürfte in diesem Zusammenhang die sogenannte Affektheuristik sein. Wieder ist dabei das Zusammenspiel von System 1 und 2 von großer Bedeutung. System 1 macht sich bei seiner Arbeit die Tatsache zunutze, dass Menschen über ein differenziertes emotionales System verfügen, das es erlaubt, bestimmten Erinnerungen und Assoziationen Gefühle zuzuordnen. Werden wir mit einem konkreten Phänomen konfrontiert, kann System 1 durch die Verknüpfung von Wahrnehmung und Gefühl sehr schnell eine Bewertung aus dem Hut zaubern. Wenn wir eine Landschaft sehen, wissen wir sofort und ohne nachzudenken, ob wir sie schön oder hässlich finden und ob uns jemand sympathisch ist, entscheidet sich oft in den ersten Sekunden einer Begegnung.

Die Affektheuristik ersetzt die mitunter komplizierte Frage „Was denke ich darüber“ durch die einfache Frage, „Was fühle ich dabei?“17. Diese Frage kann System 1 leicht beantworten, weil es das passende Gefühl bereits abgespeichert hat und es spielend mit dem verbindet, was es gerade zu bewerten gilt. Solange sich das auf Dinge bezieht, bei denen unsere Gefühle tatsächlich wichtig sind – wie bei der Frage, ob wir eine Landschaft schön, eine Stadt interessant oder einen Menschen sympathisch finden – ist das sehr hilfreich, weil es eine schnelle und effiziente Bewertung vieler Dinge erlaubt, die richtig zu bewerten (im Sinne unserer wahren Gefühle) wichtig ist. Zu einem Problem wird die Affektheuristik dann, wenn sie die Bewertung von Dingen übernimmt, deren Bewertung wir doch lieber System 2 überlassen sollten. Leider geschieht das relativ oft und es gibt eindrucksvolle Experimente, die das zeigen.

Slovic und Andere (2000) zeigen, dass sich eine affektive Bewertung auch bei Experten nachweisen lässt. Probanden wurden zunächst danach gefragt, als wie gefährlich sie verschiedene Gesundheitsrisiken einschätzen. Beispielsweise Passivrauchen, das Trinken von Alkohol, die Einnahme von Aspirin und anderes mehr. Danach wurden sie gefragt, wie gefährlich sie es einschätzen, wenn jemand 1 % der als gefährlich eingeschätzten Menge zu sich nimmt, also beispielsweise einen Fingerhut Wein trinkt. Eigentlich hätten die Gesundheitsexperten natürlich zu dem Schluss kommen müssen, dass in allen Fällen 1 % der kritischen Menge völlig unproblematisch ist, gleichgültig, welchen Stoff man betrachtet. Dem war aber nicht so. Vielmehr wichen die einzelnen Angaben stark voneinander ab und waren hoch mit den Angaben zu den Risiken der Stoffe korreliert. Wird mit einem Stoff eine große Gefahr assoziiert, hat der entsprechende Affekt auch dann eine Wirkung, wenn es vollkommen unangebracht ist.

Denes-Ray und Epstein (1994) demonstrieren sehr eindrucksvoll, wie weit die Affektheuristik gehen kann. Ihre Probanden mussten zwischen zwei Urnen wählen, in denen sich rote und weiße Bohnen befanden. Danach wurde zufällig eine Bohne gezogen und die Probanden gewannen einen Preis, wenn aus der gewählten Urne eine rote Bohne gezogen wurde. Der Inhalt der Urnen wurde den Versuchspersonen gezeigt und er wurde verbal beschrieben. In der einen Urne waren 2 rote und 8 weiße Bohnen, in der anderen Urne waren 10 rote und 90 weiße Bohnen. Die Wahrscheinlichkeit, den Preis zu gewinnen, war damit bei der ersten Urne doppelt so hoch wie bei der zweiten (20 % gegenüber 10 %). Dennoch wählten die meisten Versuchspersonen die zweite Urne „weil dort mehr rote Bohnen drin waren.“. Eine größere Anzahl von roten Bohnen zu sehen, vermittelt das Gefühl, dass es wahrscheinlicher ist, dass eine solche gezogen wird, als wenn nur mickrige zwei Bohnen rot sind.

Eine für das Thema dieses Buches sehr bedeutsame Implikation der Affektheuristik besteht darin, dass Gefühle auch dann eine wichtige Rolle spielen, wenn es um die Bewertung von Technik und Wissenschaft geht. In aller Regel haben Technologien, Produkte der chemischen Industrie oder Medikamente zwei Seiten. Sie bieten Vorteile, aber sie haben auch Nachteile oder bergen Risiken. Dabei gilt, dass zwischen den Vorteilen und den Nachteilen kein fester Zusammenhang besteht. Eine sehr vorteilhafte Technik kann sowohl hohe als auch niedrige Risiken bergen und eine riskante Technik kann mehr oder weniger große Vorteile haben. Aber schon in einem sehr frühen Experiment haben Fischhoff und Andere (1975) gezeigt, dass die Bewertung von Vorteilen und Risiken nicht unabhängig voneinander erfolgt. Sie haben Probanden beispielsweise nach dem Nutzen und den Risiken der Gabe von Antibiotika gefragt, den Einsatz von Röntgenstrahlen oder dem Konsum von Alkohol. Das Ergebnis war, dass es eine sehr starke negative Korrelation zwischen den Vorteilen und den Risiken gab. Je vorteilhafter eine Technik eingeschätzt wurde, desto weniger Risiken wurden ihr attestiert und umgekehrt. Finucane et al. (2000) bestätigen den Verdacht, dass vor allem Risikoeinschätzungen eher eine Sache des Gefühls sind, als dass sie auf einer sorgfältigen Bewertung von Informationen beruhen. Da Gefühle sich sowohl auf die Vorteile einer Technologie als auch auf deren Risiken richten, erklärt dies die starke Korrelation.

Es ist leicht Beispiele dafür zu finden, dass die Affektheuristik bei der Diskussion um den Einsatz von Technologien eine große Rolle spielt. Besonders ausgeprägt findet man die von Gefühlen geleitetete Diskussion im Bereich der Energiepolitik. Die Gegner und Befürworter von Atomkraftwerken und Windkraftanlagen tauschen selten sachliche Argumente aus. Atomkraft ist gefährlich, hat wenig Nutzen, aber massive Risiken und Windkraft ist gut, die Nachteile nur eingebildet. Oder: Atomkraft ist sicher, hat massive Vorteile und Windkraftanlagen zerstören die Landschaft und taugen nicht für eine sichere Energiegewinnung. Was man praktisch nie findet, ist die Einschätzung, dass Atomkraft große Vorteile hat, aber auch große Probleme aufwirft und dass es sich bei der Windkraft ähnlich verhält.

Ein anderes Beispiel findet sich in dem Nutzen von Medikamenten oder von Impfungen. Für Impfgegner ist der Nutzen einer Impfung gering, aber die Risiken sind hoch und Befürworter von Impfungen sehen wenig Risiken aber einen hohen Nutzen für sich und andere. Wenn es vor allem Gefühle sind, die die Bewertung bestimmen, dann wird auch leichter verständlich, warum Impfgegner sachlichen Argumenten nicht viel abgewinnen können. Alle Hinweise auf die empirische Evidenz der Wirksamkeit von Impfungen und alle Belege dafür, dass es unmöglich ist durch Impfungen autistisch zu werden, verfangen dann nicht, weil sie das Gefühl nicht beseitigen können, das intensiv dazu rät, vor der Impfnadel zu fliehen.

Die Affektheuristik erlaubt es Menschen, Dinge sehr schnell und einfach zu bewerten und gaukelt deshalb ein Weltverständnis vor, das mit einer erheblichen Selbstüberschätzung einhergeht. Kahneman (2012) fasst die Wirkung, die das hat, sehr gut zusammen:

„Die Affektheuristik vereinfacht unser Leben, indem sie eine Welt erschafft, die viel einfacher ist als die Wirklichkeit. In der imaginären Welt, in der wir leben, haben gute Technologien nur geringe Kosten, schlechte Technologien haben keinen Nutzen, und alle Entscheidungen sind leicht. In der realen Welt dagegen müssen wir Nutzen und Kosten oftmals schmerzlich gegeneinander abwägen.“ (S. 176)

Selbstüberschätzung versetzt uns in die Lage zu glauben, dass die einfache, imaginäre Welt das richtige Modell ist, um die Welt um uns herum zu erklären. Auf diese Weise liefert die Selbstüberschätzung den Nährboden dafür, dass unser Streben danach, den sense seeking Trieb zu befriedigen, erfolgreich ist. Aber das ist noch nicht alles. Es gibt nicht nur den passenden Nährboden, es gibt auch eine Reihe sehr effektiver Abwehrmechanismen, die dafür sorgen, dass die Sinngebung, zu der wir gelangen, vor den hässlichen Angriffen der Realität, der Fakten und Daten geschützt wird. Bevor wir uns damit befassen, ist es sinnvoll, einen Begriff einzuführen, der momentan eine gewisse Karriere macht und der dabei hilft, das sense making noch etwas schärfer zu fassen.