|82|Kapitel 4
Das adaptive Atom
Nach welcher Logik denkt und handelt der Mensch in schwierigen oder unüberschaubaren Situationen? Die moderne Psychologie ist der Ansicht, dass der Mensch nur bescheidene Fähigkeiten hinsichtlich deduktiver Logik besitzt und diese auch nur in bescheidenem Maß einsetzt. Unsere Fähigkeit, Muster – Verhaltensweisen, die offensichtlich evolutionäre Vorteile sichern – zu erkennen, wiederzuerkennen und in einen Zusammenhang zu bringen, ist jedoch hervorragend ausgeprägt. In komplizierten Problemsituationen suchen wir daher nach Mustern.
Brian Arthur1
Im Dezember 1992 machte sich der ehemalige Vizechef von Salomon Brothers, John Meriwether, daran, für einen triumphalen Auftritt auf den Märkten ein unschlagbares Team zusammenzustellen. Im Lauf seiner 30-jährigen Karriere hatte sich Meriwether den Ruf eines außergewöhnlich cleveren Brokers und Finanzexperten verdient, und als Talentmagnet erwies er sich als gleichermaßen begnadet. In einem kühnen ersten Streich engagierte Meriwether die Wirtschaftswissenschaftler Myron Scholes und Robert Merton, die für ihre brillante mathematische Methode, mit der Analysten den wahren Wert komplexer »Derivate« berechnen können, mit dem Wirtschaftsnobelpreis ausgezeichnet worden waren. Derivate – auch abgeleitete Finanzgeschäfte genannt – sind verbindliche Börsenverträge, zu denen unter anderem Optionen gehören. Mit dem Kauf einer Option erwirbt sich der Käufer zum Beispiel das Recht, nächstes Jahr ein Wertpapier oder ein Produkt zu seinem heutigen Preis zu kaufen. Mit Optionen wird ebenso gehandelt wie mit Aktien, die spannende Frage ist jedoch, ob eine solche Option tatsächlich hält, was sie verspricht.
Der Wert einer Aktie sollte im Idealfall widerspiegeln, welche |83|zukünftigen Profite ein Unternehmen erwirtschaften wird und mit welcher Dividendenausschüttung die Aktionäre rechnen können. Der Wert einer Option hängt jedoch sowohl vom aktuellen wie vom zukünftigen Wert, also zum Zeitpunkt der Fälligkeit der betreffenden Aktie oder des Produkts ab. Gemeinsam mit dem verstorbenen Wirtschaftswissenschaftler Fischer Black zeigten Merton und Scholes, wie mithilfe der Mathematik einige der Unsicherheitsfaktoren eliminiert werden können, und wie Broker den wahrscheinlichsten Wert einer Option in Bezug auf die ihr zugrunde liegende Aktie oder das Produkt exakt berechnen können.2 Ihre elegante Lösung war nach Ansicht vieler Experten für die Finanzwelt von ebenso großer Bedeutung wie das Apollo-Programm für die Erforschung des Mondes und verursachte in den achtziger Jahren einen sprunghaften Anstieg im Derivatehandel. Meriwether wusste also ganz genau, was er tat, als er diese beiden und noch einige andere Finanzgenies an Bord seines neu gegründeten Hedge-Fonds namens Long-Term Capital Management holte. Der Plan war, sich vorübergehende »Ineffizienzen« auf den Weltmärkten zunutze zu machen, um absolut risikofrei Profite einzufahren.
Meriwether hatte keine Probleme damit, Kapitalanleger zu finden, und in den ersten zwei Jahren – 1994 und 1995 – beliefen sich die Nettogewinne aus dem Hedge-Fonds auf über 40 Prozent. In den folgenden Jahren blieb LTCM auf steilem Erfolgskurs und bescherte seinen Investoren im November 1997 einen warmen Geldregen in Höhe von fast 2,7 Milliarden US-Dollar an »Überschusskapital«. Anfang 1998 belief sich der Wert des LCTM-Anlagenportfolios auf 130 Milliarden US-Dollar, was Analysten vermuten ließ, LTCM hätte das Geheimnis entdeckt, wie sich Kapital aus den Märkten abschöpfen ließ, ohne auch nur das geringste Risiko einzugehen. Doch dann lief etwas ganz fürchterlich schief. Im September 1998 erlitt LTCM aufgrund »unerwarteter« Turbulenzen auf den Finanzmärkten massive Verluste in der Größenordnung von über 90 Prozent seiner Werte, was zum Teil dadurch ausgelöst wurde, dass Russland mit der Rückzahlung seiner |84|Schulden in Verzug geraten war. Mit über 125 Milliarden US-Dollar an geliehenem Fremdkapital schlug dieser Verlust weltweit hohe Wellen. Um einen Kollaps des internationalen Finanzmarkts zu verhindern, entschloss sich die Federal Reserve Bank von New York zu einer Rettungsaktion und half LTCM mit 3,6 Milliarden US-Dollar aus der Malaise.3
Was war geschehen? Philosophen, Historiker und andere kluge Köpfe, die sich mit der Erklärung der Welt beschäftigen, unterscheiden hier gerne zwischen »unmittelbarer« und »eigentlicher« Ursache. Bei einem Unfall, bei dem ein Autofahrer die Leitplanke durchbricht und einen Abgrund hinunterstürzt, ist die unmittelbare Todesursache sicherlich der harte Aufschlag, der ihm alle Knochen im Leibe bricht. Wenn sich dieser Autofahrer jedoch grundsätzlich auch alkoholisiert noch hinters Steuer setzte, ist die eigentliche Todesursache diese schlechte Angewohnheit, die beinahe zwangsläufig früher oder später zu einem tödlichen Unfall führen muss, auch wenn die genauen Umstände dem Zufall überlassen bleiben. Die unmittelbare Ursache für die Krise von LTCM war die Finanzkrise in Russland, die niemand vorhergesehen hatte. LTCM verglich sie mit einem Jahrhundertsturm, der das so klug durchdachte System in sich zusammenstürzen ließ.
Was aber war die eigentliche Ursache? Trotz aller mathematischer Genialität hatte man bei LTCM anscheinend ein kurioses Phänomen ignoriert, das Mathematiker bereits vor 30 Jahren entdeckt hatten: dass jeder Finanzmarkt, sei es die New York Stock Exchange oder der DAX, unweigerlich zu unerwartet starken Schwankungen tendiert. Das heißt, dass es LTCM in jedem Fall früher oder später erwischt hätte – wenn nicht von der russischen Finanzkrise, dann von einer anderen. Auf den internationalen Märkten sind Jahrhundertstürme längst nicht so selten wie die Bezeichnung vermuten lässt. Den Grund dafür zu verstehen, heißt, die kollektiven Auswirkungen einer typisch menschlichen Eigenschaft zu verstehen – der Fähigkeit zu lernen und sich anzupassen.
Abbildung 4
Das dicke Ende kommt: extreme Kursausschläge
Nehmen wir einmal an, der Preis für ein Barrel Rohöl beträgt heute 64 US-Dollar. Was aber wird es in einem Monat kosten? Nun könnte man natürlich Spekulationen über die Weltpolitik oder den traurigen Zustand wichtiger Pipelines in der Ukraine anstellen, doch mit Sicherheit lässt sich das kaum sagen – ein typischer Fall für die Statistik. Die traditionelle Methode formulierte der französische Mathematiker Louis Bachelier vor über 100 Jahren in einer ungewöhnlichen Dissertation mit dem Titel »Theorie von der Spekulation«. Nach Bachelier ergeben Aktienpreisschwankungen, die über verschiedene Zeiträume – einen Tag, einen Monat oder beliebige andere – protokolliert werden, immer die in der Mathematik allseits bekannte Glockenkurve (siehe Abbildung 4). Die Kurvenspitze, welche die größte Häufigkeitsverteilung darstellt, kennzeichnet dabei die durchschnittliche Preisänderung. Der Bogen fällt zu beiden Seiten steil ab, was darauf schließen lässt, dass extreme Preisänderungen eher die Ausnahme sind. Von Intelligenzquotienten bis hin zu Würfelergebnissen tanzt alles nach der Pfeife der Glockenkurve, und Mathematiker bezeichnen sie gerne als »Normalverteilung«, weil dadurch scheinbar |86|beschrieben werden kann, wie unsere Welt »normalerweise« funktioniert.4
Bacheliers Idee ist klar: Preisschwankungen in der Finanzwelt verhalten sich wie alle anderen Schwankungen auch. Die moderne Wirtschaftswissenschaft folgt seinen Ausführungen, deren zugrunde liegende Logik aufgegriffen und weiterentwickelt wird. Wie im vorherigen Kapitel ausgeführt, bleiben Aktienpreise relativ realistisch, wenn auf dem Markt nach vernünftigen Gesichtspunkten agiert wird. Das Standardargument für Preisänderungen lautet, dass »neue Informationen« vorliegen – vielleicht ein Personalwechsel in der Führungsspitze eines Unternehmens oder ein neu entdecktes Ölvorkommen. So etwas lässt sich nicht vorhersagen. Und wenn viel zusammenkommt, wenn viele neue Informationen von ganz unterschiedlichen Quellen aus ganz unterschiedlichen Gründen verlautbart werden, sollten die Veränderungen auf dem Finanzmarkt unter dem Strich als eine Glockenkurve dargestellt werden können.5
Aus oben Gesagtem lässt sich schließen, dass Aktienpreise in sogenannten »Random Walks« verlaufen – ein Begriff aus der Stochastik, der »Zufallsbewegungen« oder »Irrfahrten« bedeutet –, das heißt, sie bewegen sich ständig leicht nach oben oder unten. Entsprechen Ereignis- oder Objektsätze der Glockenkurve, treten extrem vom Durchschnitt abweichende Werte so gut wie nie auf. Ein auf Menschen bezogenes Beispiel wäre, dass sich das durchschnittliche Körpergewicht um die 75 Kilogramm bewegt, in Einzelfällen auch einmal 150 Kilogramm, aber ganz sicher niemals 1 000 Kilogramm auf die Waage gebracht werden. In Bezug auf die Preise für Öl, Weizen, Autos oder beliebige andere Produkte lässt die Glockenkurve dementsprechend vermuten, dass sich die Schwankungen im Rahmen von geringfügigen 0,5 oder 1 Prozent bewegen, starke Schwankungen im Bereich von 10 bis 20 Prozent an einem einzigen Tag jedoch extrem unwahrscheinlich sind.
Da die Preise nach Bacheliers Vorstellung ganz wie echte Aktienpreise nach dem Zufallsprinzip steigen und fallen, schien seine |87|Theorie plausibel zu sein. So plausibel, dass sie in der Tat niemand auf den Prüfstand gestellt und mit realen Finanzmarktdaten verglichen hatte – bis 1963. In diesem Jahr nämlich machte der in der IBM-Forschung tätige französische Mathematiker Benoît Mandelbrot die Probe aufs Exempel und eine schockierende Entdeckung.
Mandelbrot untersuchte die Schwankungen der Baumwollpreise an der Chicago Mercantile Exchange, einer der größten Börsen der Welt. Über Tage und Wochen protokollierte er die Preisschwankungen, zählte nach, wie häufig unterschiedlich große davon auftraten und stellte die Ergebnisse grafisch dar. Heraus kam etwas, das aussah wie die Glockenkurve – mit einem wichtigen Unterschied: die »Enden« fielen deutlich flacher auf null ab (siehe Abbildung 4). In der Mathematik wird das von Mandelbrot entdeckte Muster als »Potenzgesetz« bezeichnet. Uns soll im Moment aber die wichtige Aussage genügen, dass sich die Kurvenenden hier so langsam dem Nullpunkt nähern, dass extreme Ereignisse lange nicht so selten auftreten wie die »normale« Statistik vermuten lässt.6 Heute, gut 40 Jahre später, wissen wir, dass dies gleichermaßen auf Öl, Schweinehälften und Wertpapiere zutrifft. Dasselbe Muster findet sich in den Anlagewerten der an der New Yorker Börse gelisteten Firmen oder im Aktienindex der 500 erfolgreichsten Unternehmen der renommierten Rating-Agentur Standard & Poor’s.7 Man begegnet ihm auf anderen Wertpapiermärkten,8 in Deutschland und Japan, auf Devisenmärkten9 und Bondmärkten. Die Beweislage ist eindeutig – auf praktisch keinem Markt verhalten sich extreme Veränderungen so, wie es ihnen die herkömmliche Statistik »gestattet«.
Bislang ist es weder der Wirtschafts- noch der Finanzwissenschaft gelungen, dafür eine überzeugende Erklärung anzubieten. Ein beliebter Versuch besteht darin, extreme Kursausschläge auf »externe Schocks« wie den Terroranschlag vom 11. September 2001 oder spektakuläre Wirtschafts- oder Regierungsskandale zurückzuführen. Natürlich können gravierende Geschehnisse die Märkte erschüttern und deutliche Veränderungen bewirken, doch |88|andererseits treten große Schwankungen auch ohne vorhergehende Ereignisse auf, weshalb diese Erklärung nicht generell zutreffen kann. 1991 analysierte ein Team aus Wirtschaftswissenschaftlern die 50 größten Preisschwankungen, die seit dem Zweiten Weltkrieg innerhalb eines Tages in den Vereinigten Staaten verzeichnet worden waren. Viele davon geschahen an Tagen, die von keinem besonderen Zwischenfall überschattet waren.10
Abbildung 5
Das Rätsel der extremen Kursausschläge bleibt also ungelöst, was eine etwas peinliche Angelegenheit für die Wirtschaftswissenschaftler ist, denn gerade sie sollten ja eigentlich in der Lage sein, Märkte zu erklären. Diese Entschlüsselung ist jedoch auch keine rein akademische Angelegenheit. Merton, Scholes und die anderen Zahlenkünstler bei LTCM hatten versucht herauszufinden, mit welcher Wahrscheinlichkeit ihr Hedge-Fonds starken Marktfluktuationen zum Opfer fallen könnte, bedienten sich dabei jedoch »gewöhnlicher« statistischer Methoden – dem Produkt rationaler ökonomischer Logik. Was Marktfluktuationen betrifft, prognostiziert die Glockenkurve, dass ein Aktienwertverlust von 10 Prozent an einem einzigen Tag nur ungefähr alle 500 Jahre eintritt. Reelle Erfahrungswerte lassen zuverlässigere Prognosen zu: Derartige Einbrüche treten ungefähr alle fünf Jahre auf, was sich für LTCM und seine Geschäftsstrategie als etwas zu häufig erwies.
|89|Wie also lassen sich extreme Kursausschläge erklären? Im vorherigen Kapitel wurde bereits ausgeführt, dass es eines der primären Verhaltensmerkmale des sozialen Atoms ist, nach einfachen Regeln zu handeln und sich gleichzeitig spontan an neue Bedingungen anzupassen. Das ist nichts Neues. Es ist jedoch alles andere als offensichtlich, wohin die Anpassungsfähigkeit einer größeren Menschenmenge führt. Wie sich zeigen wird, kann Mandelbrots Mysterium allein durch die Beantwortung dieser Frage gelöst werden.
Auf einen Drink in die Bar El Farol
1992 spielte der irische Musiker Gerry Carty jeden Donnerstagabend in der Bar El Farol in Santa Fe in New Mexiko. Zu dieser Zeit arbeitete der Wissenschaftler Brian Arthur, der vorher an der Stanford University tätig gewesen war, im nahe gelegenen Santa Fe Institute, in dem interdisziplinäre Grundlagenforschung betrieben wird. Arthur, dem die Bar und die Musik gefielen, verbrachte dort häufig vergnügliche Abende, die ihn zu einem kuriosen Gedankenspiel veranlassten.
Wenn die Bar voller netter Leute, aber nicht überfüllt war, amüsierte sich Arthur prächtig. Es gab aber auch Abende, an denen die Bar aus allen Nähten zu platzen drohte, und dann empfand es Arthur – und vermutlich jeder andere auch – dort als unerträglich laut und stickig. Zu seinem Bedauern ließ sich der Andrang auf seine Lieblingsbar jedoch nie vorhersehen. Es gab kein erkennbares Muster, und Woche für Woche stand Arthur donnerstags vor demselben Entscheidungsproblem: Sollte er gehen? Lust hätte er ja, doch nur, wenn es nicht zu voll werden würde. Dann wurde ihm klar, dass jeder, der gerne in die El-Farol-Bar ging, in derselben Zwickmühle steckte. Dass jeder versuchen würde, das Gegenteil der breiten Masse zu tun, vergleichbar mit dem Ratespiel von Richard Thaler. Diesen Situationen ist mit rationaler Logik einfach nicht beizukommen.
|90|Dennoch treffen Menschen in derartigen Situationen Entscheidungen, ob rational oder irrational. Dies geschieht mithilfe von Tricks, die uns die biologische Evolution zur Bewältigung schwieriger Situationen bereitgestellt hat. Das veranlasste Arthur dazu, über den Denkprozess selbst nachzudenken. Welche Kniffe lassen sich wie das berühmte Kaninchen aus dem Hut ziehen? Welche Kunstgriffe wenden die Menschen an, und warum? Und wie ließe sich damit erklären, warum die El-Farol-Bar manchmal überfüllt war und dann wieder nicht?
Betrachten wir die schwankende Gästezahl einmal als natürliches Phänomen, das es zu erklären gilt. Wie gehen wir dabei am besten vor? Als Erstes ist ein Modell erforderlich, das beschreibt, wie Entscheidungen getroffen werden. Aufgrund welcher Informationen lassen sich die Abende bestimmen, an denen die Bar nicht komplett überfüllt sein wird? Dabei muss natürlich berücksichtigt werden, dass jeder Mensch anders denkt und Entscheidungen auf der Basis individueller Überlegungen fällt. Denkt man einen Augenblick darüber nach, könnte man glatt Mitleid mit all den Wirtschaftstheoretikern bekommen, die sich der Rationalität verschrieben haben. Aber immerhin können so überhaupt Theorien über den Menschen aufgestellt werden. Betrachtet man ihn nicht als rational denkendes Wesen, ist sein Verhalten überhaupt nicht mehr vorhersehbar und endet unweigerlich im Chaos, was die Hoffnung, jemals eine Theorie formulieren zu können, im Keim erstickt. In einem Moment der Erleuchtung erkannte Arthur einen Weg aus diesem Dilemma.
Zufällig hatte er eine Arbeit des Psychologen Julian Feldman aus den sechziger Jahren gelesen, in der Letzterer behauptete, dass Logik bei den meisten Entscheidungen eine geringere Rolle spielt als simple Regeln und die Fähigkeit, aus Fehlern klug zu werden. Bekannt wurde diese Vorgehensweise als »Lernen anhand Versuch und Irrtum«. Menschen versuchen vor allem, in ihrer Umgebung Muster zu erkennen und mit ihrer Hilfe vorherzusehen, was als Nächstes geschehen wird. In der National Football League zum |91|Beispiel hatten sich am Ende der Saison 2005/2006 die Washington Redskins mit fünf aufeinanderfolgenden Siegen für die Ausscheidungskämpfe qualifiziert. Dieses Muster veranlasste einige Sportkommentatoren zu der Aussage, das Team hätte zur rechten Zeit zu seiner Höchstform gefunden und wahrscheinlich gute Chancen in den Ausscheidungskämpfen. Andere wiederum meinten, die Siegesserie würde die Redskins unter einen so enormen Erfolgsdruck setzen, dass die gegnerischen Mannschaften leichtes Spiel hätten. Beide Theorien basieren auf einem beobachteten Muster, mit dessen Hilfe Zukunftsprognosen erstellt werden.
Auf die El-Farol-Bar übertragen hieße Feldmans Behauptung also, dass manche Barbesucher glauben, die Bar wäre diese Woche sicher auch wieder überfüllt, weil dies letzte Woche der Fall war, überlegte Arthur. Andere dagegen wären genau gegenteiliger Ansicht: Wenn die Bar letzte Woche überfüllt war, würden diese Woche viele zu Hause bleiben. Sie können sich sicher vorstellen, dass es unendlich viele »Theorien« darüber gibt, wie sich aus dem Andrang der letzten Tage – oder der letzten Wochen – Prognosen über die Zukunft ableiten lassen. Dennoch darf auch bei solch »theoretischen« oder »hypothetischen« Abwägungen ein zweites Element nicht unterschlagen werden: Der Mensch ist kein unflexibler Dummkopf, der an einer Theorie festhält, die sich vier Wochen in Folge als unrichtig erweist, sprich, ihn vier Wochen hintereinander in eine unerträglich überfüllte El-Faro-Bar gehen lässt. Nach Feldman hat jeder Mensch mehrere Hypothesen im Hinterkopf und agiert nach derjenigen, die ihm in einer bestimmten Situation als die geeignetste erscheint. Dies kann jeder aus eigener Erfahrung bestätigen. Oft packt man eine beliebige Aufgabe – das Aufstellen eines neuen Regals oder die Suche nach einem neuen Job – am besten dadurch an, dass man den ersten Schritt wagt, auch wenn man noch nicht genau weiß, wie der nächste aussehen soll. Man probiert etwas aus und lernt dazu. Wie schon Jacob Bronowski anmerkte, ist die Welt nicht durch Denken, sondern nur durch Handeln begreifbar. Diesen |92|Gedanken aufgreifend, verwarf Arthur die Vorstellung rationaler Entscheidungen und ging stattdessen davon aus, dass der Mensch auf der Grundlage simpler Theorien handelt und sich den jeweiligen Gegebenheiten anpasst.
Anschließend simulierte er am Computer, wohin ein regelbasiertes, adaptives Verhalten führen könnte. Arthur erstellte zuerst eine lange Liste möglicher Theorien, zum Beispiel diese:
Die Anzahl der Gäste wird diese Woche der von letzter Woche entsprechen.
Wenn die Bar letzte Woche nicht überfüllt war, wird sie es diese Woche sein (und umgekehrt).
Die Bar wird diese Woche nur dann überfüllt sein, wenn sie die vergangenen drei Wochen nicht überfüllt war.
Die Anzahl der Gäste wird diese Woche der von vor vier Wochen entsprechen.
Es liegt auf der Hand, dass viele derartige Theorien möglich sind. Um ein El-Faro-Modell zu erstellen, ging Arthur (willkürlich) von 100 potenziellen Barbesuchern aus, denen er jeweils zehn zufällig ausgewählte Hypothesen zuordnete. Anschließend ließ er den Computer für jede virtuelle Person aufzeichnen, wie zuverlässig sich jede der zehn Annahmen über die letzten Wochen erwiesen hatte – wie gut sich dadurch vorhersagen ließ, wie voll die Bar sein würde. Anhand der besten Hypothesen sollte dann über den Besuch der Bar entschieden werden. Anders formuliert: Die virtuellen Agenten konnten – wie echte Personen auch – verschiedene Überlegungen anstellen und sich für die jeweils beste entscheiden. Die »beste« in diesem Fall war, dann in die El-Faro-Bar zu gehen, wenn es dort nicht überfüllt war, und zu Hause zu bleiben, wenn der Andrang zu groß war – wobei Arthur für sein Modell festlegte, dass dies bei über 60 Personen der Fall wäre.
Es ist eine etwas krude Art, eine der im vorherigen Kapitel besprochenen Vorstellungen umzusetzen, nämlich dass wir keine purer Logik folgende Rechenmaschinen, sondern anpassungsfähige |93|Befolger von Regeln sind. Dennoch spiegelte das Modell überraschend gut die Realität wider.11 Die Computersimulation zeigte, dass sich die Anzahl der Barbesucher schnell auf einen Durchschnitt von 60 Personen einpendelte – also genau die Anzahl, die Arthur als gerade noch erträgliche Obergrenze definiert hatte. Natürlich waren 60 Besucher nur der Durchschnittswert, denn wie aus Abbildung 6 ersichtlich wird, kamen von Woche zu Woche manchmal mehr, manchmal weniger Leute.12 In diesem Spiel profitieren die virtuellen Personen davon, einer Minderheit anzugehören – in die El-Faro-Bar zu gehen, wenn die meisten anderen zu Hause bleiben und umgekehrt. Nehmen wir nun einmal an, der Besucherandrang folge einem erkennbaren Muster, mithilfe dessen sich einige Individuen bewusst der Minderheit anschließen. Lange wird das nicht funktionieren, denn immer mehr Individuen werden sich anpassen, dieses Muster ebenfalls erkennen und sich zur Minderheit gesellen. So wird aus ihr zwangsläufig eine Mehrheit, und jeder leidet darunter, dass die Bar zu voll ist. Jedes Muster, das sich in der Gruppe herausbildet, führt zu |94|Verhaltensweisen unter den Agenten, die eben dieses wieder zunichte machen – eine in der Tat verzwickte Angelegenheit!
Abbildung 6
|94|Könnte dies auch auf die Finanzmärkte mit ihren permanenten und völlig unvorhersehbaren Fluktuationen zutreffen? Oder vielleicht auf ihre Tendenz zu starken Reaktionen ohne offensichtliche »externe« Ursache?
Die unvernünftige Effektivität
In seinem 1960 veröffentlichten Essay »The Unreasonable Effectiveness of Mathematics in the Natural Sciences« spekulierte der großartige Physiker Eugene Wigner über »die unvernünftige Effektivität der Mathematik in den Naturwissenschaften«. Wigner erzählt die fiktive Geschichte zweier Schulfreunde, die sich nach Jahren wieder begegnen und über ihre Jobs unterhalten. Einer von ihnen erstellt beruflich Statistiken über Bevölkerungstendenzen. Als er seinem Freund seine neueste Arbeit zeigt, betrachtet dieser skeptisch die vielen Formeln, zeigt auf den griechischen Buchstaben Π (Pi) und fragt, was dieses Symbol bedeutet. »Das Verhältnis des Umfangs eines Kreises zu seinem Durchmesser«, erklärt der Statistiker. Daraufhin erwidert sein Freund lachend: »Das kann doch nicht dein Ernst sein! Der Durchmesser eines Kreises kann unmöglich etwas mit der menschlichen Bevölkerung zu tun haben!«13
Richtig, was haben die Geometrie eines Kreises und Bevölkerungsstatistiken miteinander zu tun? Meines Wissens wurde der Zusammenhang bisher noch nicht erklärt. Ebenso seltsam ist die Tatsache, dass sich mathematische Modelle, die speziell zur Lösung eines bestimmten Problems entwickelt wurden, häufig als äußerst hilfreich zur Lösung völlig anders gearteter Probleme erweisen. Arthurs El-Faro-Spiel verdeutlicht dies anschaulich.
Menschen, die ihr Geld in Aktien investieren, sind oft so genannte Chartists, das heißt, sie verfolgen die Preisbewegungen der |95|Vergangenheit anhand einer Vielzahl von Charts, um Muster zu erkennen, die auf zukünftige Preisentwicklungen schließen lassen. Sie verhalten sich ähnlich wie Arthurs Barbesucher, nur dass sie nicht die Besucherzahlen, sondern die Preisentwicklungen nach einem Muster durchsuchen. Die Preise können ebenso wie die Gästezahlen steigen und fallen, und Investoren können sich – wie die Barbesucher für das Ausgehen oder Zuhausebleiben – für das Kaufen oder Verkaufen entscheiden. Aufgrund dieser Übereinstimmungen lässt sich das El-Faro-Modell mit einer Modifikation – dem Zusatzfaktor Preis – auf einen Markt übertragen.
Und für jeden Markt gilt, dass die Preise aufgrund der Diskrepanz zwischen Angebot und Nachfrage schwanken. Gibt es für eine Aktie mehr Kaufinteressenten als Verkäufer, steigt ihr Preis, umgekehrt fällt er. Von dieser Tatsache ausgehend, wandelten Arthur und einige seiner Kollegen, darunter der Finanzwissenschaftler Blake LeBaron und der Physiker Richard Palmer, in den späten Neunzigern das El-Faro-Modell in ein sehr simples, aber anpassungsfähiges Modell eines Finanzmarkts um. Analog zur Bar legten die Agenten auf den virtuellen Märkten fest, welche der ihnen zur Verfügung stehenden Theorien sich in einer gegebenen Situation am besten eignete, um eine Kauf- oder Verkaufsentscheidung zu treffen. Alle drehten sich um die Auswertung früherer Preisentwicklungen, um die zukünftigen prognostizieren zu können. Arthur und seine Kollegen vervollständigten ihr Modell durch die Bedingung, dass der Preis immer dann steigt, sobald die Nachfrage das Angebot übersteigt und umgekehrt. Dem Modell lag eine einfache Logik zugrunde: Vorherige Preisentwicklungsmuster beeinflussen, wie sich die Investoren aktuell entscheiden. Diese aktuellen Entscheidungen führen zu einer Diskrepanz zwischen Angebot und Nachfrage, wodurch eine neue Preisentwicklung und somit langfristig eine Endlosspirale aus Ursache und Wirkung entstehen.
Um zu prüfen, wie genau das Modell der Realität entspricht, entwarf Arthur mit seinem Team ein weiteres Computermodell, |96|dessen virtueller Markt sich eine Weile ungestört entwickeln durfte. Trotz dieses simplen Modells war das Ergebnis verblüffend. Die Preise auf dem virtuellen Aktienmarkt stiegen und fielen – manchmal extrem und plötzlich – nach keiner erkennbaren Regel, sondern ausschließlich aufgrund der Dynamik, die sich aus der Interaktion der anpassungsfähigen Agenten ergab. Die Computersimulation erschuf einen Markt, in dem es nicht nur Gewinner und Verlierer, steile Höhenflüge und katastrophale Talfahrten, sondern sogar eine Art emotionaler Stimmungslage gab. In qualitativer Hinsicht entsprach er recht gut der Realität – und das, obwohl er von keinerlei äußeren dramatischen Ereignissen durchgerüttelt wurde.14 In Anbetracht der Tatsache, dass das Modell auf einem plausiblen, wenn auch stark vereinfachten Verhaltensmuster menschlicher Individuen basierte, war schon alleine die qualitative Übereinstimmung ein großer Erfolg. Doch damit gaben sich Arthur und seine Kollegen nicht zufrieden. Sie führten eine statistische Analyse à la Mandelbrot durch, um die simulierten Marktfluktuationen auch mathematisch zu untermauern. Nach Hunderten von Wiederholungen, bei denen verschiedene Faktoren wie die hypothetischen Annahmen der Agenten, die Auswertungszeiträume für die Prognosen und viele andere Modellierungsdetails immer wieder variiert wurden, stellten die Wissenschaftler fest, dass sich nichts von alledem signifikant auf das Ergebnis auswirkte. Als ob es die natürlichste Sache der Welt wäre, stellten sich nach der Modellierung immer die extremen Kursausschläge ein, zu denen große Fluktuationen auf reellen Märkten tendieren.
Das Mysterium, das sich 50 Jahre lang nicht mit Logik lösen ließ, scheint sich tatsächlich mit adaptivem Verhalten und Selbstorganisation erklären zu lassen. Arthur musste dazu weder tief in geheimnisvolles Fachwissen vordringen, noch die Mathematik neu erfinden. Sein Modell kann tatsächlich nur als krude bezeichnet werden, doch es funktioniert, weil ihm ein wichtiger Gedanke zugrunde liegt: die für das menschliche Verhalten unplausible unfehlbare Logik durch die plausible adaptive Lernfähigkeit zu |97|ersetzen. Dann nämlich sind die extremen Kursausschläge ebenso selbstverständlich wie die Steinkreise in der arktischen Tundra. Die deutlichen Hochs und Tiefs des modellierten Markts lassen sich nicht auf externe Dramen oder das Verhalten eines Individuums zurückführen. Es gibt keine »abartige« Spielart menschlichen Verhaltens, die sich als Ursache identifizieren lässt. Vielmehr entsteht die Tendenz zu starken Fluktuationen, ein Merkmal, das allen Märkten gemeinsam ist, aus der Art und Weise, wie sich die Agenten – die Atome dieser Welt – in einem komplizierten Muster gegenseitiger Abhängigkeiten organisieren. Will man verstehen, wie es zu extrem großen oder kleinen Konzentrationen kommen kann, muss man sich mit der komplexen Wechselbeziehung zwischen den Theorien und Hypothesen der Agenten und ihrer Umgebung auseinandersetzen und erkennen, wie das Verhalten eines Aktienhändlers die Preise und somit das Verhalten der anderen Händler beeinflusst – oder auch nicht.
Viele Wissenschaftler sind dem Ansatz Arthurs und seiner Kollegen nachgegangen und haben das Modell seitdem weiterentwickelt. Ihr Ziel ist es, für das Gebiet der Markttheorie eine neue Ära einzuläuten, die sich durch mehr Realismus und Genauigkeit auszeichnet.15 Dieser Erfolg veranschaulicht, wie wichtig gute wissenschaftliche Denkansätze sind. Vor über 50 Jahren forderte der Ökonom Milton Friedman, keine Theorien über das menschliche Verhalten auf der Basis akkurater Vorstellungen zu schaffen. Seiner Ansicht nach ließe sich das soziale Geflecht umso besser verstehen, je ungenauer die hierfür aufgestellten Annahmen wären. Er formulierte es sinngemäß so:
Alle wirklich wichtigen und bedeutsamen Hypothesen beruhen auf »Annahmen«, die die Realität deskriptiv unrichtig widerspiegeln, und im Allgemeinen ist eine Theorie umso bedeutender, je unrealistischer die zugehörigen Annahmen sind. ... Der Grund ist einfach. Eine Hypothese ist dann bedeutend, wenn sie mit möglichst geringem Aufwand viel »erklärt«, das heißt, wenn mit ihrer Hilfe aus der Masse der komplexen |98|einzelnen Begleitumstände des zu erklärenden Phänomens die gemeinsamen Kernelemente extrahiert werden können, auf deren alleiniger Basis zuverlässige Prognosen möglich sind. Um bedeutend zu sein, muss eine Hypothese in ihren Annahmen daher deskriptiv falsch sein.16
In der Ökonomie trat Friedman als Fürsprecher der Rationalitätstheorie auf, und meiner Meinung nach hatte er sowohl recht als auch unrecht. Wissenschaft funktioniert in jedem Fall sicherlich dadurch, dass sie unsere Realität stark vereinfacht darstellt. Unsere heutige Kenntnis über die Bewegung der Planeten verdanken wir der Tatsache, dass sie als perfekte kugelförmige Objekte modelliert werden, deren Masse sich in einem Punkt konzentriert. Dass sie in Wahrheit keine perfekten Kugeln sind, sondern durchaus Verformungen aufweisen und in ihrer Atmosphäre von Gasen umgeben sind, wird bei der Modellierung ebenso ignoriert wie diverse andere Details. Da diese Modelle jedoch die wichtigsten Aussagen über die Verteilung der Masse, aus der sich die Planetenbewegung in einem Gravitationsfeld und die Anziehungskraft auf andere Himmelskörper ergibt, beinhalten, ist das völlig in Ordnung. Sie sind zwar tatsächlich »deskriptiv falsch« in ihren Annahmen, aber aufgrund ihrer Kernaussagen dennoch zutreffend.
Zweifellos muss die Wissenschaft vom Menschen ebenfalls auf einem vereinfachten Bild der Individuen und ihrer Motivationen aufbauen. Ob dabei jedoch des Pudels – oder besser, des Menschen – Kern erkannt oder übersehen wird, ist eine entscheidende Frage, denn bei jeder Vereinfachung besteht die Gefahr, dass nicht nur unwichtige, sondern auch wesentliche Details gestrichen werden. Und hier schleicht sich der Fehler in Friedmans Argumentation und die »rationale« Ökonomie ein. Die Rationalitätstheorie beschreibt das menschliche Verhalten nicht nur unvollständig, sondern grundsätzlich verzerrt. Sie setzt voraus, dass der Mensch nicht lernt, keine Hypothesen formuliert und überprüft, und dass er seine Meinung niemals ändert. Im Prinzip widerspricht sie fast allen menschlichen Verhaltensweisen, die uns im wirklichen |99|Leben begegnen. Die Vorstellung, der Mensch verhalte sich grundsätzlich adaptiv, ist konzeptionell zwar ebenso vereinfacht wie die Vorstellung, er verhalte sich grundsätzlich rational, entspricht aber dennoch der Realität – speziell der Tatsache, dass Menschen auch in unsicheren und sich ständig verändernden Marktszenarien Entscheidungen treffen.
Der große Unterschied zur traditionellen Denkweise ist bei dieser modernen Sicht, dass Märkte nicht aufgrund der individuellen Komplexität der menschlichen Agenten so schwierig zu erklären sind, sondern aufgrund der komplizierten Ordnung und Organisation, die sich zwischen den vielen auf einem Markt agierenden Personen einrichtet. Was uns darauf zurückbringt, dass es die Muster sind, die zählen, und nicht die Menschen. Für die orthodoxen Traditionalisten der Sozialwissenschaften mag dies ein harter Brocken sein. Wie erfolgreich sich diese Vorstellungen aber durchsetzen, wird unter anderem dadurch ersichtlich, dass die Oxford University kürzlich keinem der geachteten Professoren aus den Wirtschafts- und Finanzwissenschaften, sondern dem jungen Physiker Neil Johnson die Leitung der neu eingerichteten Abteilung für numerische Verfahren der Finanzmathematik übertrug. Johnson und einigen anderen Physikern war es gelungen, den neuen Denkansätzen auf bestmögliche Art und Weise Ansehen zu verschaffen: indem sie zeigten, wie sich die finanzielle Zukunft zumindest in einigen Fällen vorhersagen lässt.
Der Blick in Zukunft
Nichts erregt in der Wirtschaftspresse mehr Aufsehen als Vorhersagen über Gewinner und Verlierer, über sichere Tipps und Flops, über Aktien, die sich als Goldgrube erweisen werden oder von denen man unbedingt die Finger lassen sollte. Einen »Guru« gibt es immer, dem die Presse für sein vermeintliches Wissen über Markttendenzen volle Aufmerksamkeit zollt, obwohl zahlreiche |100|empirische Studien belegen, dass sich die Entwicklungen auf dem Finanzmarkt bisher noch mit keinem System zuverlässig vorhersagen ließen – außer vielleicht für einen kurzen Zeitraum oder mit viel Glück.17 Im Allgemeinen unterstützten wissenschaftliche Studien die Ansicht, dass ein ökonomisches System nicht deswegen überlebt, weil diejenigen, die seine Zukunft prognostizieren, so hervorragende Arbeit leisten, sondern weil sie sich zuverlässig dabei täuschen, wie es der verstorbene Ökonom John Kenneth Galbraith ausdrückte.18
Es könnte natürlich sein, dass Entwicklungen in ökonomischen Systemen, insbesondere in Märkten, von Natur aus unvorhersehbar sind. Aber vielleicht hat die Wissenschaft einfach noch nicht den Kenntnisstand erreicht, der Prognosen ermöglicht. Die Zahlen, die über Neil Johnsons Computer flimmern, lassen Letzteres vermuten. Sie spiegeln das Auf und Ab der Wechselkursrate zwischen dem US-Dollar und dem japanischen Yen wider. Kurz bevor der reale Wechselkurs angezeigt wird, stellt der Computer auf der Basis des letzten Kurswerts eine Prognose auf, und diese erweist sich in der Mehrheit der Fälle als korrekt. Was ist Johnsons Erfolgsgeheimnis? Ein fundiertes Wissen über die physikalischen Gesetze des Markts, die er mit modernster Computertechnik zur Erkennung von Mustern einsetzt, die jedem anderen verborgen bleiben.
Johnsons Methode entwickelte sich aus den brillanten Arbeiten der Physiker Yi-Chen Zhang und Damien Challet, die sich in den späten neunziger Jahren an der Universität Freiburg, Schweiz, damit beschäftigten, Arthurs El-Faro-Modell so weit wie möglich zu vereinfachen. In ihrem sogenannten Minderheiten-Spiel muss eine ungerade Anzahl Spieler in jeder Runde eine von zwei Alternativen – 0 oder 1 – wählen. Ziel ist es, diejenige auszusuchen, die von den meisten anderen nicht genommen wird, das heißt, die Spieler, die zur kleinsten Gruppe gehören, gewinnen. Abgesehen davon, dass die zugrunde liegende Logik aufs Einfachste reduziert wurde, entspricht das Minderheiten-Spiel genau dem von Arthur |101|Spiel mit der El-Faro-Bar: Die Spieler werten die vorherigen Ergebnisse aus, um Zukunftsprognosen anzustellen, nach denen sie dann handeln. Der große Pluspunkt an diesem vereinfachten Modell war, dass es Zhang und Challet ermöglichten, das Spiel nicht nur am Computer zu simulieren, sondern ganz analytisch mit Stift und Papier. Eine wundersame Überraschung wartete auf sie.
Die Ergebnisse zeigen, dass das Minderheiten-Spiel – und somit das El-Faro-Modell und jedes darauf beruhende Modell eines adaptiven Marktes – abhängig von der Menge der Mitwirkenden ganz unterschiedlich funktioniert. Bei geringer Teilnehmerzahl sind zu wenige Strategien im Spiel, um das gesamte Spektrum aller möglichen Muster abzudecken. Gibt es eines, das Zukunftsprognosen aus vorherigen Ergebnissen gestattet, versuchen die Spieler, das Muster zu erkennen und zu ihrem Vorteil zu nutzen. Kann dieses jedoch von keinem Spieler identifiziert werden, weil es sozusagen im »toten Winkel« einer Strategie liegt, kann das Muster auch keiner nutzen. Daraus folgt, dass es unverändert bestehen bleibt. Nehmen ausreichend viele Menschen teil, decken ihre Strategien alle Möglichkeiten ab. Zeichnet sich in diesem Fall ein Muster in der Ergebnisfolge ab, wird es bemerkt und sofort ausgenutzt. Im ersten Fall folgt das kollektive Fazit (oder die Preisentwicklung auf dem Markt) einem absehbaren Muster. Im zweiten Fall lösen sich alle Voraussagen auf und weichen einer nicht vorhersehbaren Willkür. Challet und Zhang gelang die überraschende Entdeckung, dass der Übergang zwischen beiden Zuständen dem physikalischen Phasenübergang von Eis in Wasser gar nicht unähnlich ist.
Dieser Transitzustand zwischen Ordnung und Chaos mag einen leicht esoterischen Beigeschmack haben, kann aber ebenso gut als Erklärung dienen, weshalb es so schwierig ist, Prognosen für reale Märkte zu treffen, und es dennoch so viele Menschen immer wieder versuchen. Überlegen wir noch einmal, und nehmen wir an, dass sich auf dem Markt nur wenige Agenten tummeln, weshalb die im Spiel befindlichen Strategien nicht alle Möglichkeiten abdecken|102|. In diesem Fall gibt es auf dem Markt eine »Restvorhersehbarkeit«, die neue Agenten anlockt, da gute Gewinne zu erwarten sind. Aus demselben Grund betreten weitere Spieler die Bühne. Doch mit jedem neuen Teilnehmer schwindet aufgrund der steigenden Anzahl der ins Spiel gebrachten Strategien ein Teil der Restvorhersehbarkeit. Sobald das letzte Stückchen davon verschwunden ist, kommen auch keine neuen Spieler mehr nach. An diesem Punkt herrscht unvorhersehbare Willkür, was natürlich den einen oder anderen dazu veranlasst, den unrentabel gewordenen Markt mitsamt seinen Strategien zu verlassen – was ihn wieder ein klein wenig kalkulierbarer werden lässt. Sollte diese Argumentation stimmen, bewegt sich der Markt an der Grenze zur Vorhersehbarkeit, an der Prognosen in begrenztem Maß zwar möglich, aber schwierig sind.
Es lässt sich zwar kaum mit Sicherheit sagen, ob diese Vorstellung der Marktrealität gerecht wird, elegant und attraktiv ist sie allemal. Sie könnte auch wirklich stimmen, fand Johnson, als er 1998 zum ersten Mal von ihr hörte und zu einer faszinierenden Idee weiterspann. Wenn Märkte zumindest zeitweise bis zu einem bestimmten Grad vorhersehbar sind, sollte es doch möglich sein, genau das zu tun. Obwohl Zhangs und Challets Minderheiten-Spiel natürlich um ein Vielfaches einfacher ist, trifft die zugrunde liegende Logik zumindest ansatzweise auch auf die treibenden Kräfte eines realen Markts – die Wechselbeziehung zwischen den Strategien der Investoren – zu. Außerdem ist das Spiel sicherlich fundierter und komplexer strukturiert als die meisten mathematischen Systeme, die Kapitalanleger als Prognoseinstrumente nutzen. Johnson befand, es könnte tatsächlich das perfekte – oder zumindest das momentan beste verfügbare – Werkzeug sein, um herauszufinden, ob und in welchem Maß sich das Marktverhalten vorhersehen lässt. Gemeinsam mit einigen Oxford-Kollegen setzte er seine Idee schon bald in die Praxis um und entwickelte eine Methode, die tatsächlich funktioniert.
Damit die Dinge in einem Minderheiten-Spiel (oder in einem darauf beruhenden virtuellen Marktmodell) in Bewegung geraten |103|können, müssen den Spielern diverse »Theorien« zugewiesen werden, mit deren Hilfe sie Zukunftsprognosen anstellen können. Durch die sorgfältige Auswahl dieser Ausgangsstrategien gestalteten Johnson und seine Kollegen ihren Markt so, dass er ganz bestimmte Preisentwicklungsmuster reproduzierte, die in letzter Zeit an der New Yorker Börse zu beobachten waren. Dadurch wollten die Wissenschaftler erreichen, dass die Wechselbeziehung der Strategien ihrer virtuellen Agenten im Modell grob denen wirklicher Investoren und den treibenden Entwicklungen an der realen Börse entsprechen. Würde man das Modell auf eine Zeitreise in die Zukunft schicken, so die Wissenschaftler, könnte man vielleicht vorhersagen, wie sich der echte Markt entwickelt.
Das ergibt nicht nur Sinn, sondern sogar recht zuverlässige Prognosen. In einer Reihe von Tests fanden Johnson und seine Kollegen heraus, dass ihr Modell in der Lage ist, zu entdecken in welchen Momenten sich ihr Marktmodell vorhersehbarer als zu anderen Zeitpunkten verhält – sogenannte Prognosefenster, bei denen weniger Strategien eingesetzt wurden, weil die Agenten den Markt mittlerweile wieder verlassen hatten oder weil viele von ihnen auf dieselbe Strategie gesetzt haben. Der Computer kann Prognosefenster nicht nur erkennen, sondern auch vorhersagen, was als Nächstes geschieht. Bei der Wechselkursvoraussage für den US-Dollar und den japanischen Yen konnte Johnsons Team aus 4 000 aufeinanderfolgenden Werten rund 90 zuverlässige Prognosefenster entdecken.19 Die anschließend getroffenen Vorhersagen über die Kursentwicklung waren bis auf eine Ausnahme korrekt. Sollte der hier erzielte Erfolg zu einer alltäglichen Routine werden, hätte das leicht bizarre Folgen. Logischerweise würden sich viele finanzkräftige Investoren die Methode zunutze machen, was das Wesen der Märkte verändern und die Prognosemethode wahrscheinlich unterminieren würde. Möglich ist auch, dass sich die Vorhersagen als selbsterfüllende Prophezeiungen erweisen würden. Lässt das Modell zum Beispiel einen bevorstehenden Kursanstieg um 5 Prozent erkennen, würden sich die Kapitalanleger|104|, die über dieses Wissen verfügen, natürlich auf die entsprechenden Aktien stürzen und dadurch ihren Preis in die Höhe treiben – wahrscheinlich um rund 5 Prozent.
Von der virtuellen in die reale Welt
Ich habe mich in diesem Kapitel ausschließlich auf Finanzmärkte beschränkt, die zugegebenermaßen nur einen kleinen und sehr speziellen Teil unserer sozialen Welt bilden. Da sie aber eine Sphäre darstellen, in der bestimmte Formen kollektiven menschlichen Handelns streng mathematisch untersucht werden, stellen sie einen ausgezeichneten Ausgangspunkt dar. Zudem repräsentieren Finanzmärkte den Teil unserer Welt, in dem der Mensch besonders rational und berechnend agieren sollte, und in dem die orthodoxe Sichtweise der ökonomischen Theorie die besten Chancen hat, sich als richtig zu erweisen. Dennoch konnte selbst in diesem eng begrenzten Szenario das Rätsel der extremen Kursausschläge über 40 Jahre lang nicht überzeugend erklärt werden. Warum entziehen sich Märkte unterschiedlichster Art jeglichen Regeln? Wie sich gezeigt hat, lässt sich diese Frage nicht dadurch beantworten, dass das Individuum mit seinen Gedankengängen und Eigenarten in all seiner Komplexität durchleuchtet wird. Die Antwort findet sich stattdessen in der Schlichtheit menschlichen Verhaltens. Es stellte sich heraus, dass in diesem Szenario die Reduktion auf simple Regeln erstaunliche Einsichten vermitteln kann. Der harte Aufprall, der dem Höhenflug von LTCM folgte, ist kein Rätsel mehr. Heutzutage werden extreme Kursschwankungen in den Vorschriften des internationalen Bankenwesens und im Risikomanagement umfassend berücksichtigt.
Die Marktmodellierung mit anpassungsfähigen Agenten wird neben der Simulation von Preisentwicklungen zunehmend auch für Prognosen darüber eingesetzt, wie sich Märkte unter ungewöhnlichen Bedingungen verhalten, was schon viele Unternehmen vor Verlusten geschützt hat.
|105|Vor einigen Jahren plante zum Beispiel die Führungsspitze der Technologiebörse NASDAQ, die Darstellung der Mindestkursänderung – die kleinste mögliche Schrittweite – für ihre Wertpapiere von Bruch- auf Dezimalzahlen umzustellen. Man ging davon aus, dass somit die Preisbestimmung von Aktien deutlich einfacher und einheitlicher würde. Die Geld-Brief-Spannen (zu denen Händler Wertpapiere zu kaufen und zu verkaufen bereit sind) würden kleiner, was die NASDAQ für Investoren und Unternehmen attraktiver machen würde. Der Plan klang gut, doch klugerweise entschied man sich, vor seiner praktischen Umsetzung weitere Untersuchungen durchzuführen. Zu diesem Zweck wurde nach dem Vorbild des Minderheiten-Spiels und Johnsons Marktmodell ein NASDAQ-Modell mit adaptiven Agenten erstellt. Diesen wies man dabei die Fähigkeit zu, ihre Strategien spontan anpassen und auch neue erkennen zu können, sobald sich Tendenzen oder Muster abzeichneten. Sobald das Modell dem realen Markt entsprach – Preisfluktuationen mathematisch genau reproduzierte –, wurde es als »Versuchslabor« genutzt. Die Simulationen ergaben, dass sich die Geld-Brief-Spanne entgegen der Erwartung vergrößerte, sobald eine bestimmte kleinste Spannweite unterschritten wurde. Die virtuellen Agenten eigneten sich höchst trickreiche Strategien an, die ihnen zulasten der Gesamtmarkteffizienz schnelle Profite bescherten. Je geringer die Spanne wurde, umso risikoärmer und profitabler wurden die Strategien, was sämtliche Vorzüge, die sich die NASDAQ erhofft hatte, zunichte machte. Zum Glück konnte dieser Effekt aber bereits in der Simulation und nicht erst in der Realität erkannt werden. Bevor im Jahr 2001 die Darstellung der Mindestkursänderung von 1/16 in 1/100 umgestellt wurde, hatte die NASDAQ bereits effiziente Gegenmaßnahmen parat.20
All dies ist einer radikal schematisierten Betrachtungsweise des menschlichen Verhaltens zu verdanken. Wir vereinfachen unsere Lebenswelt und versuchen, sie uns über Hypothesen zu erklären. Diejenigen, die sich als richtig und brauchbar erweisen, werden |106|behalten, alle anderen verworfen. Diese Anpassungsfähigkeit ist wahrscheinlich unsere größte Begabung. Zur Verdeutlichung möchte ich ein ganz anderes Beispiel aufführen: Der Mensch lernt nicht durch rationales Denken zu sprechen und zu kommunizieren. Kein spezielles »Sprachprogramm« im Gehirn lässt uns automatisch verständlich kommunizieren. Je mehr Linguisten über die Sprache und ihre Anwendung lernen, umso mehr stellt sich unsere Fähigkeit zur Anpassung als wesentliche Grundvoraussetzung heraus. Zwei Menschen begegnen sich und beginnen ein Gespräch. Ist die für jeden typische Art zu sprechen eine feste und unveränderlich Größe? Nein, fand die Forschung dazu in den letzten zehn Jahren heraus. Abhängig von der Gesprächsentwicklung, vom Austausch zwischen den Partnern, variieren selbst in einer einzigen Unterhaltung das Sprachmuster, die Sprachebene und die Art der Aussprache. Sprache ist alles andere als fest und statisch, sondern ein kontinuierlicher Entwicklungsprozess, der aufgrund unserer adaptiven Fähigkeiten unweigerlich vonstatten geht und durchaus vergleichbar mit der Wechselbeziehung zwischen den verschiedensten Ansichten und Überzeugungen in einem Markt ist.
Noch einmal: Um das menschliche Verhalten wirklich verstehen zu können, müssen wir lernen, nicht auf Personen, sondern auf Muster zu achten. In den Sony-Versuchslabors in Paris wies der Informatikprofessor Luc Steel nach, das selbst die unintelligentesten Roboter ohne »Vorwissen« allein durch Adaption lernen können, eine gemeinsame Sprache zur Verständigung zu entwickeln. Zu Beginn des Experiments erfanden sie Fantasiewörter, um Objekte in ihrer Umgebung zu benennen (vergleichbar mit den Zufallsstrategien in Arthurs El-Faro-Modell). Anschließend wurden die Wörter auf ihre Kommunikationstauglichkeit geprüft, diejenigen beibehalten, die sich als nützlich erwiesen und alle anderen verworfen. Über einen einfachen repetitiven Vergleichsprozess, durch den die Roboter voneinander lernten, entstand relativ schnell eine gemeinsame Sprache, die sich nicht nur durch einen |107|kollektiven Wortschatz, sondern auch durch grammatikalische Regeln auszeichnete.21
Anpassungsfähigkeiten sind großartig, doch adaptives Denken ist längst nicht alles, was das soziale Atom auszeichnet. Völlig zu Recht wird der Mensch als »Animal Sociale« bezeichnet, da er als Individuum enger als jede andere Spezies mit seinen Artgenossen verbunden ist. Würden wir das soziale Atom als vollständig isoliertes Element betrachten, das nur als Einzelperson mit Problemen konfrontiert wird, könnte menschliches Verhalten vielleicht schon durch unsere adaptiven Fähigkeiten in Kombination mit rationalem Denkvermögen erklärt werden. Doch das soziale Atom interagiert, paarweise und in der Gruppe, weshalb untersucht werden muss, wie sich Menschen in ihren Aktionen gegenseitig beeinflussen. Wenn zwei oder mehr von ihnen zusammentreffen, ist eine Verhaltensweise programmiert: Imitation. Und selbst wenn sie sich nicht persönlich begegnen, sondern nur auf die eine oder andere Weise erfahren, wie sich der andere verhält, wird dieses Verhalten übernommen. Der Mensch ist also nicht nur äußerst anpassungsfähig, sondern auch ein geborener Nachahmer.