[17] 2. Kognition als Symbolverarbeitung

Die historisch einflussreichste Konzeption kognitiver Prozesse versteht unter »Kognition« die formalen Regeln folgende Transformation symbolischer Strukturen, die ein System zu intelligentem Verhalten befähigt. Kognition ist demnach Informationsverarbeitung, genauer gesagt Symbolverarbeitung: Kognitive Prozesse sind Berechnungsprozesse, die interne symbolische Repräsentationen zum Gegenstand haben und in Analogie zu Computern einen Input in einen Output überführen. Der Geist, so diese Computermetapher, ist ein Programm, das heißt die Software, die im Menschen durch computational-repräsentationale Prozesse im Gehirn implementiert ist, in anderen, zum Beispiel künstlichen, Systemen aber ebenso auch durch eine andere Hardware verwirklicht sein kann.

Das Computermodell des Geistes prägt seit Mitte des 20. Jahrhunderts den Versuch, die Grundlagen unserer geistigen Leistungen zu verstehen. Zahllose erfolgreiche Erklärungen in der Kognitionswissenschaft fußen darauf, und selbst jene, die ihm in jüngerer Zeit kritisch gegenüberstehen, entwickeln die Alternativen dazu nahezu ausschließlich in Abgrenzung von seinen beiden zentralen Begriffen der Computation und Repräsentation. Warum aber verfiel man überhaupt auf den Gedanken, der menschliche Geist arbeite wie ein Computer?

Die Ursprünge des Computermodells sind vielfältig und reichen unter anderem zurück bis zu Thomas Hobbes, der Vernunft als »eine Art von Rechnen« bezeichnete, und Gottfried Wilhelm Leibniz, für den Denken auf Ableitungen jener Art zurückführbar war, die er in seinem System logischen Schließens (dem Calculus Ratiocinator) beschrieb, sodass »Schließen und Rechnen dieselbe Sache« wird und rationale Dissense durch ein »Calculemus!« (»Lasst uns rechnen!«) aufge [18] löst werden können.6 Mitte des 20. Jahrhunderts ließen zwei im Folgenden näher beleuchtete Entwicklungen das Computermodell des Geistes alternativlos erscheinen: (1) Erkenntnisse in der Logik, Informationstheorie und Computerwissenschaft kulminierten in der Erwartung, geistige Leistungen durch Simulation in künstlichen symbolverarbeitenden Maschinen besser verstehen zu können. (2) In der Psychologie etablierte sich mit dem Niedergang des Behaviorismus und der »Wiederentdeckung« mentaler Entitäten als legitimem Forschungsgegenstand einer wissenschaftlichen Psychologie die Überzeugung, geistige Leistungen seien durch die Aufdeckung jener unbewussten kognitiven Strukturen zu erklären, die ihnen auf einer subpersonalen Ebene zugrunde liegen.

Schon 1879 formulierte Gottlob Frege in seiner Begriffsschrift ein später von Bertrand Russell und Alfred North Whitehead in den Principia Mathematica weiterentwickeltes formales Regelsystem, dessen rein syntaktisch definierte Begriffe der Beweis- und Ableitbarkeit auf dieselben Klassen von Aussagen zutreffen wie die semantischen Begriffe der logischen Wahrheit und Folgerung. Der Nachweis, dass die Transformation uninterpretierter Symbole in einem solchen logischen Kalkül semantische Zusammenhänge zwischen normalsprachlichen Sätzen abbilden kann, war ein erster Meilenstein auf dem Weg zu einer formal-strukturellen Erklärung von Denkprozessen.

Ein weiterer wichtiger Schritt war 1936 Alan Turings Definition des Begriffs der Berechenbarkeit mithilfe einer sogenannten Turingmaschine. Eine Turingmaschine ist ein mathematisches Objekt, das sich als hypothetische Maschine veranschaulichen lässt. Sie besteht aus einem Speicherband mit potenziell unendlich vielen Feldern, von denen jedes zu jedem Zeitpunkt entweder leer ist oder genau ein Symbol enthält, sowie einem Lese- und Schreibkopf, der sich feldweise nach links und rechts bewegen kann. Eine Maschinentafel gibt abhängig vom internen Zustand (Z1, Z2, ...) und dem Input des Lesekopfes an, ob ein Symbol in das aktuelle Feld [19] geschrieben oder die Maschine angehalten werden soll, ob (falls nicht angehalten wird) der Lese- und Schreibkopf nach links (L) oder rechts (R) bewegt werden soll und in welchen internen Zustand die Maschine anschließend überzugehen hat. Die folgende Maschinentafel beschreibt zum Beispiel eine Turingmaschine, welche die Zahlen drei und vier addiert, indem sie ein Speicherband der Form

1

1

1

+

1

1

1

1

#

in eines der Form

1

1

1

1

1

1

1

#

#

überführt. Dies tut sie, indem sie sich vom ersten Feld aus nach rechts bewegt und das + mit einer 1 und die letzte 1 mit dem Begrenzungszeichen # überschreibt7:

Input \ interner ZustandZ1Z2

11, R, Z1#, Halt

+1, R, Z1

##, L, Z2

Eine auf natürlichen Zahlen definierte mathematische Funktion, so Turing, ist berechenbar, wenn sie turingberechenbar ist, das heißt, wenn es eine Turingmaschine gibt, die sie berechnen kann. Das Verhältnis zwischen dieser formalen Definition von Berechenbarkeit und einem intuitiven Berechenbarkeitsbegriff, wonach eine Funktion berechenbar ist, wenn es für ihre Lösung einen Algorithmus (effective procedure) gibt, ist Gegenstand der nach Alonzo Church und Turing benannten Church-Turing-These. Diese besagt, dass Funktionen genau dann algorithmisch berechenbar sind, wenn sie turingberechenbar sind. Da eine universelle Turingmaschine jede Turingmaschine simulieren kann8, folgt aus der Church-Turing-These, dass eine Maschine alle vom Menschen algorithmisch berechenbaren Funktionen berechnen kann. Eine solche universelle Turingmaschine mit einem potenziell unendlich langen Speicherband kann daher all jene geistigen [20] Leistungen des Menschen bewerkstelligen, die wie zum Beispiel unsere Fähigkeit zur Addition darauf beruhen, dass wir einem Algorithmus folgen.

Die Grundlage für die Nachbildung geistiger Leistungen in realen (und nicht nur hypothetischen) Maschinen legte unter anderem Claude Shannon, der Begründer der Informationstheorie. Er fasste Information als binäre Größe auf, die der Wahl zwischen genau zwei Möglichkeiten entspricht und daher in Form von Bits (binary units) quantifiziert und unabhängig vom semantischen Gehalt und vom Medium repräsentiert werden kann. Information in diesem Sinne war daher auch durch ebenfalls binär arbeitende elektromechanische Relais zu implementieren, die auf diese Weise auf rein syntaktischer Basis logische Operationen ausführen konnten.9 Damit war die bei Leibniz und in der modernen Logik antizipierte Automatisierung von Schlussfolgerungsprozessen Realität geworden und schritt mit der sich an John von Neumanns Beschreibung der Architektur moderner Rechner im Jahr 1945 anschließenden Entwicklung immer leistungsfähigerer digitaler Computer (letztlich real existierender Turingmaschinen mit endlichem Speicher) unaufhaltsam voran.

Aufbauend auf diesen Ideen präsentierten Allen Newell und Herbert Simon 1956 ihr Programm Logic Theorist, das selbstständig 38 Theoreme der Principia Mathematica bewies und dabei zum Teil elegantere Beweise fand als Russell und Whitehead. Ihr 1959 vorgestellter General Problem Solver sollte nicht nur Theoreme beweisen, sondern zum Beispiel auch Schach beherrschen und hatte als erstes KI-Programm das erklärte Ziel, menschliche Problemlösungsprozesse zu simulieren, also Aufgaben so anzugehen, wie Menschen es tun.10

Schon 1950 hatte Turing die Frage, ob Maschinen denken können, umformuliert zu der Frage, ob sie ein bestimmtes Imitationsspiel bestehen können: In diesem sogenannten Turingtest weiß ein Mensch nicht, ob er über Tastatur und Bildschirm mit einem anderen Menschen oder einer Maschine [21] kommuniziert. Gelingt es einer Maschine, in solchen Wortwechseln hinreichend oft für einen Menschen gehalten zu werden, so Turing, sollten wir ihr Intelligenz zusprechen.11

Vor diesem Hintergrund war die Kommunikation mittels natürlicher Sprache neben mathematischen Aufgaben und Denkspielen verschiedenster Art ein Hauptforschungsfeld der frühen KI. Joseph Weizenbaum zum Beispiel präsentierte 1966 mit Eliza ein Programm, das im Dialog einen Psychotherapeuten mimte, und Terry Winograd entwarf Anfang der 1970er-Jahre das Programm SHRDLU, das Sprachverständnis mit der Simulation von Handlungsplanung verband, indem es natürlichsprachliche Anweisungen interpretierte und entsprechend in einer virtuellen Umgebung farbige Bauklötze verschob.12 Einfache Programme wie diese waren jedoch auf sogenannte Mikrowelten – auf eng umschriebene und wohldefinierte Ausschnitte der Welt – beschränkt und weit davon entfernt, allgemeine menschliche Intelligenz simulieren und so womöglich den Turingtest bestehen zu können.

Um diesem Ziel näher zu kommen, müssen künstliche Systeme offenbar mit einer ungeheuren Menge an Alltagswissen ausgestattet werden: Wenn wir hören, dass Anna gestern in der Mensa war, dann muss uns nicht explizit gesagt werden, dass sie sich ein Tablett, Besteck und Essen geholt, Besteck und Essen auf dem Tablett deponiert, bezahlt und gegessen hat. Künstlichen Systemen hingegen müssen diese für Erwachsene selbstverständlich gewordenen Wahrheiten über Mensabesuche ausdrücklich beigebracht werden. Stereotypische Informationen über Objekte, Eigenschaften oder Situationen wurden zu diesem Zweck in Rahmen (frames) bzw. Schemata (scripts) zusammengefasst.13 Douglas Lenats seit 1984 laufendes Projekt Cyc ist der bislang umfangreichste Versuch, Alltagswissen wie »Man bezahlt Mensaessen« oder »Man stellt Teller auf die flache Seite des Tabletts« in für Maschinen auswertbarer Form zu codieren.14

Die Computer, auf denen solche Programme laufen, sind syntaktische Maschinen (syntactic engines), die bei der [22] Überführung von Inputs in Outputs ausschließlich von formal-syntaktischen Eigenschaften Gebrauch machen, dabei aber ausnutzen, dass diese semantische Zusammenhänge abbilden. In John Haugelands Worten: Sorgt man für die richtige Syntax, entsteht die Semantik von ganz allein.15 Auch modernste Systeme, allgemeine kognitive Architekturen wie ACT-R oder Soar und hoch spezialisierte Expertensysteme für Mikrowelten, die beide dem Ideal der Simulation menschlicher Intelligenz offenbar wesentlich näher kommen als noch SHRDLU oder Eliza, fußen immer noch auf diesem Prinzip. Newell und Simon brachten dessen zentrale Idee 1976 in ihrer Physical Symbol Hypothesis auf den Punkt, die sogenannte physikalische Symbolsysteme – Maschinen (konkrete Implementierungen von Turingmaschinen), die geeignete Abfolgen von Symbolen hervorbringen – als notwendige und hinreichende Grundlage allgemeinen intelligenten Handelns identifiziert.16

Was aber spricht dafür, dass uns künstliche Systeme tatsächlich helfen können, die Grundlagen der geistigen Leistungen des Menschen zu verstehen? Selbst wenn sie Reaktionen zeigen, die von unseren nicht zu unterscheiden sind, folgt daraus nicht, dass auch wir nur syntaktische Symbolverarbeiter (symbol cruncher) sind. Ned Block zum Beispiel hat gegen den Turingtest als Maßstab von Intelligenz eingewendet, eine Maschine, die in einer astronomisch großen Datenbank alle in einer gegebenen Zeit sinnvoll führbaren Konversationen gespeichert hat und für ihre Antwort jeweils zufällig eine Zeichenfolge auswählt, die das bisherige Gespräch weiterführt, müsse in jedem Turingtest (einer bestimmten Dauer) ebenso gut abschneiden wie ein Mensch, verfüge allem Anschein nach aber nicht über einen Funken Intelligenz.17 Ob ein System geistige Leistungen zeigt, hängt also offenbar nicht nur davon ab, dass Information verarbeitet wird, sondern auch davon, wie sie verarbeitet wird.

Selbst wenn man sich auf geeignete Architekturen beschränkt, können künstliche Systeme geistige Leistungen des [23] Menschen also nur dann erhellen, wenn auch Letztere auf entsprechenden syntaktischen Operationen beruhen. Was spricht dafür?

Um die Jahrhundertwende dominierte in der Psychologie noch Wilhelm Wundts und Edward Titcheners introspektive Psychologie, die in den Inhalten des bewussten Erlebens den einzig legitimen Forschungsgegenstand sah. In der ersten Hälfte des 20. Jahrhunderts jedoch brandmarkte ein radikaler Behaviorismus bewusste mentale Zustände als unwissenschaftlich und verbannte sie zugunsten vermeintlich objektiv messbarer Reize und Reaktionen aus der Psychologie. Mentale Phänomene gelangten erst wieder in den Fokus, als die Unzulänglichkeit starrer behavioristischer Reiz-Reaktions-Erklärungen deutlich wurde. Der Psychologe Edward Tolman zum Beispiel trainierte Ratten darauf, in einem Labyrinth den kürzesten von drei Wegen zu einem Ziel zu nehmen; wurde dieser Weg anschließend so blockiert, dass zugleich auch der mittellange Weg kurz vor dem Ziel unpassierbar wurde, kehrten die Ratten zum Start zurück und nahmen sofort den längsten Weg, ohne den mittellangen auszuprobieren. Sie hatten sich offenbar eine interne Repräsentation (eine »mentale Karte«) des Labyrinths angeeignet.18 Befunde dieser Art führten dazu, dass intelligentes Verhalten im Zuge der kognitiven Wende zunehmend wieder mithilfe mentaler Zustände erklärt wurde, die (durchaus im Einklang mit der behavioristischen Kritik am Introspektionismus) auf einer unbewussten Ebene zwischen Reizen und Reaktionen, Sinneseindrücken und Handlungen, zu vermitteln hatten. Da zudem Warren McCulloch und Walter Pitts 1943 dafür argumentierten, dass Netzwerke einfacher binärer Neuronenmodelle durch entsprechende Koppelungen jede turingberechenbare Funktion berechnen können (s. Kap. 3), lag es nur nahe, in den entsprechenden kognitiven Vermittlungsprozessen neuronal implementierte formal-syntaktische Berechnungsprozesse zu sehen.19

Aufgabe der Psychologie, so der Tenor der in den [24] 1960er-Jahren aufkeimenden kognitiven Psychologie, musste es daher sein, jene unbewussten kognitiven Prozesse zu beschreiben und zu untersuchen, die aufgrund ihrer computationalen und repräsentationalen Eigenschaften die für intelligentes Verhalten erforderlichen geistigen Leistungen hervorbringen. Auf diese Weise beanspruchte die kognitive Psychologie, die Brücke zu schlagen zwischen der personalen Ebene intelligenten Verhaltens und der subpersonalen Ebene der diesem Verhalten zugrunde liegenden kognitiven Mechanismen.20 Der sogenannte Rules-and-representation-Ansatz des Computermodells war damit unwiderruflich etabliert: Wie ein Computer soll auch das Gehirn eine syntaktische Maschine sein (ein physikalisches Symbolsystem im Sinne von Newell und Simon), die durch die formalen Regeln folgende sequenzielle Transformation repräsentationaler Zustände Inputs in Outputs überführt – und zwar nicht nur bei einfachen arithmetischen oder logischen Operationen, sondern auch bei komplexeren Problemen wie etwa dem Schachspiel oder der Extraktion von Form oder Entfernung eines Objekts aus den Daten des Retinabilds, wie zum Beispiel Marrs computationale Wahrnehmungstheorie als ein Paradebeispiel kognitivistischer Forschung eindrucksvoll demonstriert.21

Mit Blick auf seine Nähe zur frühen KI wird dieser sogenannte Kognitivismus oft auch als »Good Old-Fashioned Artificial Intelligence« (GOFAI) bezeichnet.22 In der Philosophie hingegen spricht man üblicherweise von der computationalen bzw. repräsentationalen Theorie des Geistes. Die repräsentationale Theorie versteht mentale Zustände als Relationen zu Repräsentationen (wer glaubt, dass Anna Pianistin ist, der steht in der Relation des Glaubens zu einer mentalen Repräsentation von Anna) und kognitive Prozesse als mentale Operationen über diese Repräsentationen. Die computationale Theorie ist jener Spezialfall der repräsentationalen Theorie, der die fraglichen Operationen als symbolische und formale Berechnungsprozesse beschreibt: symbolisch, weil sie Repräsentationen zum Gegenstand haben, [25] die mit den Ausdrücken einer Sprache vergleichbar sind, und formal, weil sie von semantischen Eigenschaften wie Wahrheit oder Bedeutung absehen und Repräsentationen nur aufgrund formal-syntaktischer Eigenschaften verarbeiten. Jerry Fodor zufolge kann die computationale Theorie nicht umhin, eine Sprache des Geistes (language of thought) als Medium dieser Berechnungsprozesse und als Repertoire der zu transformierenden Symbole zu postulieren.23 Dieses »Mentalesisch« ist ein System interner symbolischer Repräsentationen, das wie eine natürliche Sprache strukturiert ist und daher Merkmale wie Produktivität (endlich viele Repräsentationen lassen sich in regelhafter Weise zu unendlich vielen komplexen Symbolen kombinieren, deren Bedeutung sich aus den Bedeutungen ihrer Teile ergibt) oder Systematizität (wer glaubt, dass Paul Anna liebt, der muss auch glauben können, dass Anna Paul liebt) aufweist. Nur wird Mentalesisch eben nicht gesprochen, sondern ist analog zum Symbolsystem eines Computers (also binären Bitmustern) durch die formal-syntaktische Struktur neuronaler Prozesse implementiert.

Für den Kognitivismus sprach neben seiner historisch gewachsenen Plausibilität vor allem, dass er eine Reihe klassischer Probleme zu lösen versprach. Insbesondere das Problem der mentalen Verursachung, also die Frage, wie mentale Zustände aufgrund ihres semantischen Gehalts in der physischen Welt kausal wirksam werden können, scheint sich nicht zu stellen: Da mentale Zustände (zum Beispiel in Fodors Sprache des Geistes) ihren semantischen Gehalt aufgrund ihrer formal-syntaktischen Struktur haben, können Kausalprozesse semantischen Eigenschaften Rechnung tragen, obwohl sie vordergründig nur für formal-syntaktische Eigenschaften sensitiv sind. So können physische Systeme auch für Gründe oder Rationalitätserwägungen empfänglich sein, ohne dass in ihrem Inneren ein sogenannter Homunkulus über das entsprechende semantische Verständnis verfügen muss: Es ist ganz einfach das System als Ganzes, das [26] aufgrund seiner formal-syntaktischen Struktur semantisches Verständnis zeigt.

Das lange Zeit populärste Argument für den Kognitivismus hat Fodor einmal durch Lyndon B. Johnsons Aussage »I’m the only President you’ve got« auf den Punkt gebracht: Da kognitive Prozesse und ihr computational-repräsentationaler Charakter weder aus einer wissenschaftlichen Außen- noch aus einer subjektiven Innenperspektive heraus direkt zugänglich sind, handelt es sich dabei um theoretische Entitäten, deren Existenz (wie zum Beispiel auch bei subatomaren Teilchen in der Physik) nicht durch Beobachtung, sondern nur durch die explanatorische Fruchtbarkeit der jeweiligen Theorie belegt wird. Lange Zeit gab es aber schlicht keine alternative Erklärung intelligenten Verhaltens, die ohne repräsentationale Zustände und entsprechende Berechnungsprozesse ausgekommen wäre.24 Dies änderte sich erst, als ab den 1980er-Jahren zunächst konnektionistische und schließlich dynamizistische sowie situierte Ansätze (s. Kap. 3–5) den Alleinigkeitsanspruch des Kognitivismus infrage stellten. Bis dahin konzentrierte sich die Kritik auf die offensichtlichen Beschränkungen künstlicher Systeme und die Frage, ob sie aufgrund ihrer Programmierung Intelligenz und Verständnis bzw. Semantik im eigentlichen Sinne tatsächlich selbst ausbilden (die These der starken KI) oder doch bestenfalls durch Simulation verstehen helfen können (die These der schwachen KI).

Das Rahmenproblem (frame problem) beispielsweise nimmt seinen Ausgang in der Frage, wie ein künstliches System Dynamiken logisch repräsentieren kann, ohne all jene Aspekte spezifizieren zu müssen, die trivialerweise gleich bleiben. In der KI gilt diese Schwierigkeit formal inzwischen als gelöst.25 Philosophisch geht es darum, wie ein Akteur sein Überzeugungssystem effizient an die Folgen seiner Handlungen anpassen kann. Wenn wir ein Buch von A nach B legen, dann ist nicht nur das Buch an einem neuen Ort, sondern womöglich auch das darin befindliche Lesezeichen. Unsere [27] diesbezüglichen Überzeugungen müssen also entsprechend revidiert werden, während zahllose andere so bleiben können, wie sie sind. Uns Menschen sagt unser Weltwissen, was relevant ist, ein künstliches System aber kann nicht für jeden Eintrag seiner Wissensdatenbank prüfen, ob er infolge einer Handlung revidiert werden muss, und es weiß auch nicht, welche relevant sind, ohne für jeden zu prüfen, ob er relevant ist.26 Man kann versuchen, künstlichen Systemen (etwa in Form von scripts) stereotypisches Weltwissen zu vermitteln, das philosophische Rahmenproblem löst man damit aber anscheinend ebenso wenig wie durch die in den folgenden Kapiteln diskutierten alternativen Ansätze.27

Einen ähnlichen Einwand hat Hubert Dreyfus vorgebracht.28 Er argumentiert in Anlehnung an die Phänomenologie Martin Heideggers, dass unser Sinn für Relevanz wesentlich ein auf unserer Interaktion mit der Welt beruhendes praktisches Wissen-wie ist (ein Wissen, wie man etwas macht), während symbolische Repräsentationen bloß ein abstraktes Wissen-dass zuwege bringen können (ein Wissen, dass etwas der Fall ist). Da die Welt als holistische Ganzheit für uns nur durch ein Handeln in ihr zu erfassen ist, erfordern Bedeutung und Intelligenz eine verkörperlichte menschenähnliche Existenz: Die atomistischen und von der Welt separierten inneren Repräsentationen des Kognitivismus müssen folglich bedeutungslos bleiben und sind daher ungeeignet, sinnhafte Beziehungen zwischen den Dingen der Welt einzufangen – eine Kritik, die später ganz ähnlich auch situierte Ansätze erheben sollten (s. Kap. 5).

John Searles Gedankenexperiment des Chinesischen Zimmers attackiert ebenfalls die Vorstellung, Maschinen könnten allein aufgrund ihrer Programmierung semantisches Verständnis zeigen: Eine Person, die kein Chinesisch versteht, befindet sich in einem Zimmer, in das drei Stapel chinesischer Texte sowie Anweisungen in englischer Sprache gereicht werden, die angeben, wie sich aus der Form der chinesischen Schriftzeichen in den Texten und ihren formalen [28] Beziehungen untereinander weitere Zeichen ergeben, welche die Person zu notieren und nach draußen zu reichen hat. Bei den Texten handelt es sich um eine Geschichte, ein entsprechendes script sowie Fragen zu der Geschichte, und die nach draußen gereichten Zeichenfolgen verstehen chinesische Muttersprachler als Antworten auf die Fragen. Die englischen Anweisungen sind ein »Programm« im Sinne des Kognitivismus, dessen formale Regeln der Person in dem Zimmer chinesische Zeichen so zu transformieren erlauben, dass Antworten auf Fragen zu einer Geschichte in chinesischer Sprache entstehen, die von denen chinesischer Muttersprachler ununterscheidbar sind. Da die Person jedoch trotz allem keinerlei Chinesisch versteht, so Searle, ist die These der starken KI falsch: Formale Symbolverarbeitung allein reicht für jenes semantische Verständnis, das die (ununterscheidbaren) Antworten chinesischer Muttersprachler hervorbringt, nicht aus (kann es womöglich aber durchaus im Sinne der schwachen KI verstehen helfen). Searles kontrovers diskutiertes Argument29 behauptet nicht, dass Maschinen per se kein semantisches Verständnis zeigen können (chinesische Muttersprachler sind Maschinen einer bestimmten Art), sondern dass sie es nicht nur deshalb können, weil sie entsprechend programmiert sind. Die richtige Syntax alleine ist also, anders als Haugeland behauptet hat, nicht hinreichend für Semantik. Eine Maschine, die zu semantischem Verständnis und echter »intrinsischer« Intentionalität statt bloßer »als-ob«-Intentionalität in der Lage sein soll, muss laut Searles sogenanntem biologischem Naturalismus eben nicht nur richtig programmiert sein, sondern auch eine Hardware aufweisen, die über ähnliche Kausalkräfte verfügt wie das menschliche Gehirn.30

Stevan Harnads Symbol Grounding Problem wirft ganz ähnlich die Frage auf, wie die repräsentationalen Zustände physikalischer Symbolsysteme eine intrinsische Bedeutung haben können, die nicht bloß von den »eigentlichen« Bedeutungen im Kopf externer Interpreten abhängt.31 Dem Kognitivismus zufolge ergibt sich Bedeutung daraus, dass die [29] entsprechenden Strukturen in der »richtigen« Beziehung zur Welt stehen.32 Die skizzierten Einwände deuten jedoch darauf hin, dass das, was als »richtig« gilt, durch die rein formalen Aspekte der inneren Zustände und Berechnungsprozesse eines Systems allein nicht adäquat zu erfassen ist, solange seine spezifische körperliche Verfasstheit sowie seine wechselseitige Interaktion mit der es umgebenden Welt ignoriert werden.

Dieses Kapitel hat gezeigt, wie und warum sich das traditionelle Sandwichmodell von Kognition als informationsverarbeitendem Prozess herausbildete, der in Form symbolischer Berechnungen auf das Gehirn beschränkt ist, während alles jenseits der zentralen Strukturen zum peripheren sensomotorischen Input und Output gehört, aber nicht im eigentlichen Sinne kognitiv ist. Die folgenden Kapitel werden zunehmend deutlich machen, dass die größte Schwäche des Kognitivismus gerade in diesem rein abstrakten Verständnis von Kognition liegt.