1 Einleitung: Kognitive und Computationale Neurowissenschaften
Die Bezeichnung kognitive Neurowissenschaften geht auf George A. Miller und Michael Gazzaniga Ende der 1970er-Jahre zurück (Gazzaniga et al. 2014, S. 4; vgl. Gazzaniga und Mangun 2014; Karnath und Thier 2012; Lyre 2017). In dem sich neu formierenden Feld sollten die bislang getrennten Gebiete der Neuro- und der Kognitionswissenschaften zusammengeführt werden. Entsprechend geht es in den kognitiven Neurowissenschaften um die neurobiologischen Grundlagen von Kognition, also derjenigen neuronalen Mechanismen und Prozesse, die geistigen Fähigkeiten zu Grunde liegen. Gazzaniga et al. sprechen im Untertitel ihres Standardwerks von einer „Biology of the Mind“. Zu den Standardthemen der kognitiven Neurowissenschaften gehören die Themen Wahrnehmung, Objekterkennung, Aufmerksamkeit, Motorik und Handlung, Lernen und Gedächtnis, Sprache, Emotionen, höhere Kognition, soziale Kognition und Bewusstsein. Entscheidender Motor der wissenschaftlichen Entwicklung in den kognitiven Neurowissenschaften sind einerseits die voranschreitenden technologischen Instrumentarien wie EEG, MEG, funktionale Bildgebung, TMS, Optogenetik, andererseits die theoretische Entwicklung immer leistungsstärkerer computationaler Modelle.
1.1 Computationale Neurowissenschaft und neuronale Netze
Die Computationale Neurowissenschaft (computational neuroscience) ist die zentrale theoretische Teildisziplin der kognitiven Neurowissenschaften, sie strebt nach Modellen neuronaler Funktionalität auf der Basis computationaler Prozesse. Letztere involvieren mindestens eine Form von Informationsverarbeitung und die Möglichkeit der Berechnung (Computation) mathematischer Funktionen. Computationale Neurowissenschaft setzt ab der Ebene der einzelnen Nervenzelle ein mit dem Hodgkin-Huxley-Modell als frühem und allgemeinen Neuronenmodell zur Entstehung und Dynamik von Aktionspotenzialen. Die Nervenzelle stellt üblicherweise die kleinste computationale Einheit dar, mit aufsteigender Komplexität folgen kortikale Säulen, neuronale Karten, neuronale Ensembles, großräumige Netzwerk-Komponenten, Module und Hirnareale.
Den Schlüsselgedanken neuronaler Plastizität formuliert die von Donald Hebb (1949) neurophysiologisch bestätigte Hebbsche Lernregel, wonach die gleichzeitige Aktivität zweier Neuronen deren synaptische Verbindung verstärkt (Hebb 1949, S. 62). Hierdurch eröffnet sich ein grundlegendes Verständnis neuronaler Systeme als lernend, speichernd, adaptiv und assoziativ – und hierauf gründet sich ganz wesentlich der Konnektionismus mit neuronalen Netzwerken als computationalem Paradigma neurokognitiver Systeme (Abschn. 4). Während grundlegende Netzwerk-Modelle wie die Lernmatrix oder das Perzeptron bereits in den 1950er-Jahren entwickelt wurden, kam es in den 1970er-Jahren zu einer weitgehenden Verdrängung durch die Dominanz der symbolverarbeitenden KI (Abschn. 3.1). Die 1980er-Jahre führten dann zu einem explosionsartigen Wieder erstarken des (Neo-) Konnektionismus mit einer Vielzahl neuer Modelle wie dem Hopfield-Modell, Backpropagation, Boltzmann-Maschine und selbstorgansierenden Netzen nach Willshaw-Malsburg und Kohonen (vgl. Bechtel und Abrahamsen 2002; Churchland und Sejnowski 1992; Trappenberg 2010). Ab den 1990er-Jahren treten mit Dynamizismus und situierter Kognition (Embodiment, Embeddedness; weitergehend auch Extended Cognition und Enaktivismus) paradigmatische Weiterentwicklungen auf (vgl. Clark 2014), die allerdings mit neurocomputationalen Architekturen viel eher verträglich sind als mit klassisch-symbolistischer KI, insofern neuronale Netze ganz wesentlich inputgetrieben sind und der dynamischen Ankopplung und Einbettung in eine Umwelt bedürfen (Abschn. 4.1).
1.2 Erklärungen und Ebenen der Neurocomputation nach Marr
- 1.
Computationale Ebene („computational theory“): Was ist das Ziel der Berechnung? Warum ist es angemessen? Und was ist die Logik der Strategie ihrer Ausführung?
- 2.
Algorithmische Ebene („representation and algorithm“): Durch welche algorithmischen Manipulationen und welche Input-/Output-Repräsentationen kann das Rechenziel erreicht werden?
- 3.
Physische Implementierungs-Ebene („hardware implementation“): Wie wird der Algorithmus physisch realisiert?
Marr optiert für eine top-down-Vorgehensweise in der Computationalen Neurowissenschaft, sein computationales Modell der Kantendetektion im visuellen System liefert ein Beispiel. Zunächst ist auf der computationalen Ebene diejenige mathematische Funktion zu spezifizieren, die die Kantenextraktion eines Bildes leistet und damit das erzeugt, was Marr den „raw primal sketch“ nennt. Dies wird durch die Nulldurchgänge (zero crossings) einer Laplacefilter-Transformation geleistet. Auf der algorithmischen Ebene ist dann der spezifische Algorithmus zu eruieren, mit dessen Hilfe das System diese Funktion ausführt, denn grundsätzlich existieren unterschiedliche Algorithmen zur Berechnung einer gegebenen Funktion, wobei es nicht unwesentlich auch auf das Datenformat ankommt, in dem Input und Output (hier: Urbild und Kantenbild) vorliegen. Schließlich muss auf der Implementierungs-Ebene der realisierende Mechanismus (in Form einer Hardware oder in Form der biologisch-neuronalen Realisierung) erfasst werden (s.a. Abschn. 2.2).
Marrs Methodologie hat in jüngerer Zeit einige Aufmerksamkeit in der Wissenschaftstheorie erlangt (vgl. Peebles und Cooper 2015). Shagrir (2010, 2012) zeigt, dass Marrs Konzeption mit dem Konzept strukturaler Repräsentation (Abschn. 4.3) gut verträglich ist, wobei er zusätzlich hervorhebt, dass auf der computationalen Ebene neben der Frage nach der mathematischen Zielfunktion die oft übersehenen Fragen nach der Angemessenheit dieser Funktion und der Strategie ihrer Ausführung relevant sind.
2 Computation
Die Grunddoktrin der Computationalen Neurowissenschaft ist ein Computationalismus bezüglich des Gehirns, also roh gesagt die These, dass das Gehirn ein Computer sei. Das Lehrbuch von Christof Koch (1999) beginnt paradigmatisch mit den Worten: „The brain computes! This is accepted as a truism by the majority of neuroscientists engaged in discovering the principles employed in the design and operation of nervous systems.“ Ein Verständnis der Grunddoktrin setzt ein grundsätzliches Verständnis dessen voraus, was Computation überhaupt ist. Computer sind physikalische Systeme, aber nicht jedes physikalische System ist ein Computer. Die These, dass die Unterscheidung zwischen einem computationalen System und einem bloßen physikalischen System unabhängig von unserer Interpretation und unseren Erkenntnisinteressen besteht, charakterisiert die Doktrin des computationalen Realismus. Ihm zufolge ist es eine Frage der Ontologie und mithin eine Tatsache, ob ein System ein Computer ist oder nicht (vgl. Ladyman 2009).
2.1 Was ist Computation?
Welche Kriterien muss ein physikalisches System erfüllen, damit man es als computational bzw. als Computer ansehen kann? Nach intuitivem Bild realisiert bzw. implementiert eine physikalische Apparatur eine abstrakte formale Berechnung genau dann, wenn die Apparatur so eingerichtet ist, dass ihre kausalen Zustandsänderungen im Einklang mit den formalen Berechnungsschritten stehen. Die physisch reale Implementierung ist also Spiegel eines ansonsten abstrakten, mathematischen Berechnungsschemas. David Chalmers (1996a, S. 317–319) kleidet diesen Gedanken in folgende Formulierung:
„Computations ... are abstract objects, with a formal structure determined by their states and state transition relations. Physical systems are concrete objects, with a causal structure determined by their internal states and the causal relations between the states. Informally, we say that a physical system implements a computation when the causal structure of the system mirrors the formal structure of the computation. That is, the system implements the computation if there is a way of mapping states of the system onto states of the computation so that physical states that are causally related map onto formal states that are correspondingly formally related.“

Die obere Zeile illustriert die mathematische Funktion +, welche Zahlenpaare <n, m> auf deren Summe n+m abbildet. Die untere Zeile entspricht einer Abbildung der physikalischen Zustände S (Tastendrücke N, M, +, =) auf den Endzustand S’ des Displays D. Während die untere Zeile die kausale Abbildung „c→“ der Computation (Marrs Ebene der Implementierung, Abschn. 1.2) darstellt, repräsentiert die obere Zeile eine rein mathematische Abbildung „m→“. Zwischen beiden Abbildungen vermittelt in Form der vertikalen Pfeile ein Isomorphismus, hier als Interpretation „Int“ bezeichnet, der die physikalische Implementierung der Computation auf die mathematische Funktion struktural abbildet. Dem Tower-Bridge-Bild zufolge ist eine Computation ein strukturale Interpretation eines physikalischen Prozesses, von Cummins als „s-Repräsentation“ bezeichnet (Abschn. 4.3).
2.2 Arten der Computation
Dem modernen Konzept des Computers liegt das Modell der Turingmaschine als formales Modell von Berechenbarkeit zu Grunde (Turing 1936). Eine Turingmaschine ist ein Tupel bestehend aus (i) einem unendlich langen Speicherband, (ii) einem Schreib-Lese-Kopf, der auf dem Speicherband operiert, (iii) einem Programm, das den Schreib-Lese-Kopf steuert und (iv) einem endlichen Alphabet aus Symbolen. Die Arbeit einer Turingmaschine und somit eine Berechnung besteht demnach aus einer schrittweisen Manipulation von Symbolen nach Regeln. Die Menge der Regeln wird auch als Algorithmus bezeichnet, jede spezifische Turingmaschine T(P) repräsentiert einen spezifischen Algorithmus (oder auch ein Programm). Gemäß der Church-Turing-These lassen sich alle algorithmisch berechenbaren Funktionen durch eine Turingmaschine realisieren. Ferner lässt sich eine universelle Turingmaschine konstruieren, die jede spezifische T(P) emuliert, indem sie das Programm der T(P) als Teil ihrer Eingabe codiert. Aus der Existenz der universellen Turingmaschine folgt die Unlösbarkeit des Halteproblems, also der Frage, ob sich allgemein entscheiden lässt, ob eine T(P) mit einem spezifischen Input zum Halten kommt. Das Turingsche Halteproblem ist dem Hilbertschen Entscheidungsproblem äquivalent.
Es lassen sich verschiedene Arten von Computation (bzw. Computern) unterscheiden. Am bekanntesten ist digitale Computation. Ein Digitalcomputer entspricht einer Turingmaschine mit einem endlichen Alphabet diskreter, also unterscheidbarer Symbole, im einfachsten Fall bestehend aus nur zwei Symbolen wie etwa 0 und 1. Die Diskretheit der Symbole setzt eine Diskretheit der die Symbole realisierenden physikalischen Vehikel voraus. Digitale Computation ist nicht auf eine von-Neumann-Architektur festgelegt (bestehend aus einem zentralen Rechen- und Steuerwerk sowie einem Speicher, in dem sowohl Programme als auch Daten hinterlegt sind). Auch bestimmte Netzwerk-Architekturen lassen sich als Digitalcomputer verstehen. Das bekannteste Beispiel ist das McCulloch-Pitts-Netzwerk, der früheste Vertreter eines neuronalen Netzwerks (vgl. Harnish 2001).
Die Quantencomputation stellt eine Erweiterung klassischer digitaler Computation dar. Als Vehikel dienen Qubits, also binäre Quantenzustände, ihre Verarbeitung verläuft aber nichtsdestotrotz algorithmisch. Unter Ausnutzung quantenmechanischer Prinzipien, insbesondere Superposition und Verschränkung, ist es theoretisch möglich, bestimmte Probleme effizienter und signifikant schneller zu lösen (z. B. Grover- und Shor-Algorithmus). Dies führt auf ungelöste Fragen im Zusammenhang mit der Komplexitätsklasse von Quantencomputern im Gegensatz zu klassischen Digitalcomputern und dem Zusammenhang mit dem Fundamentalproblem [P=NP?] der theoretischen Informatik (vgl. Aaronson 2013), dennoch gilt, dass Quantencomputation eine Variante digitaler Computation ist.
Analoge Computation bildet das Gegenstück zu digitaler Computation. Analogcomputer manipulieren keine diskreten Symbole, sondern operieren auf den kontinuierlichen Variablen eines physikalischen Systems. Die zeitliche Veränderung der Systemvariablen wird nicht schrittweise durch Algorithmen, sondern durch Differenzialgleichungen beschrieben. So verstandene Analogcomputation steht jedoch vor dem Problem, dass die Klasse der Analogcomputer mit der Klasse der dynamischen Systeme zusammenfällt, was den Begriff der Analogcomputation trivialisieren würde. Analogcomputer lassen sich auch als physikalische Systeme auffassen, die andere physikalische Systeme oder Gegenstandsbereiche simulieren (O’Brien und Opie 2009).
Piccinini (2015) schlägt vor, die weitest mögliche Klasse von Computation als generische Computation zu definieren. Im Fall generischer Computation werden medium-unabhängige Vehikel regelhaft prozessiert. Ein computationales Vehikel ist medium-unabhängig, insofern die Regeln der Computation nur sensitiv sind bezüglich raumzeitlicher Eigenschaften der Vehikel. Anders ausgedrückt: medium-unabhängige Vehikel sind also nur ihrer funktional relevanten Form und nicht ihrer materiellen Beschaffenheit nach bestimmt und daher multipel realisierbar. Generische Computation umfasst die drei zuvor betrachteten Klassen von Digital-, Quanten- und Analogcomputation.
Für den Computationalismus der computationalen und kognitiven Neurowissenschaft ist die Klasse der neuronalen Computation relevant. Hier entsteht speziell die Frage, ob neuronale Computation eine Unterart von digitaler oder analoger Computation ist oder gegebenenfalls eine eigene dritte Klasse darstellt. Die Praxis der Computationalen Neurowissenschaft sieht neuronale Computation als digital an. Der Grund hierfür ist, dass neuronale Aktionspotenziale, Spikes, typischerweise als diskrete Einheiten verstanden werden (vgl. Dayan und Abbott 2001, S. 8). In der philosophischen Literatur ist diese Frage strittig. Shagrir (2010, 2018a) argumentiert dafür, das Gehirn als „Analog-Modell-Computer“ anzusehen, und auch Maley (2018) favorisiert ein Bild analoger Computation, da sowohl die neuronale Feuerungs-Rate (spike rate) als auch die zeitliche Signatur der Spikes (spike timing) kontinuierliche Größen sind. Demgegenüber sehen Piccinini und Bahar (2013) neuronale Computation als sui generis an, da neuronale Signale sowohl diskrete Elemente, die Spikes, als auch kontinuierliche Elemente wie die Spike-Rate besitzen und demnach ein Hybrid aus digital und analog darstellen (siehe auch Fragen neuronaler Codierung in Abschn. 4.1).
2.3 Drei Konzeptionen von Computation
Kausal-strukturale Konzeption: Computation besteht in der Struktur derjenigen kausalen Zustandsänderungen eines physikalischen Systems, die sich strukturerhaltend auf ein mathematisches Berechnungsschema abbilden lassen
Mechanistische Konzeption: Computation besteht darin, dass computationale Systeme eine spezielle Sorte funktional organisierter Mechanismen sind
Semantisch-repräsentationale Konzeption: Computation besteht darin, bedeutungshafte Symbole zu prozessieren
2.3.1 Die kausal-strukturale Konzeption
Die kausal-strukturale Konzeption entspricht dem bereits beschriebenen intuitiven Verständnis von Computation, sie wird durch das Tower-Bridge-Bild gut illustriert (vgl. Chalmers 1996a, 2011; Cummins 1989, 1996). Die kausal-strukturale Konzeption lässt sich im Prinzip sowohl mit einem computationalen Realismus als auch Anti-Realismus in Verbindung bringen. Im letzteren Falle wird die computationale Struktur eines physikalischen Systems als äußere Interpretation oder Zuschreibung hervorgehoben, ist aber keine in den physikalischen Vehikeln bestehende Tatsache. Im ersteren, realistischen Falle müsste die computationale Kausalstruktur eines physikalischen Systems in ontologischer Weise von der bloßen physikalischen Strukur durch weitere spezifizierende Kriterien zu unterscheiden sein. Aus sich heraus scheint die kausal-strukturale Konzeption derartige Kriterien aber nicht liefern zu können.
Nach Ansicht ihrer Kritiker ist die kausal-strukturale Auffassung zu liberal, denn bloße Strukturgleichheit kann zwischen kausal-physikalischen und mathematischen Domänen auch bestehen, ohne dass von Computation die Rede ist. Hält man auch in derartigen Fällen am Begriff der Computation fest, führt dies auf die Möglichkeit der Multi-Computation bzw. im Extremfalle auf einen Pancomputationalismus. Einem hinreichend komplexen physikalischen System lässt sich nahezu jedwede strukturale Interpretation abgewinnen und somit nahezu jedwede mathematische Funktion in das System hineinlesen. Demnach würde jedes hinreichend komplexe physikalische System nahezu jedwede Computation ausführen. Dies führt auf eine Trivialisierung der kausal-strukturalen Konzeption.
Searle (1992) entwickelt ein Gedankenexperiment, wonach die Wand in seinem Arbeitszimmer das Computerprogramm Wordstar implementiert, einfach deshalb, weil die ungeheure Menge an Molekülen und Atomen in der Wand zu jedem Zeitpunkt eine so große Menge an Kausalrelationen realisiert, dass auch diejenige Menge an Kausalrelationen, die zur Realisierung von Wordstar benötigt werden, problemlos darin als Untermenge enthalten sind. Searle folgert, dass Syntax der Physik nicht intrinsisch ist. Putnam (1988) argumentiert analog und mit größerer formaler Strenge, dass jeder einfache Stein einen endlichen Zustandsautomaten, also eine Form von Digitalcomputer, realisiert.
Manche Autoren akzeptieren den Pancomputationalismus, allerdings nur in abgeschwächter Form, denn nicht jedes physikalische System lässt sich als Realisierung jedweder Computation ansehen, da bestimmte Randbedingungen „hinreichender Komplexität“ erfüllt sein müssen. Auch muss das System konkrete physikalische Erfordernisse hinsichtlich Stabilität, Rigidität und Solidität erfüllen, um die Vehikel einer digitalen Computation bereitstellen zu können (ein Digitalcomputer lässt sich schwerlich aus Gelee herstellen). Die gegenüber dem Pancomputationalismus abgeschwächte These der multiplen Computation besagt, dass bestimmte physikalische Systeme gleichzeitig mehr als nur eine Computation implementieren (Hemmo und Shenker 2019).
Beide Thesen unterminieren ipso facto die These des computationalen Realismus. Und mit beiden Thesen eng verwandt sind die Thesen des computationalen Externalismus (Shagrir 2001) bzw. des Anti-Individualismus bezüglich Computation (Rescorla 2013). Hier wird hervorgehoben, dass es einem physikalischen Baustein nicht intrinsisch ist, welche Computation er realisiert, dass dies aber externalistisch, durch Einbettung in einen äußeren Kontext, ermöglich wird. Wie Shagrir zeigt, lässt sich ein physikalischer Baustein sowohl als UND- als auch als ODER-Gatter auffassen, je nachdem, welche äußere Belegung der Spannungbereiche vorgenommen wird (Shagrir 2001; Harbecke und Shagrir 2019).
Hemmo und Shenker (2019) argumentieren, dass multiple Computation eine Auswirkung auf fundamentale Fragestellungen der Thermodynamik der Computation hat. Nach gängiger Auffassung ist die physikalische Ausführung einer irreversiblen logischen Operation mit einer elementaren thermodynamischen Energiedissipation in der Größenordnung von kB log(2) verbunden (wobei kB die Boltzmann-Konstante darstellt). Dies ist als Landauers Prinzip bekannt (Landauer 1961). Es spielt eine zentrale Rolle in der Debatte um den Maxwellschen Dämon, der die Gültigkeit des zweiten Hauptsatzes der Thermodynamik in Frage stellt (vgl. Leff und Rex 2003). Laut Bennett (1982) besagt Landauers Prinzip, dass der Dämon beim Löschen seines Speichers die Entropiebilanz im Einklang mit dem zweiten Hauptsatz zwangsläufig bereinigt. Diese Art der Austreibung des Maxwellschen Dämons ist in der Literatur nicht unumstritten (Norton 2013). Die These der multiplen Computation bedroht nun ebenso Landauers Prinzip, insofern der Unterschied zwischen reversiblen und irreversiblen logischen oder computationalen Operationen nicht gezogen werden kann.
2.3.2 Die mechanistische Konzeption
- (1)
ein durch eine innere Organisation strukturiertes System
- (2)
bestehend aus Teilen, Komponenten oder Entitäten,
- (3)
deren Operationen oder Aktivitäten
- (4)
dem zu erklärenden Phänomen oder Systemverhalten zugrundeliegen.
Die mechanistische Konzeption fügt der kausalen Konzeption eine Anforderung über die funktionale Organisation des computationalen Systems hinzu. Hierbei zielt man auf die spezifische materielle Instantiierung des Systems ab, also auf das Level der Implementierung nach Marr (Abschn. 1.2). Die mechanistische Konzeption lässt sich typischerweise im Sinne eines computationalen Realismus verstehen.
Nur physikalische Zustände, die innerhalb einer bestimmten Art von Mechanismus eine bestimmte funktionale Bedeutung haben, können auf das Level der computationalen Beschreibung abgebildet werden und gelten in diesem Sinne als computationale Zustände. Fehlt einem Zustand die entsprechende funktionale Bedeutung, handelt es sich nicht um einen computationalen Zustand. Die Komponenten des implementierenden Mechanismus müssen aber als medium-unabhängige computationale Vehikel in dem oben von Piccinini (2015) beschriebenen Sinne ansehbar sein: die Regeln der Computation dürfen nur sensitiv sein bezüglich raumzeitlicher Eigenschaften der Komponenten. Eine solche, rein funktionale Charakterisierung der Komponenten eines computationalen Mechanismus geht ersichtlich über den ursprünglichen Mechanismus-Begriff hinaus, da die Komponenten durch ihre abstrakt-formalen und nicht ihre konkreten Eigenschaften charakterisiert werden (Eigenschaften zweiter und nicht erster Stufe). Von Seiten der Kritiker wird daher vorgebracht, dass die mechanistische Konzeption von Computation das Konzept des Mechanismus unplausibel aufbläht und trivialisiert. Zwischen einer mechanistischen und einer funktionalen Charakterisierung bestünde dann kein Unterschied mehr. Darüberhinaus besitzen dynamische oder neurocomputationale Erklärungen explanatorische Charakteristika, die die mechanistische Detailtreue (Kaplan 2011) gezielt übersteigen (Chirimuuta 2018; Lyre 2018; Ross 2015).
2.3.3 Nach semantisch-repräsentationaler Konzeption
Nach semantisch-repräsentationaler Konzeption besteht Computation darin, bedeutungshafte Symbole zu prozessieren, genauer: die Regeln der Symbolmanipulation folgen den semantischen oder repräsentationalen Eigenschaften, die den Symbolen zukommen. Ein paradigmatischer Autor ist Jerry Fodor mit seinem Diktum „no computation without representation“ (Fodor 1975, S. 34). Nach dieser Konzeption setzt das Konzept der Computation dasjenige der Repräsentation voraus. Die semantische Konzeption besitzt zahlreiche Anhänger (Sprevak 2010; Shagrir 2018b; Rescorla 2013), gleichzeitig ist sie nach Ansicht der ebenso zahlreichen Kritiker eine zu starke Forderung (Chalmers 1996b, 2011; Egan 2010, 2012; Piccinini 2008, 2015; Dewhurst 2018). Shagrir (2018b) verwendet die unter (i) besprochene These der Multi-Computation als Masterargument für die semantisch-repräsentationale Auffassung. Dennoch kommt man in weiten Teilen der Informatik oder auch der Berechenbarkeitstheorie de facto mit einem rein formalen und semantik-freien Konzept von Computation aus. Da nach Ansicht der meisten Autoren Kognition Computation voraussetzt oder beinhaltet (vgl. Fresco 2014), setzen sich Fragen nach Semantik und Repräsentation in den beiden nachfolgenden Abschnitten weiter fort.
3 Die Computationale Theorie des Geistes
Wie hängen Computation und Kognition zusammen? Ein der Computationalen Neurowissenschaft nahestehendes und häufig implizites Bild von Kognition ist durch die „Computationale Theorie des Geistes“ gegeben (CTG; auch: „Computationalismus“). Vereinfacht ausgedrückt besagt die CTG, dass Kognition eine Form von Computation ist und somit das Gehirn als kognitives Prozessorgan ein Computer. Im Lichte der vorherigen Ausführungen ist klar, dass die CTG sehr unterschiedliche Formen annehmen kann, je nachdem, welche Konzeption von Computation unterstellt wird.
3.1 Die klassische CTG
Die traditionelle CTG vor allem der 1960er- und 1970er-Jahre geht typischerweise mit einer kausal-strukturalen Konzeption von Computation einher. Der Geist ist ein syntaktisches Symbolsystem, das darauf basiert, Symbole nach Regeln, also algorithmisch, zu prozessieren. Das bedeutet, dass die physischen Träger oder Vehikel der Symbole (z. B. Stromfluss in der CPU eines Digitalcomputers oder neuronale Aktivität im Gehirn) rein aufgrund ihrer formalen Beschaffenheit und nicht aufgrund der spezifischen materiellen Realisierung prozessiert werden. Syntaktische Systeme sind formale Symbolsysteme. Dies steht im Einklang mit der multiplen Realisierbarbeit computationaler Prozesse und ihrer Medium-Unabhängigkeit (Abschn. 2.3). Formale Eigenschaften sind als rein syntaktische und nicht-semantische bzw. uninterpretierte Eigenschaften zu verstehen.
Michael Devitt (1996, S. 258–265) weist in dem Zusammenhang darauf hin, dass in dieser Verwendung des Begriffs „Form“ eine Zweideutigkeit liegt. Die formalen Eigenschaften können sich einerseits an der physikalischen Form, andererseits an der logischen Form festmachen. Entsprechend lässt sich zwischen einer Syntax-P und einer Syntax-L unterscheiden (Figdor 2009). Beim Puzzle-Spiel ist die Syntax, der gemäß die Puzzleteile aneinandergelegt werden können, abhängig und erzwungen durch die geometrische Form der Teile. Dies ist ein Beispiel für Syntax-P, bei der die physikalisch-strukturalen Formeigenschaften, also etwa die geometrische Form, entscheidend sind (entsprechend dem häufig genannten Bild der Passung von Schlüssel und Schloss; Fodor 1985, S. 93). Syntax-L bezieht sich demgegenüber auf die logisch-funktionalen Eigenschaften der Symbole wie etwa die Eigenschaft des Symbols KATZE, ein Substantiv zu sein, oder die formale Gültigkeit logischer Schlussformen wie derjenigen des Modus ponens.
Als syntaktisches Symbolsystem kann ein Computer nur insoweit kausale Kräfte ausüben, als seine Syntax-L über der Syntax-P superveniert. Die Syntax-L-Eigenschaften sind dann ansehbar als funktionale Rollen-Eigenschaften (Eigenschaften zweiter Stufe), während Syntax-P sich auf die Eigenschaften der Realisierer bezieht (Eigenschaften erster Stufe). Die Medium-Unabhängigkeit der Vehikel im Sinne von Syntax-P kann sich somit allenfalls auf die intrinsischen (Material-)Eigenschaften der Realisierer beziehen, nicht aber auf ihre relationalen (oder strukturalen) Eigenschaften, denn auf diese kommt es ja wesentlich an.
3.2 Die Repräsentationale Theorie des Geistes nach Fodor
Jerry Fodor (1975, 1985, 1987) vertritt eine besondere Form der CTG, die er als Repräsentationale Theorie des Geistes (RTG) bezeichnet (insgesamt sind beide Begriffe nicht einheitlich definiert, manche Autoren unterscheiden CTG und RTG, manche benutzen sie synonym). Fodors RTG besagt, dass Geist und Kognition darin bestehen, mentale Repräsentationen in computationaler Weise zu prozessieren. Mentale Repräsentationen sind dabei durch ihren semantischen Gehalt individuiert, allerdings sagt die RTG nicht aus sich heraus, wie mentale Repräsentationen ihren Gehalt erlangen, hierfür müssen zusätzliche Ansätze herangezogen werden (Abschn. 3.3). Fodors RTG ist gleichzeitig eine Theorie der Intentionalität, insofern Fodor repräsentationalen Gehalt mit intentionalem Gehalt gleichsetzt und dabei intentionale Systeme (oder Wesen oder Agenten) S betrachtet, die propositionale Einstellungen als mentale Zustände besitzen. Falls S sich in einem mentalen Zustand befindet, besitzt es eine mentale Repräsentation R mit entsprechendem propositionalen, also satzartigen Gehalt. S kann sich in Bezug auf R in funktional verschiedenen Einstellungen E – etwa des Glaubens, des Wissens, des Wunsches etc. – befinden. In Kurzform: S befindet sich in E, insofern es sich in einer spezifischen computationalen Relation zu R befindet. Die propositionale Struktur von R verweist darauf, dass S einer sprachartigen Syntax, der „Sprache des Geistes“ (LOT: language of thought), unterliegt. Zu den Stärken der LOT gehört es, dass mentale Repräsentationen einer strukturierten, kompositionalen Semantik folgen, bei der sich die Bedeutung komplexer Repräsentationen aus der Bedeutung ihrer Teile regelhaft ergibt. Fodors RTG ist so gesehen eine Kombination aus CTG und LOT.
Fodors RTG geht weder mit einer kausal-strukturalen noch einer mechanistischen Konzeption von Computation einher, sondern setzt dezidiert eine semantisch-repräsentationale Konzeption von Computation voraus, denn Kognition besteht darin, mentale Repräsentationen zu prozessieren, welche wiederum durch ihren semantischen Gehalt individuiert sind. Dies wurde in Fodors Diktum „no computation without representation“ bereits deutlich (Abschn. 2.3). Gleichzeitig beziehen wir uns bedeutungshaft auf die Welt. Wie aber mentale Repräsentationen das Kunststück der Bezugnahme vollbringen, ist nicht Gegenstand von RTG oder CTG. Nach Ansicht zahlreicher Autoren führt dies zum Projekt der Naturalisierung von Semantik (Abschn. 3.3).
3.3 Von der CTG zur Semantik
Der Reiz und die Pointe der CTG liegen darin, dass sie deutlich machen kann, dass wenn Repräsentationen gehaltvoll sind, ihre Semantik im Rahmen rein syntaktischer Operationen erhalten bleibt. Dies ist aus der Aussagenlogik geläufig, bei der die syntaktischen Operationen auf Aussagen wahrheitswert-erhaltend sind, was als Grundlage logischer Inferenzen dient wie etwa: wenn A und B wahr ist, dann ist auch A wahr. Dabei ist unerheblich, welchen Inhalt A und B besitzen. Haugeland (1981) drückt dies in einer häufig zitierten Passage treffend wie folgt aus: „In effect, given an interpreted formal system..., if you take care of the syntax, the semantics will take care of itself.“
Neben Semantik und Bedeutung im referenziellen Sinne gibt es auch eine Form von Semantik, die nicht-referenziell und rein system-intern anhand der funktionalen Rollen der internen Zustände eines formalen Symbolsystems oder Computers charakterisierbar ist. Man spricht dann von einer Funktionalen Rollen-Semantik (FRS; auch konzeptuelle Rolle, vgl. Block 1998). Die FRS entspricht der Idee, den Funktionalismus auf Semantik anzuwenden und Bedeutung als funktionale Rolle in einem Netzwerk funktionaler Zustände anzusehen. Dies lässt sich am Beispiel des Schachspiels verdeutlichen. Beim Schachspiel handelt es sich um ein regelbasiertes Symbolsystem, das durch eine Syntax-L charakterisiert ist. Es ist medium-unabhängig und insofern multipel realisierbar (es gibt Schachspiele aus Holz, Porzellan oder in elektronischer Form). Schachfiguren besitzen eine Bedeutung (etwa als Läufer oder Dame), insofern sie funktional, durch ihre spiel-internen Rollen charakterisiert sind. Sie besitzen diese Bedeutungen nur innerhalb des Spiels, der Läufer bezieht sich auf nichts in der Welt, ihm kommt keinerlei Referenz zu. Auch setzt die Realisierung des Schachspiels in Form eines konkreten Spielbretts mit Figuren nahezu keinerlei Syntax-P voraus, denn hier wird den Schachfiguren ihre jeweilige Bedeutung, ihre funktionale Rolle, rein konventionell zugewiesen. Allerdings müssen sich die Figurtypen wenigstens äußerlich unterscheiden lassen, auch muss das Spielbrett eine bestimmte Struktur besitzen. Insofern kommt ein gewisser Anteil an Syntax-P zum Tragen. In einem digitalen Schachcomputer muss die Syntax-L des Spiels jedoch vollständig der Syntax-P des Computers genügen. Der Computer muss in seinen kausalen Prozessen die syntaktischen Muster des Schachspiels struktural spiegeln, andernfalls „funktioniert“ er nicht als Schachcomputer.
Da die CTG nicht aus sich heraus sagt, wie Symbole Bedeutung erlangen, scheint reine Symbolmanipulation nicht hinreichend zu sein für Semantik im Sinne von Bezugnahme. Dies ist Gegenstand des berühmten „Chinese room“-Arguments von Searle (Searle 1980, 1990). Das chinesische Zimmer stellt die Karikatur einer Turingmaschine dar, der Operateur im Zimmer übernimmt die Rolle des Schreib-Lese-Kopfes. In einem ansonsten leeren Zimmer wird ihm ein Regelwerk (die Maschinentafel) zur Verfügung gestellt, das ihm gestattet, chinesische Schriftzeichen, die als Input hereingereicht werden, algorithmisch zu manipulieren und als Output hinauszureichen. Searle insistiert, dass der Operateur auf diese Weise die Bedeutung chinesischer Symbole niemals erlangen kann. Das Chinese Room-Argument hat in den 1980er-Jahren eine Flut an Diskussionen ausgelöst. Nach Stevan Harnard (1990) liegt der eigentliche Kern des „Chinese room“-Arguments im „Symbol grounding problem“, das er so formuliert: „Suppose you had to learn Chinese as a first language and the only source ... you had was a Chinese/Chinese dictionary! … How is symbol meaning to be grounded in something other than just more meaningless symbols? This is the symbol grounding problem.“ Die Einwände von Searle und Harnard gegen den Symbolismus machen deutlich, dass reine Symbolmanipulation allenfalls zu einer nicht-referenziellen Semantik im Sinne einer system-internen FRS führt, nicht aber auf ein semantisches „Grounding“ im Sinne einer Bezugnahme auf die Welt.
Viele Autoren versuchen, im Rahmen der naturalisierten Semantik semantische auf nicht-semantische Eigenschaften zurückzuführen. Das Projekt der Naturalisierung setzt einen semantischen Realismus voraus, wonach mentale Repräsentationen existieren und durch ihren Gehalt individuiert sind. Für den Realismus sprechen wenigstens zwei Argumente. Erstens die Selbstwahrnehmung des Menschen als bedeutungshaft denkend, wie sie sich auch in unserer Alltagspsychologie ausdrückt. Fodor bemerkt hierzu emphatisch: „if commonsense psychology were to collapse, that would be, beyond comparison, the greatest intellectual catastrophe in the history of our species“ (Fodor 1987, S. xii). Zweitens, das Phänomen der mentalen Verursachung. Peters Wunsch, kalte Limonade zu trinken, verursacht, dass er zum Kühlschrank geht. Hier scheint Bedeutung im referenziellen Sinne, also Weltwissen über Limonade und Kühlschränke, handlungswirksam zu sein. Ein semantischer Realismus kann dem in natürlicher Weise Rechnung tragen. Indem sie die syntaktischen gegenüber den semantischen Eigenschaften betont, hat die CTG mit mentaler Verursachung Probleme.
Die naturalisierte Semantik umfasst die Klasse der kausal-informationalen Theorien und die Teleosemantik. Kausal-informationale Theorien binden den Gehalt einer Repräsentation an entsprechende ursächliche Vorkommnisse (etwa im Falle der kausalen Theorie der Kovarianz nach Fodor 1987) oder an die einem Vorkommnis inhärente „natürliche“ Information (Dretske 1981). Wegen der strengen kausalen Bindung von Repräsentat und Repräsentandum führen diese Theorien jedoch auf das gravierende Problem, dass Fehlrepräsentationen nicht erklärbar sind. Der Teleosemantik zufolge soll der Gehalt einer Repräsentation auf deren Anzeigefunktion zurückgeführt werden (Millikan 1984; Dretske 1995). Diese Funktion ist Ergebnis einer Selektions-, Adaptations- oder Lerngeschichte. Auch dieser Ansatz ist mit gravierenden Problemen behaftet, denn die durch eine Teleohistorie individuierte Funktion ist nicht feinkörnig genug, um intentionalen Gehalt zu individuieren, sondern lässt die Teleofunktion prinzipiell unterbestimmt. Ist der Fangmechanismus eines Frosches selektiv auf Fliegen oder schwarze Schatten? Teleosemantiker insistieren, dass es eine eindeutige, evolutionär hervorgebrachte „proper function“ gibt. Dies kann aber mit guten Gründen bezweifelt werden: Selektionszwecke ändern sich beständig und zeichnen Funktionen allenfalls grob aus.
Zu den nicht-referenziellen Semantiken zählen Gebrauchstheorien und die oben schon erwähnte FRS. Der Grundgedanke einer Gebrauchstheorie der Bedeutung, wie von Ludwig Wittgenstein (1953) erstmals skizziert, liegt darin, Bedeutung auf Sprachgebrauch und soziale Praxis zurückzuführen. Nach Wittgenstein zeigt sich die Vielfalt der Sprache in der Vielfalt sprachlicher Gebrauchsweisen. Da Sprachgebrauch und Sprecherverhalten als funktionale Rollen in einem sozialen Verhaltensnetzwerk ansehbar sind, handelt es sich auch bei der Gebrauchstheorie um eine Variante der FRS. Block (1990, 1998) unterscheidet zwischen kurz- und langreichweitigen funktionalen Rollen („short-arm“, „long-arm“). Eine system-interne FRS kapriziert sich auf die einem System, etwa dem Gehirn als computationaler Maschinerie, internen funktionalen Rollen der Systemzustände, ein Gebrauchstheorie der Bedeutung „verlängert“ diese funktionalen Rollen über die Systemgrenze hinaus in die Welt.
4 Neurocomputation und Neurosemantik
Wie gesehen, folgt die klassische CTG der Doktrin des Symbolismus, d. h. sie nimmt an, dass der Geist Symbole prozessiert. Diese Auffassung verträgt sich gut mit digitaler Computation, neuronale Systeme besitzen aber eine so andersartige Struktur, dass dies den Symbolismus in Frage stellt. Dies ist der Hintergrund des Streits zwischen Konnektionisten und Symbolisten. Der Konnektionismus sieht die spezifische Architektur in Form neuronaler Netze als grundlegend für Kognition an. Biologische und künstliche neuronale Netze basieren auf einer Vielzahl elementarer Verarbeitungseinheiten (Neuronen), die über eine nochmals größere Anzahl gewichteter Verbindungen (Synapsen) miteinander vernetzt sind. Dies hat mindestens zwei gravierende Konsequenzen für die Informationsverarbeitung innerhalb konnektionistischer Architekturen: sie ist zum einen subsymbolisch und zum anderen distribuiert.
4.1 Subsymbolismus, neuronale Codierung und Bindungsproblem
Die Doktrin des Subsymbolismus besagt, dass neuronale Systeme keine Symbole, sondern Merkmale („features“) prozessieren. Vor allem auf den Eingangsstufen der neuronalen Maschinerie wirkt dies plausibel. An der sensorischen Schnittstelle zwischen Welt und Gehirn findet ein zweistufiger Prozess statt. Zunächst muss ein gegebener Stimulus, ob mechanisch, chemisch oder elektromagnetisch, in ein neuronales Signal umgewandelt werden, sodann müssen die sensorischen Neuronen die Schlüsselmerkmale des Stimulus neuronal codieren (Abschn. 2.2). Vieles spricht dafür, dass dabei kein universeller Code verwendet wird, sondern dass Codierungsunterschiede zwischen verschiedenen Spezies, Individuen, Hirnregionen und Typen neuronalen Gewebes bestehen. Sehr wahrscheinlich nutzen verschiedene Sensorien ihr je eigenes Datenformat (z. B. 1D auditorische Daten gegenüber 2D visuellen Daten).
Eine Möglichkeit, Aufschluss über den neuronalen Code zu erlangen, besteht darin, die umgekehrte Fragestellung des Decoding zu behandeln. Welche Information über den Stimulus lässt sich anhand der neuronalen Daten gewinnen? Technisch führt dies auf die Bestimmung der bedingten Wahrscheinlichkeit p(s|n) eines Stimulus s unter der Bedingung des Vorliegens neuronaler Aktivität n auf der Basis der Likelihood p(n|s) und der Apriori-Wahrscheinlichkeiten p(s) und p(n) mithilfe der Bayesschen Formel (Dayan und Abbott 2001). Neuronale Codierung und Decodierung bilden ein wichtiges Themenfeld der Computationalen Neurowissenschaften (Rieke et al. 1997; Quian Quiroga und Panzeri 2013), das wissenschaftstheoretisch bislang nur ansatzweise behandelt wurde (Piccinini und Bahar 2013; Cao 2014).
Einen mittlerweile sehr prominenten Ansatz bildet die Idee des „Predictive coding“, wonach das Gehirn kein passives Repräsentationssystem, sondern vielmehr eine aktive „Inferenzmaschine“ darstellt, die beständig neue Vorhersagen über sensorischen Input auf der Basis interner Vorhersagemodelle generiert (Clark 2016; Hohwy 2013). Der im Abgleich mit dem sensorischen Input rückgemeldete Vorhersagefehler führt dann zu einem bayesianischen Update des Modells. Dieses Wechselspiel von Vorhersage und Update kann im Prinzip auf allen hierarchischen Ebenen des Gehirns stattfinden. Nicht wenige Autoren sehen die Idee des Predictive coding daher als universellen Ansatz zum Verständnis des Gehirns an. Mit Blick auf die neuronale Codierung bedeutet dies, dass nicht das definite Vorliegen von Merkmalen codiert und prozessiert wird, sondern nur jeweilige Merkmalsänderungen.
Die neurowissenschaftliche Grundlage für Merkmalscodierung bilden zwei Meilenstein-Arbeiten: Lettvin et al. (1959) identifizierten erstmals merkmalsselektive Zellen im visuellen System, und Hubel und Wiesel (1959, 1962) zeigten in ihren klassischen Studien, dass sich auf der Retina rezeptive Felder finden, die aufgrund ihrer Filtereigenschaften eine subsymbolische Verarbeitung visueller Merkmale wie Kantenstärke, Kantenorientierung, Texturen oder Farben ermöglichen. Diese Informationen werden retinotop, also topologieerhaltend, von der Retina über den seitlichen Kniehöcker (CGL) in den primären visuellen Cortex (V1) abgebildet. Die Entstehung cortikaler Karten in Modellen neuronaler Selbstorganisation basierend auf dem Prinzip lokaler Verstärkung und lateraler Hemmung wurde erstmals durch Malsburg (1973) und Willshaw und Malsburg (1976) mathematisch modelliert (vgl. Bednar und Wilson 2015). Im V1 findet sich ferner eine kolumnäre Organisation der merkmalsselektiven Zellen in Form von Okkulardominanz- und Orientierungssäulen (die zu Hyperkolumnen zusammengesetzt sind).
Die neuronale Codierung von Stimulusmerkmalen entspricht dem Programm der kausal-informationalen Theorien der Repräsentation (Abschn. 3.2). Neuronale Aktivität in den primären sensorischen Arealen kovariiert mit stimulus-bezogenen Merkmalen. Solche Neuronen werden als Merkmalsdetektoren bezeichnet, und es lässt sich wahlweise von einer Detektor-, Rezeptor- oder Indikator-Repräsentation sprechen. Eine solche Repräsentationsbeziehung liegt auch in vielen Artefakten vor. So ist etwa die Höhe der Quecksilbersäule in einem Thermometer ein Detektor bzw. Indikator für eine bestimmte Temperatur. Cummins und Poirier (2004) argumentieren für eine Trennung der Begriffe Indikator und Repräsentation, da Indikatoren anders als Repräsentationen nichts über die Struktur ihrer Zielobjekte aussagen. Nach Ramsey (2007) muss zwischen Rezeptor-Repräsentationen (R-Reps) und strukturalen Repräsentationen (S-Reps) unterscheiden werden (siehe Abschn. 2.1 und 4.3).
Natürliche neuronale Systeme stellen über die subsymbolische Merkmalsbezogenheit unmittelbar einen Weltbezug her. Hierin liegt ein wesentlicher Unterschied zur klassisch-symbolischen KI. Es wäre geradezu widersinnig, ein neuronales Netz losgelöst von seinen Stimuli zu betrachten. Neuronale Netze sind datengetrieben, ihre Dynamik entfaltet sich erst unter Input. Zwar gibt es in rückgekoppelten Netzwerken immer auch einen nennenswerten Anteil endogener Aktivität (und in manchen Regionen des Gehirns ist dieser auch dominant), aber dennoch bedarf das System letztlich der äußeren Stimulation. Vordergründig löst der Subsymbolismus auf diese Weise das Symbol-Grounding-Problem: dem System zugeführte Subsymbole sind als R-Reps kausal in der Welt verankert, durch interne Komposition oder Bindung müssen aus ihnen in Folgeschritten komplexe Symbole entstehen. Dies ist ein gängiges Bild des Konnektionismus.
Im Zuge der subsymbolischen Verarbeitungsstrategie werden wahrgenommene Objekte auf den Eingangsstufen des Gehirns in „atomare“ Merkmale zerlegt. Damit entsteht die Frage, wie zu einem Objekt gehörende Merkmale innerhalb des neuronalen Systems wieder zu einer ganzheitlichen Repräsentation verbunden oder integriert werden können. Denn ohne einen geeigneten Bindungs-Mechanismus treten manifeste Mehrdeutigkeiten auf: liegt etwa ein grünes Dreieck und ein rotes Quadrat im Gesichtsfeld vor, so sind diejenigen Neuronen aktiv, die für die Merkmale rot, grün, dreieckig und quadratisch codieren (das Beispiel ist rein didaktisch). Allerdings rufen ein rotes Dreieck und ein grünes Quadrat dieselbe Aktivierung hervor, es kommt zur „Superpositions-Katastrophe“ bzw. zum Bindungsproblem. Um dem Problem zu entgehen, hat Christoph von der Malsburg Anfang der 1980er-Jahre vorgeschlagen, Neurone durch Korrelation ihrer zeitlichen Aktivitäten zu großen Ensembles zu verbinden (Malsburg 1999). Die Idee des „Binding-by-synchrony“ hat aufgrund der experimentellen Funde in den 1990er-Jahren (Engel et al. 1991) große Beachtung gefunden (vgl. Buzsaki 2006; Malsburg et al. 2010).
Binding-by-synchrony steht in Einklang mit einem temporalen neuronalen Code (Abschn. 2.1) und der Spike-timing-dependent-plasticity (STDP; vgl. Feldman 2012). Entsprechend haben in der computationalen Modellierung gepulste neuronale Netze (spiking networks) an Bedeutung gewonnen (vgl. Gerstner et al. 2014; Maass 1996). Methodisch lässt sich die Annahme vertreten, dass zwischen wenigstens zwei Varianten von Bindung zu unterscheiden ist, die man als funktionale und phänomenale Bindung bezeichnen kann (Hardcastle 1994; Garson 2001). Funktionale Bindung findet relativ unkontrovers im Bereich der Wahrnehmung und entsprechend auf den frühen neuronalen Verarbeitungsstufen statt. Kontrovers bleibt die Frage, ob sich in analoger Weise das subjektive Erleben der Einheit der Wahrnehmung und des Bewusstseins auf Mechanismen phänomenaler Bindung gründet.
4.2 Distribuierte neuronale Repräsentationen und höherstufige Semantik
Wie sind komplexe Objekte im Gehirn codiert und repräsentiert? Wie entstehen aus einfachen Merkmals-Repräsentationen die Repräsentationen höherstufiger und komplexer Objekte? Eine naheliegende Antwort wäre, dass auch komplexe Objekte durch die Aktivität einzelner Neurone codiert und repräsentiert sind. Dies würde einem Einzelzell-Code entsprechen, häufig karikiert durch die These des „Großmutterneurons“ (vgl. Coltheart 2017). Aufgrund der schieren Komplexität der Welt kann sicher ausgeschlossen werden, dass das Gehirn für jedes konkrete Einzelobjekt in der Erfahrungswelt eines Lebewesens ein oder auch einige Neuronen investiert. Andererseits gibt es starke Hinweise auf die Existenz hoch-selektiver Zellen (Quian Quiroga et al. 2008). Hierbei ist jedoch zu unterscheiden zwischen Zellen, die auf generische Stimuli reagieren wie z. B. die Zellen der Fusiform Face Area auf Gesichter und Zellen, die vermeintlich Individuen repräsentieren.
Die Entdeckung synaptischer Plastizität legte bereits für Donald Hebb die Überlegung nahe, dass komplexe Repräsentationen nicht durch einzelne Neuronen, sondern durch ganze Ensembles oder Populationen von Neuronen realisiert sind („Hebbian cell assemblies“). Dies entspricht einem Populationscode. Er kann der Sache nach lokalisiert, aber auch distribuiert sein. Falls die Populationszahl der Neuronen nicht allzu hoch ist, spricht man von einem „sparse code“. Als didaktisches Beispiel betrachtet Clark (1993; Abschn. 2) die Codierung von Buchstaben mittels neuronaler Aktivität. Entspräche jedem Buchstaben je ein Neuron, wäre dies der klassische Fall des Einzelzell-Codes („Großmutterneuron“). Via Populations-Codierung könnten aber bspw. die Zellen 1, 2, 3 für den Buchstaben „A“, die Zellen 4, 5, 6 für das „B“ usw. stehen. Sowohl der Einzelzell-Code als auch diese Form der Populations-Codierung entspräche einem lokalen Code. Dem steht ein verteilter (distribuierter) Code gegenüber, wenn bspw. die Zellen 1, 2, 4 für „A“, die Zellen 2, 3, 6 für „B“, die Zellen 1, 4, 5 für „C“ usw. stehen.
Verteilte Codierung führt auf verteilte Repräsentation. Der semantische Gehalt neuronaler Zustände findet sein neuronales Korrelat oder Vehikel in Form verteilter neuronaler Aktivität in großen Populationen. Verteilte Repräsentationen sind als Vektoren im Zustandsraum neuronaler Aktivierungen darstellbar. Einzelne neuronale Aktivierungen stehen im Sinne von R-Reps für das Vorliegen einzelner Merkmale, insgesamt aber spannen sie einen abstrakten, hoch-dimensionalen Raum auf. Jede distribuierte neuronale Repräsentation stellt einen Punkt in diesem Zustandsraum dar (bzw. einen Vektor mit den jeweiligen Einzelaktivierungen als Komponenten). Nach Paul Churchland (1989, 1995) führt dies auf eine Zustandsraum-Semantik. Semantische Nachbarschaft oder Bedeutungsähnlichkeit neuronaler Populationszustände macht sich an ihrem Abstand im Zustandsraum fest, die Metrik des Zustandsraums besitzt eine semantische Interpretation.
Nach Fodor und Lepore (1992) führt die Zustandsraum-Semantik auf eine abgeschwächte Version eines semantischen Holismus, denn schon kleinste Änderungen in den Einzelaktivierungen führen zu Änderungen der Zustandsvektoren und damit zu Bedeutungsverschiebungen. Ein vollumfänglicher semantischer Holismus besagt, dass die Bedeutung jedes Einzelelements abhängig ist von den Bedeutungen aller anderen Elemente. Dies ist paradigmatisch der Fall im Rahmen einer FRS (Abschn. 3.3). Holismus-Gegner wie Fodor und Lepore argumentieren, dass Bedeutungen instabil werden und intersubjektiv nicht mehr geteilt werden können. Holismus-Befürworter halten die funktionalistische Plausibilität der Gebrauchstheorie und FRS dagegen und argumentieren, dass der Konnektionismus hierfür die geeignete neuronale Realisierungsoption bietet (Clark 1989; Churchland 1989) und dass für die Praxis hinreichende Bedeutungsähnlichkeit erreicht werden kann (Block 1998).
Fodor und Pylyshyn (1988) führen ein weithin diskutiertes Argument gegen den Konnektionismus an: Im Sinne der RTM ist der Geist systematisch und produktiv. Dies kann nur im Rahmen einer kompositional strukturierten Syntax im Stile der LOT garantiert werden. Distribuierte neuronale Repräsentationen besitzen keine derartige Struktur, daher ist der Konnektionismus falsch. Konnektionisten haben hierauf in vielfacher Weise reagiert (vgl. Bechtel und Abrahamsen 2002; Churchland 1989, 1995; Clark 1989, 1993). Zunächst lässt sich bestreiten, dass unser Denken durchweg systematisch ist (unsere Fähigkeit zur Rekursion etwa nimmt mit steigender Komplexität beträchtlich ab). Insbesondere aber konnte durch zahlreiche konnektionistische Modelle gezeigt werden, dass neuronale Netze sehr wohl systematisch strukturierte Repräsentationen bis zu einer gewissen Komplexität emulieren können (Smolensky 1988).
4.3 Strukturale Repräsentation
Die vorangehenden Abschnitte machen deutlich, dass das Gehirn wesentlich Gebrauch davon macht, mentale Karten, Modelle und Simulationen der Welt zu generieren. Dies führt auf das Konzept der strukturalen Repräsentation (S-Rep). Dem Grundgedanken nach repräsentiert eine Domäne A eine Domäne B genau dann, wenn A und B strukturelle Ähnlichkeit besitzen. Unter einer Struktur sei eine Menge von Relationen verstanden, die einer Menge von Objekten (Relata) aufgeprägt sind. Zwei Strukturen sind einander ähnlich, wenn die einander korrespondierenden Relationen in A und B dieselbe Argumentzahl besitzen. Paradigmatische Fälle strukturaler Ähnlichkeit (und somit S-Reps) sind Karten, Bilder oder Skulpturen. Das Kriterium struktureller Ähnlichkeit macht S-Reps zu einer Variante der klassischen Ähnlichkeitskonzeption der Repräsentation. Diese Konzeption ist massiven Vorbehalten und Einwänden ausgesetzt, die vor allem Nelson Goodman (1976) herausgearbeitet hat: Die Ähnlichkeitsrelation ist symmetrisch, die Repräsentationsrelation ist es nicht (mein Passbild repräsentiert mich, aber ich repräsentiere nicht mein Passbild). Ein Zwillingsbruder mag dem anderen noch so ähnlich sein, niemals aber repräsentiert er ihn. Und unter sehr schwachen Bedingungen von Ähnlichkeit wird alles einander ähnlich, umgekehrt hängt Ähnlichkeit scheinbar vom Betrachter oder Kontext ab (etwa im Fall von Jastrows „Hasenente“, die schon Wittgenstein (1947, Bd. 1, Bem. 70 ff.) diskutiert).
- 1.
Schritt: S-Reps basieren allgemein auf Homomorphismen, strukturerhaltenden Abbildungen zwischen algebraischen Strukturen wie Gruppen oder Vektorräumen. Die häufig zu lesende Beschränkung auf Isomorphismen, also bijektive Homomorphismen, ist unnötig eng. Die Abbildung könnte wahlweise Injektivität oder Surjektivität verletzen. Sie wäre damit insbesondere nicht-symmetrisch, was für Repräsentationen allgemein gefordert ist (Bartels 2006).
- 2.
Schritt: S-Reps müssen für das System erfolgreich nutzbar oder verwertbar sein (Isaac 2013; Shea 2014; Gładziejewski 2016; Gładziejewski und Miłkowski 2017). Im Hintergrund steht die Überlegung, das Problem des Gehalts vom Problem des Gebrauchs zu trennen (Ramsey 2016).
- 3.
Schritt: Nichtsdestotrotz müssen S-Reps kausal in der Welt verankert sein. Isaac (2013) fordert „causally grounded homomorphisms“, Shea (2014, 2018) betrachtet im Rahmen seiner „Varitel“-Semantik eine Mischung aus Teleosemantik und strukturaler Repräsentation.
Strukturale Repräsentationen sind neuronal höchst plausibel, wie das Konzept cortikaler Karten zeigt (vgl. Bednar und Wilson 2015; Abschn. 4.1). Ein schlagendes Beispiel bieten Ortszellen (place cells) im Hippocampus (O’Keefe und Nadel 1978), die mit ihrer ortsbezogenen Aktivität buchstäblich als Landkarte operieren. Die Modellierungsstränge der Neurowissenschaften und der Kognitionswissenschaften (vgl. Palmer 1978; Gärdenfors 2000) bis hin zu Modellen wissenschaftlicher Repräsentation (van Fraassen 2008; Bartels 2005) laufen hier in einem einheitlichen Konzept strukturaler Repräsentation zusammen. Neben ihrer „statischen“ Kartenfunktion können strukturale Repräsentationen auch als dynamische Input-Output-Modelle oder Simulationen auftreten. In genau diesem Sinne analysiert Shagrir (2010, 2012, 2018a) die computationalen Eigenschaften neuronaler Systeme unter Bezug sowohl auf Cummins’ Tower-Bridge-Modell der Computation (Abschn. 2.1) als auch Marrs Verständnis der computationalen Modellebenen (Abschn. 1.2). Als Beispiel zieht er das okkulomotorische System heran, das eine Integrationsfunktion neuronal berechnet, indem es Input über die Augen-Geschwindigkeit in Output über die Augen-Position umwandelt. Die neuronale Integration spiegelt dabei die Struktur der physikalischen Beziehung zwischen Augen-Geschwindigkeit und -Position. In ähnlicher Weise spiegelt das System der Kantendetektion eine Regularität der typischen Beleuchtungsverhältnisse der Welt, insofern die Berechnung der zero crossings einer Laplacefilter-Transformation (Abschn. 1.2) im Übergang von der Retina zu V1 strukturähnlich ist zu den regelhaften Änderungen der Lichtintensität an den Kanten physikalischer Objekte in typischen Umgebungen.
5 Fazit und Ausblick
Der Computationalismus des Geistes hat weiterhin Bestand. Zwar hat die CTG in ihrer mittlerweile über 50-jährigen Historie zahlreiche Klärungen und Änderungen erfahren, aber die Grunddoktrin, die These, dass der Geist rechnet bzw. das Gehirn ein Computer ist, ist beständig. Der vorliegende Artikel sollte aber deutlich gemacht haben, wie viel oder wenig damit ausgesagt ist. Von welcher Art ist die Computation? Ist sie digital, analog oder neuronal (Abschn. 2.2)? Hält man an einer kausalen-strukturalen Konzeption von Computation fest, oder geht man mechanistisch oder semantisch darüber hinaus (Abschn. 2.3)? Zwar lässt sich die kausal-strukturale Auffassung als harter Kern der CTG ansehen – sowohl im Rahmen des klassischen Symbolismus, also der veralteten GOFAI-Auffassung, als auch in jedwedem konnektionistisch-neurocomputationalen Paradigma (Abschn. 4.1 und 4.2). Die philosophisch entscheidende Frage aber, an welcher Stelle und in welcher Form die semantische oder repräsentationale Dimension, welche Kognition und Geist auszumachen scheint, zum computationalen Kern hinzutritt, ist weiterhin strittig und offen. Während sich Fodors RTG an den klassischen Symbolismus anlehnt (Abschn. 3.2), und die Versuche eines konsequenten Naturalismus von Semantik zu keiner echten Einigung geführt haben (Abschn. 3.3), führen neurocomputationale Systeme auf ganz eigene Fragen der Codierung und Bindung (Abschn. 4.1) sowie auf abstrakte Formen von Semantik im Rahmen verteilter Repräsentationen im Aktivierungsraum neuronaler Systeme (Abschn. 4.2). Schließlich zeigt der jüngere Trend hin zum Konzept strukturaler Repräsentation nicht nur, dass dies Konzept neuronaler Computation sehr gut angepasst ist, sondern auch, dass ein repräsentationaler Realismus eher einem Pragmatismus oder Instrumentalismus weichen sollte (Dennett 1987; Egan 2010, 2012), der Aspekte des Gebrauchs und der Nützlichkeit mentaler Repräsentationen philosophisch in den Fokus rückt (Abschn. 4.3).
Neurocomputationale Architekturen gewinnen auch in der traditionellen Informatik zunehmend an Boden. Das Wieder erstarken einer „neuen KI“ in den 2010er-Jahren beruht im Wesentlichen auf den Erfolgen konnektionistischer Systeme. „Deep Learning Neural Networks“ haben sich zu den Arbeitspferden des Machine Learning entwickelt. Ihnen sind die spektakulären Erfolge der neuen KI und selbstlernender Systeme wesentlich zu verdanken (vgl. Sejnowski 2018). Die Pioniere dieser Entwicklungen weisen dabei darauf hin, dass die KI der Zukunft eine neurowissenschaftlich inspirierte KI sein sollte, die die architektonischen Erfolgsrezepte biologischer neuronaler Systeme künstlich zu nutzen versucht (Bengio et al. 2016; Hassabis et al. 2017; Ullman 2019). Die Zukunft, so scheint es, gehört einer neurocomputationalen Theorie des Geistes.