© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2024
K. Mainzer (Hrsg.)Philosophisches Handbuch Künstliche Intelligenzhttps://doi.org/10.1007/978-3-658-19606-6_11

Von der Sprachphilosophie zu ELIZA

Stefan Höltgen1  
(1)
DFG-Projekt Computerphilologie: Technische Lektüren der BASIC Programmierkultur Abteilung Medienwissenschaft, Universität Bonn, Bonn, Deutschland
 
 
Stefan Höltgen

Zusammenfassung

Der nachfolgende Abschnitt beschäftigt sich mit dem Zusammenhang von Sprache und künstlicher Intelligenz. Hierzu wird zunächst die Beziehung von Sprache zu Intelligenz beziehungsweise die Zuschreibung von Intelligenz aufgrund von evozierter maschineller Sprachfähigkeit erörtert. Dieser Zusammenhang ist nicht bloß sprachphilosophisch begründet, sondern wurde und wird auch kultur- und medienhistorisch (im Bild von der sprechenden Maschine) konstatiert und befruchtet von dort aus auch wissenschaftliche Diskurse, weshalb ausgewählte Positionen hieraus vorgestellt werden. Die Logik als formalisierte und formale Sprache und Ausgangspunkt der Entwicklung sowohl von anderen formalen Sprachen (Programmiersprachen) als auch Implementierungen von Turing-Maschinen (Computer) wird als ein zweiter Strang des Zusammenhangs von Sprache und künstlicher Intelligenz verfolgt; den dritten Strang bildet schließlich die Entwicklung eines Konzepts von künstlicher Intelligenz (Turing-Test) und seine Implementierung im Programm ELIZA, dessen Entwicklungs- und Rezeptionsgeschichte dargestellt werden.

Schlüsselwörter
ELIZASprachphilosophieLinguistikLogikChatbot

1 Einleitung: Sprechende Automaten – in Kultur- und Technikgeschichte

Ob eine Maschine über künstliche Intelligenz verfügt, wird nicht zuletzt an ihrem Vermögen, Sprache zu verstehen und zu produzieren gemessen. Der Nexus zwischen Sprache und Intelligenz ist sowohl philosophie- als auch kulturhistorisch begründet. Diese Verbindung scheint bereits in der Ambivalenz des griechischen Begriffs logos als Sprache und Vernunft auf, wenn etwa Aristoteles den Menschen als „zoon logicon echon“ („Das vernünftige Wesen“1 bzw. „Das sprachbegabte Wesen“) definiert. Diese definitorische Doppeldeutigkeit wurde in der Kultur- und Philosophiegeschichte oft als Kausalbeziehung aufgefasst (die Bedingung für Sprachvermögen ist Vernunft). In diese Verständnistradition schrieben und schreiben sich Projekte ein, die Vernunft (Intelligenz) schon aus der Tatsache, dass gesprochen wird, ableiten. Das gilt insbesondere auch für künstliche Intelligenz und Sprache. Doch schon lange bevor diese Verbindung in Alan Turings (1987b, S. 149 ff.) berühmten Test kondensiert, wird sie kulturell reflektiert. Der Diskurs reicht dabei bis in die Antike zurück.

So wird bereits in antiken Quellen von der Statue des Memnon berichtet, die, wenn die Sonnenstrahlen ihren Mund berühren, zu sprechen beginnt. „Memnon, aus Erde und Ton geboren, zu Geist und zu Wort erwacht“, schreibt der Religionshistoriker Kanne, „töne, wenn die Morgenröthe erscheine“ (Kanne 1832, S. 13 f.). Ob die Memnon-Statue allerdings Verständiges oder gar Intelligentes von sich gegeben hat, darüber sind sich die Historiographen uneins (vgl. Cohen 1968, S. 8). Anders als die aus Ton geformte Memnon-Statue, deren Lautäußerungen unzweifelhaft dem fiktional-mythischen Denken entsprungen sind, werden in der Neuzeit tatsächlich Maschinen entwickelt, die Sprache von sich oder wiedergeben. Ein frühes Beispiel liefert der slowakische Erfinder Wolfgang von Kempelen, der in der zweiten Hälfte des 18. Jahrhunderts zahlreiche roboterähnliche Automaten erfunden hat. Zu diesen gehört auch die 1791 von ihm vorgestellte Sprachmaschine (vgl. Borbach 2018), die als das erste technische System zur Sprachgenerierung angesehen wird. Aber auch sie reproduziert lediglich Laute mit mechanischen Mitteln, welche erst von einem Bediener in Gang gesetzt werden müssen. Schriftlichen Text in Sprache zu übersetzen bleibt den frühen Computern vorbehalten: Ein IBM-7094 intoniert 1961 nicht nur ein paar bekannte Verse aus Shakespeares Drama „Hamlet“, sondern auch das Kinderlied „Daisy Bell“ (vgl. Baum 2018).

Den letzten beiden Beispielen ist gemein, dass die Systeme zwar stimmhafte Laute generieren aber lediglich auf Basis vorheriger Eingaben. Ein Ausdruck von (künstlicher) Intelligenz ist dies noch nicht. Diese wäre auch nicht notwendigerweise an stimmhafte/akustische Sprachgenerierung gebunden; auch die automatische Synthese von (geschriebenen/gedruckten) Texten könnte als Ausweis von Intelligenz angesehen werden. Textgenerierung beschreibt hierbei Verfahren, mit denen natürlich sprachliche Äußerungen syntaktisch korrekt produziert werden. Auch diese Verfahren blicken auf eine technische und kulturelle Tradition zurück, die bis in die frühen 1960er-Jahre reicht und zu der auch das am Ende dieses Kapitels vorgestellte Programm ELIZA gehört. Inwiefern solche Textgenerierungen aber bereits als Ausdruck von Intelligenz sind – oder ihnen Intelligenz zugeschrieben wird, was durchaus nicht dasselbe ist! –, hängt von der jeweils eingenommenen Sichtweise auf das, was Intelligenz im Zusammenhang mit Sprachvermögen sein soll, ab.

Jenseits der Technikgeschichte ist die Kultur reich an Fiktionen über sprechende Automaten. Zu den bekanntesten gehören wohl jene der Spätromantiker – etwa in E. T. A. Hofmanns Erzählung „Der Sandmann“ (erschienen 1841). Darin verliebt sich der Protagonist Nathanael in die (vermeintliche) Tochter seines Professors. Dieses Mädchen mit Namen Olympia, so erfährt der Leser recht bald, ist aber bloß ein Automat, was alle erkennen – nur der verliebte Held nicht. Er schreibt ihrer einzigen Lautäußerung („Ach!“) stets einen anderen Sinn zu und wird daher wahnsinnig, als ihm Olympia schließlich als Maschine vorgeführt wird. Zuvor zeigt er im Streit mit seinem Bruder, welcher in Olympias ewigem „Ach!“ die mechanischen Äußerungen einer „blöden“ Puppe erkennt, einen ausgesprochenen Willen zur Evokation: „Sie spricht wenig Worte, das ist wahr; aber diese wenigen Worte erscheinen als echte Hieroglyphe der innern Welt voll Liebe und hoher Erkenntnis des geistigen Lebens in der Anschauung des ewigen Jenseits“ (Hoffmann 1985, S. 86).

Spätere Autoren, die sich in ihren Geschichten bereits auf die Erfindung des Digitalcomputers berufen können, entwerfen fiktive Maschinen, die auch ohne solch evokatorischen Eifer intelligent erscheinen: Isaac Asimovs Roboter-Geschichte „Ich, der Robot“ (1950) problematisiert das Verhältnis von Sprache, Intelligenz und Selbstbewusstsein bereits in seinem Titel. In der Erzählung geht es um nicht weniger als das Recht der intelligenten Maschinen auf Selbstbestimmung. HAL 9000, der vielleicht berühmteste sprechende Computer der westlichen Kulturgeschichte, ersonnen von Arthur C. Clarke und Stanley Kubrick für den Roman und den Film „2001“, tritt sogar nur noch als akusmatisch-körperlose Stimme auf: Er steuert ein Raumschiff von der Erde zum Jupiter und unterhält sich während der Reise mit den Astronauten, spielt mit ihnen Schach und liest ihnen Post vom Heimatplaneten vor. Als die Astronauten entdecken, dass der Computer sie über einen wichtigen Sachverhalt belügt2 (um die Mission nicht zu gefährden), entschließen sie sich seine höheren ‚Gehirnfunktionen‘ abzuschalten. Die Szene, in der dies vorgeführt wird, entbehrt nicht der Angst und Trauer der daran Beteiligten, so als wäre HAL 9000 eingeschläfert worden.

2 Formales Sprachvermögen von Maschinen

Diese wenigen ausgewählten Beispiele mögen genügen, um die Engführung von künstlicher Intelligenz und natürlichem Sprachvermögen als wichtiges Motiv der Kulturgeschichte zu markieren. Parallel zu dieser Kulturgeschichte entfaltet sich allerdings auch diejenige der tatsächlichen Sprachbeherrschung von Maschinen. Hierbei geht es jedoch zunächst nicht um die natürlichen Sprachen, sondern um Formalsprachen. Insbesondere die Logik weist eine vielfältige Automatisierungsgeschichte auf (vgl. Gardner 1958; Höltgen 2017, S. 40–47). Logik beschreibt Verfahren, Sprache auf Aussagen und Sätze zu reduzieren, deren Wahrheit oder Falschheit sich formal notieren und beweisen lassen. Seinen Ausgang nahm dieses Bemühen bei Aristoteles (2004, S. I 1,100a25–27), der mit seinen Syllogismen ein Beweisverfahren für logische Schlüsse präsentierte. Neben spezifischen ‚symbolischen Implementierungen‘ für die Logik, die sich als Notationsverfahren von Philon von Megara (4. Jhd. v. u. Z., vgl. Łukasiewicz 1935) über George Boole (1847) und Gottlob Frege (1879) bis hin zu Ludwig Wittgenstein (1921/2003, S. § 4.31) entwickeln, weist die Logik auch eine Geschichte realer Implementierungen auf.

2.1 Logische Maschinen

Die erste Maschine, die mit Hilfe von Logik aus zwei bekannten Prämissen einen ‚neuen‘3 Schluss zu ziehen in der Lage ist, ist die um 1300 vom mallorquinischen Theologen Ramon Lullus entwickelte „Ars Magna“. (vgl. „Leibniz und die Künstliche Intelligenz“ in diesem Handbuch) Mit ihrer Hilfe sollten Moslems zum Christentum bekehrt werden. Hierzu führte man ihnen mechanisch vor, wie sich alle göttlichen Attribute logisch zu immer ‚neuen‘ Aussagen über göttliche Eigenschaften verknüpfen lassen – mithin der christliche Glaube als in sich geschlossenes logisches System dargestellt werden könne. Die „Ars Magna“ mechanisierte hierzu die Aristotelische Schlusslehre: Sie bestand aus mehreren Scheiben, auf die konzentrisch mit Symbolen beschriftete Kreise aufgebracht waren (vgl. Gardner 1958, S. 10 f.), die durch Verschieben gegeneinander Begriffe kombinierten. Mit der Formalisierung der Aussagenlogik durch George Boole und Gottlob Frege wurden logische Maschinen ab der zweiten Hälfte des 19. Jahrhunderts dann weniger auf theologische als auf formalphilosophische Probleme angesetzt. Mit ihrer Hilfe konnte das schreibaufwändige und fehleranfällige Aufstellen von Wahrheitswerttabellen und die Vereinfachung komplexer logischer Ausdrücke automatisiert werden. Aussagen in natürlicher Sprache, die auf ihren ‚logischen Kern‘ formalisiert/reduziert wurden, konnten auf diese Weise logisch analysiert und zu ‚neuen‘ Aussagen umgeformt werden.

Obwohl Logik nicht dazu geeignet ist, Unbekanntes und Unvorhergesehenes hervorzubringen, bildet sie ab Ende der 1930er-Jahre den wichtigsten Baustein für die Entwicklung von Maschinen, die zwar ebenfalls (und zwar aufgrund ihrer logischen Grundbausteine) deterministisch bleiben, deren Arbeitsgeschwindigkeit und Bauteilkomplexität aber zu Emergenzeffekten führt. Diese Emergenz wird von menschlichen Nutzern als originell, synthetisch und schließlich als Ausdruck von Intelligenz empfunden werden. Die Rede ist vom Digitalcomputer.

Diese Komplexität der Computer beruht auf der Kombination der Einfachheit ihrer basalen Bestandteile und der aufgrund massiver Verkleinerung erreichbaren Menge der daraus generierbaren Baugruppen. Die Vorbedingung hierfür ist zugleich logik- wie technikgeschichtlicher Art: Wilhelm Gottlieb Leibniz hatte bereits im 17. Jahrhundert mit der Entwicklung des Dualzahlensystems (Siemens 1966) die Grundlagen hierfür geschaffen. Zwar hatte Leibniz Vorarbeiten für eine Dualzahlen-Rechenmaschine geleistet, konzentrierte sich jedoch stärker auf die Entwicklung einer mechanischen Dezimalrechenmaschine. George Boole war es 1847 in seinem Werk „The Mathematical Analysis of Logic“, der die Dualzahlen wieder aufgriff und für eine Algebraisierung der Logik verwendete (die so genannte Boole'sche Algebra). Charles Sanders Peirce (1880) konnte schließlich beweisen, dass sich alle logischen Funktionen mittels einer einzigen darstellen lassen (NAND bzw. NOR). Auf dieser Erkenntnis basieren heutige Computer-Logikschaltkreise.

Die Implementierung der Aussagen als Schaltlogik schlug dann 1937 der damalige Student Claude Shannon in seiner Master-Arbeit „A Symbolic Analysis of Relay and Switching Circuits“ (1937) vor. Von da ab war es nur noch eine Frage der Entwicklung geeigneter Bauteile, um logische Schaltungen zu realisieren. Die Geschichte der Elektronik des 20. Jahrhunderts ist auch eine Geschichte dieser Bauteile, die von langsamen und großen Telefonrelais über zwar schnellere aber immer noch große Elektronenröhren bis hin zum wesentlich kleineren Transistor und schließlich zum mikroskopisch kleinen, hoch-taktbaren integrierten Schaltkreis (dem Siliziumchip) reicht. Inzwischen finden sich mehrere Milliarden logische Schaltgatter auf wenigen Quadratmillimetern Chipfläche und es werden beständig neue Substrate und Technologien entwickelt, die für die Implementierung von Digitalcomputer-Funktionen genutzt werden können – vom Schleimpilz über chemische Makromoleküle bis hin zu subatomaren Teilchen (vgl. Bechmann et al. 2011; Schumann 2018). Doch Hardware (oder Wetware) allein, selbst wenn sie, wie hier, als materialisierte Sprachstruktur vorgestellt wird, ist noch nicht ausreichend, um damit computieren zu können. Sie benötigt auch Software, mit der der Computer in symbolischer Hinsicht tatsächlich zur Sprache kommt.

2.2 Programmiersprachen

Deshalb bildet eine andere wichtige Gattung formaler Sprachen die Programmiersprachen. Sie nahmen im 19. Jahrhundert ihren Ausgang – erfunden zur selben Zeit als Hofmanns „Der Sandmann“ erscheint, von der über ihren Vater Lord Byron zumindest vage mit der spätromantischen Literatur verbundenen englische Mathematikerin Augusta Ada Byron King, Countess of Lovelace (kurz: Ada Lovelace). Sie beginnt 1843 eine Zusammenarbeit mit dem Erfinder Charles Babbage und übersetzt die Schriften zu dessen Rechenmaschine „Analytical Engine“. Später entwirft sie zu Babbages geplanter „Difference Engine“ eine Formalsprache zur Programmierung derselben. Dieses Notationssystem gilt als Ausgangspunkt der Geschichte der Programmiersprachen angesehen. Lovelaces’ Programmiersprache werden bis heute unzählige folgen, die allesamt eines eint: Sie versetzen programmierbare Maschinen in spezifische Zustände. Je komplexer diese Sprachen und die Architektur dieser Maschinen sind, desto vielfältiger sind die Zustände, die aus dem Verbund von Sprache und Materie hervorgehen können.

Mit der Entwicklung der Turing-Maschine (Turing 1987a) erreicht dieser Materie-Sprach-Verbund seine bislang größtmögliche ‚Kompetenz‘. Turing-Maschinen sind in der Lage alle berechenbaren Probleme zu berechnen. Das von Turing zunächst ‚bloß‘ als Antwort auf das mathematische Entscheidungsproblem entworfene Maschinen-Modell wird kurz darauf technisch implementiert. Um dies zu realisieren, muss die Maschine Alphabete der Typ-0-Grammatik lesen können. Solche Alphabete gehören zu Sprachen einer gewissen Komplexitätsklasse, die durch den US-amerikanischen Linguisten Noam Chomsky (1956) definiert wurden. Sie unterscheiden sich vor allem darin, ob und wie Maschinen auf Speicherinhalte zugreifen und diese manipulieren können. Je umfangreicher dieses Vermögen ist, desto vielgestaltiger können die von der Maschine lesbaren und produzierbaren Alphabete sein.

Turing-Maschinen und implementierte Digitalcomputer können mit unbeschränkten Grammatiken umgehen. Das ermöglicht es ihnen, jedes berechenbare Problem zu berechnen. Zu diesen Problemen gehören auch Turing-Maschinen selbst, weshalb es Turing-Maschinen daher auch möglich ist, (andere) Turing-Maschinen zu berechnen. Dieses Verschachtelungsvermögen spielt bei der nachfolgenden Frage, ob derartig ‚sprachfähige‘ Computer intelligent sein können, eine wichtige Rolle. Dass die von der Turing-Maschine akzeptierten Alphabete auch andere Maschinen sein können, hat darüber hinaus auch sehr praktische Konsequenzen – denn dies ermöglicht es dem Computer eine Schreibmaschine, ein Radio, Videoplayer, Taschenrechner, Bildtelefon, Computeremulator und vieles andere zu sein.

3 Das Bewusstsein von Computern

In seinem Buch „Roboter. Unsere nächsten Verwandten“ stellt sich der Publizist und Wissenschaftsjournalist Gero von Randow (1997) die Frage, ob Computer über ein Bewusstsein verfügen. Er bejaht dies, indem er eine (rhetorische) Gegenfrage stellt: „[W]oher wissen wir so genau, daß Menschen Bewusstsein haben? Vielleicht, weil sie es bekunden?“ (S. 247 f.) Das Bekunden von Bewusstsein ist seit Kant ein Ausweis für Selbstbewusstsein (vgl. Gloy 1998, S. 161 ff.) und wird bei Kant (vgl. ebd., S. 163) wie auch hier als sprachliches Bekunden verstanden: Von Randow entwirft ein Pseudo-BASIC-Programm, welches mittels PRINT-Befehl auf dem Monitor ausgibt: „Ich habe ein Bewusstsein.“ Für alle, die dann trotzdem noch daran zweifeln, dass diese Ausgabe ein ausreichender Beleg für Bewusstsein ist, erweitert er sein Programm dahingehend, dass es sich mittels LIST-Befehl zusätzlich auch noch selbst ausgibt,4 wie um zu bekunden, dass es sogar weiß, dass es über Bewusstsein verfügt, sich also zu sich selbst in eine Meta-Beziehung zu setzen in der Lage ist.

Der ‚Trick‘ basiert natürlich weniger auf der Tatsache, dass das Programm tatsächlich Bewusstsein besitzen könnte und dies auch noch auszudrücken in der Lage ist, als darauf, dass der Nutzer/Leser diesen sprachlichen Ausdruck für wahr hält und als hinreichenden Beleg für das Vorhandensein von Bewusstsein akzeptiert. Ganz wie bei Nathanael und Olympia aus „Der Sandmann“ wird das Problem der Möglichkeit künstlicher Intelligenz auf den Beobachter ausgelagert. Mit dieser Methode steht von Randows kleines Pseudo-BASIC-Programm in der Tradition sozialpsychologischer Technik- und KI-Diskurse. Das Verfahren, das er hier bemüht, könnte man mit Sherry Turkle (1984) „Evokation“ nennen:

„In den meisten Darstellungen wird der Computer als rational, uniform und der Logik unterworfen beschrieben. Ich untersuche den Computer aus einem anderen Blickwinkel: Im Zentrum steht nicht seine Natur als ‚analytische Maschine‘, sondern seine ‚zweite‘ Natur als evokatorisches Objekt, als ein Objekt das uns fasziniert, unseren Gleichmut stört und unser Denken neuen Horizonten entgegentreibt.“ (ebd., S. 10)

Diese Evokationen manifestieren sich sowohl in einer psychologisierenden Sprache über Maschinen als auch in einer technisierenden Sprache über Menschen – und das nicht nur bei Computernutzern, sondern auch bei Wissenschaftlern:

„Für diese Leute [Computerwissenschaftler, S.H.] ist der Computer-Jargon nicht nur Teil ihrer Ausdrucksweise. Ihre Sprache transportiert eine implizite Psychologie, die innere Prozesse im Menschen mit inneren Prozessen in Maschinen gleichsetzt. Sie legt nahe, daß wir Informationssysteme sind, deren Gedanken zu ihrer ‚Hardware‘ gehören […].“ (ebd., S. 14)

Turkle sieht das evokatorische Potenzial des Computers in vielerlei Hinsicht sozial und individuell wirksam. Hier interessiert zunächst vor allem die Vermutung, die die (zumal sprachlichen) Ausgaben des Computers bei einem Nutzer in Hinblick auf die kognitiven Qualitäten der Maschine auslöst.

Dieser Eindruck basiert auf dem erwähnten Emergenzeffekt, der es dem Computer, obwohl er aus sehr einfachen Elementen besteht, die in deterministischer Weise funktionieren, ermöglicht eine komplexe Aussage wie „Ich habe Bewusstsein“ zu tätigen und seinem Nutzer damit zu suggerieren, er sei wesentlich mehr sein als die Summe seiner (schalt- und sprach)logischen Bestandteile. Die Evokation von Intelligenz, die einhergeht mit einem spezifisch skeptizistischen Begriff von Intelligenz,5 lässt sich bis zu Alan Turing selbst zurück verfolgen. Bereits 1950 hatte er einen Versuch vorgeschlagen, mit dem die Frage, ob ein Computer intelligent sein könnte, beantwortbar sei: Er soll das „Imitationsspiel“ (Turing 1987b, S. 149 ff.) spielen, bei dem ein Mensch zu erraten hat, ob geschriebene Antworten, die auf Fragen gegeben werden, vom Computer oder einem anderen Menschen stammen, wenn beide für den Fragesteller nicht sichtbar wären. Auch hier wird zum Gradmesser für Intelligenz die Evokation seitens des menschlichen Beobachters (Fragestellers).

Turing führt selbst einige mögliche Erwiderungen auf die Gültigkeit seines Gedankenexperiments in seinem Text (ebd., S. 160–175) an, widerlegt diese jedoch im selben Atemzug. Eine von ihm allerdings nicht vorhergesehene wichtige Kritik erfährt das Verfahren 1980 durch den Philosophen und Linguisten John R. Searle (2002). Er stellt dem Imitationsspiel ein anderes Gedankenexperiment gegenüber – das des „chinesischen Zimmers“: Dabei soll ein Mensch vorgestellt werden, der in einem Zimmer sitzt, in das ihm Zettel mit chinesischen Schriftzeichen gereicht werden. Kurze Zeit darauf werden ihm weitere Zettel mit chinesischen Schriftzeichen gegeben sowie ein englischsprachiges Buch, das ihn darin anleitet, wie er die Zettel des ersten Stapels zu denen des zweiten Stapels in Beziehung zu setzen hat. Der Mann beherrscht zwar kein Chinesisch, kann mithilfe des Buches jedoch eine einwandfreie Zuordnung vornehmen, so dass es für einen außenstehenden (außerhalb des Zimmers befindlichen) Beobachter so aussieht, als verstünde der Mann Chinesisch.

Searle nutzt dieses Gedankenspiel dazu, den Turing-Test auf Basis des Imitationsspiels zu widerlegen: Nur weil es für einen Außenstehenden so aussieht, als spräche der Mann chinesisch, bedeutet dies noch lange nicht, dass er die Sprache auch tatsächlich versteht. Der im Gedankenexperiment beschriebenen Prozess lässt sich auf den Turing-Test übertragen: Dass uns der Computer aufgrund seiner Ausgaben als intelligent erscheint, heißt nicht, dass er notwendigerweise auch intelligent ist. Den Gradmesser bildet für Searle die Frage, ob verstehen eine bloße Übertragungsleistung ist oder ein intellektueller Prozess. Ein Computer kann zwar in der Lage sein, einen Transfer von einer Sprache in die andere zu leisten; verstanden hat er diese Sprache deshalb aber noch lange nicht, denn – so Searle –: „Rechenmaschinen […] verstehen überhaupt nicht: Das ist nicht ihr Gebiet“ (ebd., S. 239).

Searle kehrt damit das Evokationsargument um: „Der Grund, warum wir diese Zuschreibungen vornehmen, ist durchaus interessant, er hat mit dem Umstand zu tun, daß wir auf Kunsterzeugnisse unsere eigene Intentionalität übertragen; unsere Werkzeuge sind der verlängerte Arm unserer Zielsetzungen, und deshalb finden wir es natürlich, ihnen metaphorisch Intentionalität zuzuschreiben […] Was Computer an Intentionalität zu haben scheinen, existiert nur im Geist derer, die sie programmieren und sie benutzen, im Geist derer, die die Eingaben einspeisen und die Ausgaben interpretieren“ (ebd., S. 239, S. 257). Evokation als Grundlage für die Zuschreibung von Intelligenz ist für Searle damit Ausweis „einer unverfrorenen behavioristischen und operationalistischen Haltung“ (ebd., S. 260), der letztlich auch ein fragwürdiges Menschenbild zugrunde liegt.

4 Positionen der Sprachphilosophie

In Searles Argument scheint eine moralphilosophische Haltung auf, die sich gegen einen allzu ‚technizistischen‘ Begriff von Intelligenz und Bewusstsein richtet. Diese sprachphilosophische Position hängt eng mit dem Menschenbild der Philosophie zusammen, das sich seit Beginn der Neuzeit entwickelt hat.

Sprache war bereits in der Antike Gegenstand philosophischer Diskurse. Zwei der wichtigsten Positionen hierzu finden sich in Dialogen des Sokrates-Schülers Platon: In „Kratylos“ (Platon 1959) lässt er die Philosophen Sokrates, Kratylos, Hermogenes darüber streiten, in welcher Beziehung die Dinge der Welt zu ihren Bezeichnungen stehen. Während Kratylos davon ausgeht, dass die Wörter fest mit den Dingen, die sie bezeichnen in Zusammenhang stehen und sich ihre Richtigkeit also natürlicherweise ergibt, glaubt Hermogenes, dass die Bezeichnungen für die Dinge lediglich aus Übereinkünften der Sprecher hervorgegangen sind. Der Kratylos-Dialog problematisiert eine der Grundfragen der Sprachphilosophie: „In welcher Beziehung stehen sprachliche Ausdrücke zu Elementen der Welt?“ (Bertram 2011, S. 31)

Im Dialog „Phaidros“ (Platon 1958) lässt Platon Sokrates mit dem titelgebenden Phaidros über das Wesen der Schrift streiten: Ist Schrift zuvorderst ein rhetorisches Werkzeug (Phaidros) oder besitzt sie auch philosophische Qualitäten (Sokrates)? Während die Rhetorik, weil sie allein auf die Leser/Hörer und die auf sie beabsichtigte Wirkung zugeschnitten ist, Sokrates zufolge abzulehnen sei, ermöglicht es Schrift als philosophisches Medium, Argumente und Überzeugungen zu übertragen und zu speichern. Insbesondere in Hinblick auf die unten folgende Diskussion einer nicht sprechenden, sondern schreibenden künstlichen Intelligenz, lohnt es sich diese These im Sinn zu behalten. Die Frage, welchen instrumentellen Charakter Sprache (gesprochen wie geschrieben) besitzt, zieht sich von Phaidros ausgehend bis in die pragmatische Sprachphilosophie und Sprachwissenschaft der Gegenwart.

In welchem Verhältnis Sprache zu den geistigen Zuständen (vgl. Bertram 2011, S. 32) oder gar zur Intelligenz des Sprechers steht, ist erst mit der Wende zur Neuzeit in den Fokus der Sprachphilosophie gerückt. Den Wendepunkt hierfür bildete der Rationalismus René Descartes, der von seinem skeptischen Zweifel („Was also bleibt Wahres übrig? Vielleicht nur dies eine, daß nichts gewiß ist.“) (Descartes 1993, S. 43) ausgehend das Individuum als denkende/zweifelnde Entität allem voran sprachlich konstituiert: „Und so komme ich, nachdem ich nun alles mehr als genug hin und her erwogen habe, schließlich zu der Feststellung, daß dieser Satz: ‚Ich bin, ich existiere‘, sooft ich ihn ausspreche oder in Gedanken fasse, notwendig wahr ist“ (Descartes, S. 45, Hervorh. S. H.). Von diesem Moment an beschäftigt sich Erkenntnistheorie auch mit dem Zusammenhang von Sprache und Bewusstsein. Gero von Randows oben zitiertes Programmierexperiment zur sprachlichen Setzung des Bewusstseins der Maschine steht in genau dieser Tradition skeptischer Philosophie, die sich über Sprache Selbstvergewisserung erhofft.

Mit der Hermeneutik weitet sich der Blick der Sprachphilosophie von der Bedingung der grundlegenden Möglichkeit sprachlich verfasster Selbsterkenntnis auf die Erkenntnis und das Verstehen der Welt. Im 19. Jahrhundert werten Philosophen wie Friedrich Schleiermacher und Wilhelm Diltey Sprache als Medium des Sinnes, der sich prozesshaft entfaltet (hermeneutischer Zirkel). Die Bedeutung eines Textes kann nicht losgelöst von seinem Kontext erfasst werden. Sprachliche Erkenntnis ergibt sich damit stets sukzessive und relativ vom Teil auf das Ganze (und umgekehrt) und sie lässt sich sowohl grammatisch (vom Wort zum Satz zum Text und zurück) als auch psychologisch (von der Aussage zur Intention des Sprechers und zurück) begründen. Alles Verstehen findet statt vor dem ‚Horizont‘ unseres Sprachverstehens und aller anderen Bedingungen, die wir als Interpreten von Sprache mit in den Dialog bringen.

Neben diese metaphysischen Positionen traten zeitgleich ‚materielle‘ Analysen der Sprache in der Logik (s. o.), welche Ebenfalls zurück in die Sprachphilosophie – mehr aber noch in die Linguistik fließen. ‚Überlegungen Leibniz‘ zu Konstruktion einer Universalsprache (Leibniz 1966), in der sich alles (und ohne Missverständnisse) ausdrücken ließe und die sprachanthropologische Forschung zu einer möglichen Ursprache (etwa durch Wilhelm von Humboldt; vgl. Haßler et al. 2009) forcieren die Überschneidung von Sprachphilosophie und Sprachwissenschaft. Der philosophischen und literaturwissenschaftlichen Beschäftigungen mit den Oberflächenstrukturen von Sprache stellte sich eine sprachwissenschaftliche Analyse ihrer Tiefenstrukturen durch die Linguistik (Chomsky 1969) anbei. Ferdinand de Saussure (1967) entwarf in seiner allgemeinen Sprachwissenschaft ein Modell von Sprache, das Platons Frage aus „Kratylos“ beantwortet und das sprachliche Zeichen von seiner Bedeutung trennt; auf diesem Strukturalismus basierten in der Nachfolge (bis in die Gegenwart) zahlreiche linguistische, philosophische und kulturwissenschaftliche Programme, die allesamt die Sprach- und Zeichenhaftigkeit der Welt(erkenntnis) im Blick hatten.

Die aktuelle Sprachphilosophie beschäftigt sich unter dem Begriff der (sprach)analytischen Philosophie immer noch mit den Beziehungen zwischen Sprache und Bewusstsein (vgl. Bertram 2011, S. 154–179). Demgegenüber hat sich die formale Linguistik in unterschiedliche Subdisziplinen aufgeteilt, die verschiedene Aspekte von Sprache untersuchen: vom sprachlichen Laut (Phonetik/Phonologie), dem Wort und der Wortbildung und -bedeutung (Morphologie/Semantik) über die generative Grammatik von Sätzen (Syntaxtheorie) bis hin zur Textlinguistik und -pragmatik.

Beide sprachphilosophischen Stränge – die Untersuchung der Beziehung zwischen Bewusstsein und Sprache und die Verbindung von formalen zu natürlichen Sprachen – treffen im Phänomen der künstlichen Intelligenz zusammen; zumal, wenn es sich um KI-Systeme handelt, die sich (natürlich)sprachlich ausdrücken. Den Ausgangspunkt hierfür liefert das Programm ELIZA.

5 Die Sprachphilosophie und ELIZA

ELIZA kann vielleicht als der Prototyp der so genannten Chatbots gelten. Das sind Programme, die natürlich sprachliche Ausgaben (als Schrift- oder Lautsprache) erzeugen – und zwar auf Basis der Eingaben eines Users. Solche Systeme funktionieren also dialogisch und sollen den Eindruck eines Zwiegesprächs zwischen Nutzer und Computer erwecken. Es ist jedoch nicht trivial zu betonen, dass bei computerbasierten Chatbots stets zwei Sprachen und zwei Sprachphilosophien im Spiel sind: Erstens die natürliche Sprache der Ausgabe (Deutsch, Englisch, …), welche zweitens der Ausgabeeffekt von formalen Sprachen des Systems (Programmiersprachen, Logik, Mathematik) ist. Ein adäquates Verständnis von Programmen ist nur dann möglich, wenn diese beiden Flächen zueinander in Beziehung gesetzt werden.

Zunächst sollen hier die Hintergründe zur Entstehung von ELIZA rekapituliert werden. Danach erfolgt eine Bewertung ELIZAs vor den oben genannten Konzepten der künstlichen Intelligenz. Wie sich ELIZA (auf der Oberflächenstruktur seiner Ausgaben) gegenüber dem Kommunikationspartner geriert und von diesem deshalb vielleicht als intelligent angesehen werden kann, soll danach durch eine Analyse der Ausgabeformen des Programms mittels sprachphilosophischer Positionen dargestellt werden. Schließlich wird auf die Tiefenstruktur von ELIZA zu sprechen kommen sein, wenn es darum geht, die ‚Tür des chinesischen Zimmers‘ zu öffnen und in das ‚Übertragungsbuch‘ zu blicken. Aus der Gegenüberstellung der Oberflächen- und Tiefenstruktur des Programms kann dann die historische und die gegenwärtige Kritik an ELIZA im Besonderen und Chatbots im Allgemeinen begründet werden.

5.1 Joseph Weizenbaums ELIZA DOCTOR

ELIZA entsteht zwischen 1964 und 1966 am Artificial Intelligence Lab des MIT. Programmiert hat es der deutschstämmige Informatiker Joseph Weizenbaum (Weizenbaum 2018) in der Programmiersprache MAD SLIP (vgl. Kantel 2018), welche er eigens zu diesem Zweck als Erweiterung der Programmiersprache Fortran entwickelt hatte (Weizenbaum 1963). Das Programm läuft auf einem IBM 7090 Mainframe-Computer unter einem Timesharing-Betriebssystem. Letzteres ist bereits die Voraussetzung für das Funktionieren, weil ELIZA von einem oder mehreren Terminals aus genutzt werden kann und (aufgrund des Mikrosekunden-schnell wechselnden ‚Zeitscheiben‘ für jedes angeschlossene Terminal) deshalb nicht mehr die gesamte Rechenzeit des Computers bindet – was Mitte der 1960er-Jahre für ein für das Ablaufen einer ‚Spaßsoftware‘ teures Unterfangen gewesen wäre.

Über das angeschlossene Terminal, das als Teletypewriter alle Ein- und Ausgaben auf Papier ausdruckte, konnte der Nutzer mit ELIZA kommunizieren. Das Programm meldete sich – je nachdem, welche Version benutzt wurde6 – nach Start mit einer Begrüßung und einer Frage: ELIZA: HALLO, ICH BIN ELIZA. ERZÄHL MIR DEIN PROBLEM. Darauf entspannt sich zum Beispiel folgender Dialog:

Frau: Die Männer sind alle gleich.

ELIZA: IN WELCHER WEISE

Frau: Sie mache uns immer wegen irgendwas verrückt.

ELIZA: KÖNNEN SIE EIN BEISPIEL NENNEN

Frau: Na ja, die Idee zu diesem Gespräch stammt von meinem Freund.

ELIZA: DIE IDEE ZU DIESEM GESPRÄCH STAMMT VON IHREM FREUND

Frau: Er sagt, daß ich oft deprimiert bin.

ELIZA: ES TUT MIR LEID VON IHNEN ZU HÖREN DASS SIE DEPRIMIERT SIND

Frau: Das stimmt, ich bin unglücklich.

ELIZA: GLAUBEN SIE DASS DIESES GESPRÄCH IHNEN HILFT NICHT MEHR UNGLÜCKLICH ZU SEIN

[…] (vgl. Weizenbaum 1978, S. 15 f.)

Hierauf konnte sich ein im Prinzip endloser Dialog zwischen der Nutzerin und dem System entwickeln, in welchem sie regelmäßig durch Fragen aufgefordert wird, ihre vorherigen Aussagen zu erweitern, zu erläutern oder zu reflektieren. ELIZA verfolgt damit offenbar ein gesprächstherapeutisches Ziel. Die Idee zu ELIZA geht aus verschiedenen Quellen hervor: literarischen, computerhistorischen, psychologischen und philosophischen.

Der Name ELIZA referenziert zunächst laut Weizenbaum (2018) auf die Protagonistin Eliza Doolittle aus George Bernhard Shaws Komödie „Pygmalion“. Diese ist eine Blumenverkäuferin, die zum Gegenstand der Wette eines Linguistik-Professors wird: Er will sie allein durch ‚Spracherziehung‘ zu einem Mitglied der Londoner High Society machen, was ihm schließlich sogar gelingt. Wie in Ovids „Metamorphosen“ erschafft sich der ‚moderne Pygmalion‘ hier also ein (weibliches) Geschöpf nach seinen Vorstellungen. Diese ‚Sprachbildungsfunktion‘ besitzt auch Weizenbaums Programm, dem neue Begriffe und Antworten gelehrt werden können, um so seinen Sprachwortschatz und seine Antwortvielfalt immer weiter auszubauen.

5.2 ELIZA aus psychologischer Perspektive

Der Informatiker Weizenbaum, der zur Zeit der Entwicklung von ELIZA das Entstehen der ersten Hacker-Kultur am MIT miterlebte, plante sein Programm laut eigener Aussage als Kritik an einem zu sehr auf dem Computer bezogenen Lebensstil (vgl. Weizenbaum 1978, S. 160 f.). Inwiefern der Entwicklungsaufwand (der Programmiersprache MAD SLIP, der verschiedenen ELIZA-Programme) diese Intention rechtfertig, mag dahingestellt sein. Entscheidend ist, dass seine Kritik zunächst ins Leere lief: ELIZA wurde nicht etwa als Parodie (vgl. Weizenbaum 1978, S. 15) eines Psychotherapeuten erkannt, sondern von den Usern, die von Weizenbaums Sekretärin (ebd., S. 19) bis hin zu Psychotherapeuten, welche ELIZA in ihren Praxen einsetzen wollten (ebd., S. 16), ernstgenommen. Nutzer von ELIZA wurden also durchaus erfolgreich über die Intelligenz ihres Gegenübers getäuscht – und das sogar im ‚Angesicht‘ der Maschine, die anders als in Turings Imitationsspiel nicht hinter Vorhängen verborgen ist und über menschliche ‚Dolmetscher‘ kommuniziert. Dieser später als „Eliza-Effekt“ (Hofstadter 1996, S. 181) bekannt gewordene Trugschluss hatte nachhaltige Folgen für die Arbeit Weizenbaums, der gleich einer Wandlung von Saulus zum Paulus fortan vor allem als Kritiker der Computerkultur auftrat und die Wirkung ELIZAs seinem Hauptwerk „Die Macht der Computer und die Ohnmacht der Vernunft“ also Urszene seiner Arbeit voranstellt. Wie gelingt ELIZA der „Eliza-Effekt“?

Um den Dialog aufrecht zu erhalten, muss das Programm seinen Nutzer beständig zum Sprechen auffordern. Dies erreicht ELIZA vor allem dadurch, dass Fragen gestellt werden. Diese Methode besitzt einen psychotherapeutischen Hintergrund, der auf das ‚klientenzentrierte‘ Modell des Psychologen Carl Rogers (1943, Weizenbaum 2018, S. 41) zurückgeht. Im Gegensatz zur Psychoanalyse geht Rogers’ Menschenbild nicht von archetypischen neurotischen Strukturen, sondern von der Individualität jedes Patienten und seiner Probleme aus. Diese gilt es im therapeutischen Gespräch zu respektieren und durch verbale wie nonverbale Kommunikation zu ergründen. Der Therapeut unterstützt den Patienten dabei weniger autoritäre-direktiv, denn beratend-nondirektiv (als „Counselor“) bei der Selbstergründung der Problemsituation. Das Programm ELIZA richtet sich selbstverständlich nicht vollends am humanistisch geprägten Programm Rogers’ aus, sondern übernimmt allein einen Teilaspekt des Beratungsprozesses (den Rogers’ selbst aus dem Programm eines Beratungsprogramms von Western Electric entlehnt): „[…] 5. The interviewer should talk or ask questions only under certain conditions. a. To help the person talk. […]“ (Rogers 1943, S. 125).

Die Technik des Fragens zur Stiftung von Selbsterkenntnis ist allerdings wesentlich älter. Sie lässt sich auf die philosophische „Mäeutik“ in Platons Dialogen zurückführen. Der Begriff, der eigentlich mit „Hebammenkunst“ übersetzt wird, kennzeichnet die in den Platonischen Dialogen spezifische Vorgehensweise Sokrates, um bei seinen Gesprächspartnern über das Stellen von (Rück)Fragen zu Erkenntnissen zu gelangen. Dabei wird davon ausgegangen, dass diese Erkenntnisse bereits im Gesprächspartner als (implizites) Wissen vorliegen, welches dann im Gespräch explizit gemacht und nicht etwa durch Suggestivfragen vom Fragesteller induziert wird. Der schrittweise Erkenntnisgewinn unterstreicht die (proto)hermeneutische Funktion der Methode mit Hilfe von Sprache zu Erkenntnis zu gelangen. Martin Heidegger hat in „Sein und Zeit“ (2006) die hermeneutische Funktion des Fragens (in Beziehung auf die Frage nach dem Sein) definiert:

„Jedes Fragen ist ein Suchen. Jedes Suchen hat sein vorgängiges Geleit aus dem Gesuchten her. […] Das Fragen hat als Fragen nach … sein Gefragtes. Alles Fragen nach … ist in irgend einer Weise Anfrage bei … Zum Fragen gehört außer dem Gefragten ein Befragtes. In der untersuchenden, d. h. spezifisch theoretischen Frage soll das Gefragte bestimmt und zu Begriff gebracht werden. Im Gefragten liegt dann als das eigentlich Intendierte das Erfragte, das, wobei das Fragen ins Ziel kommt. Das Fragen selbst hat als Verhalten eines Seienden, des Fragers, einen eigenen Charakter des Seins. Ein Fragen kann vollzogen werden als ‚Nur-so-hinfragen‘ oder als explizite Fragestellung. Das Eigentümliche dieser liegt darin, daß das Fragen sich zuvor nach all den genannten konstitutiven Charakteren der Frage selbst durchsichtig wird.“ (Heidegger 2006, S. 5 – Hervorh. i. O.)

An diesen beiden philosophiegeschichtlichen Flankierungen des in ELIZA parodierten Psychotherapeuten Rogers’scher Prägung zeigt sich bereits, dass das Programm auf vielfältige Weise auf sprachanthropologische Konzepte und Traditionen rückführbar ist. Das Fragen, weniger als Methode zur Reflexion als zur Provokation von Antworten, ist hingegen ein linguistischer Untersuchungsgegenstand.

5.3 ELIZA aus linguistischer Perspektive

Die Besonderheiten des Dialogs zwischen ELIZA und seinen Nutzern werden durch die Pragmatik untersuchbar. Dieser Zweig der Sprachwissenschaft beschäftigt sich mit dem Handlungscharakter sprachlicher Äußerungen. Die Sprechakt-Theorie, deren Mitbegründer Searle (1983) ist, unterschiedet spezifische Illokutionen (Vollzüge von Sprechhandlungen; hier: Fragen). Fragen unterliegt dabei dedizierten Regeln (Searle 1983, S. 102 f.), je nachdem, ob es sich um „wirkliche Fragen“ oder „Prüfungsfragen“ (ebd.) handelt. In jedem Fall aber wünscht der Sprecher die (erfragte) Information vom Befragten zu bekommen. Dies gilt auch für ELIZA, wenngleich unklar ist, um welchen Fragetyp es sich handelt: Im Rogers’schen Sinne wäre es das Ziel dieses Sprechakts (die Perlokution), sowohl die Information vom Patienten zu erhalten als auch das Gespräch am Laufen zu halten. Dies kann auch für Weizenbaums ELIZA gelten – jedoch auf einer anderen Ebene als der der natürlichsprachlichen Pragmatik, wie sich noch zeigen wird.

Die Fragen ELIZAs, das hat sich am obigen Dialog-Auszug gezeigt, besitzen allerdings noch einen spezifischen syntaktischen Charakter. In etlichen von Ihnen werden Teile einer vorausgegangenen Antwort aufgegriffen und wiederholt. Diese Wiederholung soll – zusammen mit dem Aufforderungscharakter (vgl. Hundsnurscher 1974, S. 9 f.) des Fragens – den Eindruck von Aufmerksamkeit und Anteilnahme beim Leser erzeugen. Das Gespräch ist überhaupt nur als kohärent auffassbar, weil die einzelnen Sätze der Dialogpartner semantisch und syntaktisch aufeinander Bezug nehmen. Die Semantik definiert solche sprachlichen Gefüge als Thema-Rhema-Gliederungen: Das Thema greift dabei auf etwas Bekanntes/bereits Gesagtes zurück und erweitert dies durch etwas Neues: das Rhema, welches dann in der Folge wiederum zum Thema wird usw. Am Beispiel des obigen Dialogs lässt sich dies zeigen:

Frau: Das [Thema 0] stimmt, ich bin unglücklich [Rhema 1].

ELIZA: GLAUBEN SIE DASS DIESES GESPRÄCH IHNEN HILFT [Rhema 2] NICHT MEHR UNGLÜCKLICH ZU SEIN [Thema 1]

  • Thema 0: Die Wiederaufnahme des Themas 0vom Vorsatz – deprimiert sein – durch ein Demonstrativpronomen

  • Rhema 1: Die neue Information: unglücklich sein

  • Thema 1: Die Wiederaufnahme des Rhemas 1 vom Vorsatz: unglücklich sein

  • Rhema 2: Hilfesuchen in diesem Gespräch

  • usw.

Syntaktisch wird die Thema-Rhema-Beziehung von Aussagen durch Anaphorik erreicht: Die Anapher greift (zeitlich) auf etwas bereits Gesagtes zurück und wiederholt es. Anaphorik tritt dabei sowohl explizit und implizit auf. Explizite Wiederaufnahmen durch Pronomen oder direkte Wortwiederholungen äußern sich direkt auf der Textoberfläche (etwa bei Echo-Fragen (vgl. Poschmann 2015, S. 73) oder Nachfragen (vgl. ebd., S. 156 f.)), während indirekte Anaphern (vgl. Schwarz 1996) nur aus dem Sinnzusammenhang verständlich werden. Im obigen Gesprächsausschnitt zeigt sich dies an folgender Passage:

Frau: Die Männer sind alle gleich.

ELIZA: IN WELCHER WEISE

Der Sinn (und die Ellipsenform!) der Rückfrage ELIZAs ist nur aus dem Zusammenhang des Dialogs verständlich und sie hinterfragt die von der Frau behauptete Allaussage („Die/Alle Männer sind gleich“), indem sie sich nach einem Beispiel (nicht für einen Mann, sondern für einen Fall von Gleichheit) erkundigt. Es sind vor allem solche indirekten Anaphern, die den Eindruck des ‚Verständnisses‘ (und damit Bewusstseins) des Dialogpartners stützen, denn sie suggerieren, dass dieser am Thema ‚mitdenkt‘.

Zu den anaphorischen Elementen von ELIZAs Ausgaben gehören auch die Wiederholung von Satzteilen der Eingabe:

Frau: Das stimmt, ich bin unglücklich.

ELIZA: GLAUBEN SIE DASS DIESES GESPRÄCH IHNEN HILFT NICHT MEHR UNGLÜCKLICH ZU SEIN

ELIZA muss ‚erkennen‘, dass die Nutzerin hier eine Aussage über sich selbst getätigt hat („ich bin“) und sie grammatikalisch korrekt spiegeln („SIE“); ebenso muss das Programm die gebeugte Verbphrase („bin unglücklich“) in die richtige Konjugation („SIE … ZU SEIN“) überführen. Auch dieses scheinbare grammatikalische Wissen unterstützt den Eindruck, es bei ELIZA mit einer sprachkompetenten (künstlichen) Intelligenz zu tun zu haben.

5.4 ELIZA als formalsprachliches Phänomen

Wie bereits geschrieben, verwendet das Programm ELIZA zwei Sprachen: jene Sprachausgabe diesseits der Schnittstellen, die der natürlichen Sprache des Nutzers weitgehend ähneln soll, um den Eindruck von Anteilnahme und Intelligenz zu erwecken; und jene Sprachen unterhalb dessen, die die computerphilologischen Bedingungen der Möglichkeit der Textausgaben und ihrer Effekt bilden. Letztere sind die Logik und die Programmiersprache, in der ELIZA implementiert ist.

Die Hardware von Digitalcomputern basiert auf Sprache: die Prinzipien der Schaltlogik in den Rechengattern, Speichern und Steuerungsstrukturen lassen sich bis zur Syllogistik Aristoteles’ zurückverfolgen (vgl. Höltgen 2017, S. 15–17). Diesem Umstand ist es geschuldet, dass ELIZAs Aussagen letzthinnig vollständig deterministisch bleiben. Mögen seine Ausgaben auf der Oberfläche auch den Eindruck von Verständnis erwecken oder – wie die oben gezeigte Kritik der Allaussage über die Gleichheit aller Männer – das Vermögen zur kritischen Abstraktion sprachlicher Gemeinplätze … ELIZA gibt nur das aus, was es aufgrund seiner Datenlage durch UND-Verknüpfung als zusammengehörig identifiziert.

Dies funktioniert auf Basis der Programm- und Datenstruktur ELIZAs: Das Programm scannt die Eingaben des Nutzers nach bestimmten Schlüsselwörtern. Das sind Begriffe, die in einer Datenbank hinterlegt wurden – zusammen mit Antwortphrasen, die zu den bestimmten Schlüsselbegriffen ‚passen‘. Diese Passgenauigkeit wird auf Basis einer logischen Konjunktion erreicht: Die Aussage kann dann ausgegeben werden, wenn der eingegebene Begriff und der Schlüsselbegriff identisch sind. Die Identitätsprüfung wird nicht anhand des Begriffs selbst, sondern auf Basis eines Tokens vorgenommen. So können auch passende Antwortsätze gefunden werden, in denen nicht der Schlüsselbegriff aus der Nutzereingabe selbst auftaucht.

Wenn zum Beispiel in einer Eingaben das Wort „Mutter“ auftaucht, kann ELIZA eine Rückfrage zur „Familie“ stellen, weil der Begriff Mutter (und vielleicht zusätzlich auch „Vater“, „Bruder“, „Kind“ usw.) mit einer Phrase verknüpft ist, in der Familie thematisiert wird. Auf diese Weise müsste das Programm den Schlüsselbegriff zur Kohärenzbildung nicht einmal wiederholen und könnte zugleich den ‚intelligenten‘ Eindruck von Kontextwissen erzeugen. Dort, wo in einer Eingabe kein Schlüsselbegriff identifiziert werden kann, stellt ELIZA eine allgemeine Nachfrage:

Frau: Die Männer sind alle gleich.

ELIZA: IN WELCHER WEISE

Diese Frage könnte zu beinahe jeder Eingabe eine passende Rückfrage darstellen. Damit ELIZA durch Wiederholung der immer selben Rückfrage nicht den Eindruck seiner (künstlichen) Intelligenz desavouiert, sind im Datensatz mehrere mögliche allgemeine Antwort-Phrasen oder Rückfragen hinterlegt, die auf Basis einer Zufallszahl ausgewählt und ausgegeben werden. All diese Vergleichs- und Auswahlprozesse nutzen die logischen Funktionen der Programmiersprache, die letztlich auf spezifische logische Funktionen der Hardware zurückgreifen.

Damit die maschinelle Logik für diesen Zweck genutzt werden kann, muss sie durch eine Programmiersprache aufgerufen werden. Im Falle des Original-ELIZA-Programms war dies die Sprache MAD SLIP (vgl. Kantel 2018). Zwar gilt der Sourcecode von ELIZA noch als verschollen, Weizenbaums Publikationen zum Programm geben jedoch klare Einblicke in die Funktionsweise (Weizenbaum 2018). Zudem existieren zahlreiche Adaptionen, die vom ersten Erscheinen des Programms bis heute von unterschiedlichen Autoren für unterschiedliche Plattformen und in verschiedenen Sprachen programmiert wurden. Anhand solcher Re-Enactments der Originalsoftware lässt sich die Funktionsweise der Algorithmen und damit der Evokation von (künstlicher) Intelligenz codenah nachvollziehen (Abb. 1).
Abb. 1

Illustration und Dialog-Auszug aus Jeff Shragers BASIC-Version von ELIZA. (North 1977)

Eine solche Adaption stellt die in BASIC programmierte Version von Jeff Shrager (2018) dar. Er entwickelte sein ELIZA-Programm 1973 und publizierte es 1977 als BASIC-Sourcecode zum Abtippen in einer Ausgabe der Zeitschrift „Creative Computing“. In ihr lässt sich der funktionale Aufbau des Programms, der hier nicht im Detail nachvollzogen soll, sehr deutlich zeigen:

  1. 1.

    Initialisierung des Programms und Begrüßung durch ELIZA

     
  2. 2.

    Nutzereingabe

     
  3. 3.

    Schlüsselwortsuche in der Eingabe

     
  4. 4.

    Generierung der Ausgabe

     
  5. 5.

    Schlüsselwort-Datenbank

     
  6. 6.

    Datenbank mit Verb-Konjugationen

     
  7. 7.

    Antwortphrasen-Datenbank

     
  8. 8.

    Datenbank mit Zuordnungstoken von Schlüsselwörtern und Antwortphrasen

     

Die meisten im vorangegangenen Unterkapitel diskutierten linguistischen Aspekte ELIZAs finden sich in dieser Programmstruktur wieder. Mit Blick auf den Programmcode könnte sich daher beim Leser Weizenbaums Prognose zur künstlichen Intelligenz ELIZAs einstellen:

„[S]obald ein spezielles Programm demaskiert ist, wenn seine inneren Funktionsweisen in einer Sprache beschrieben wurden, die einfach genug ist, um ein Verstehen zu ermöglichen, bröckelt seine Magie weg. Am Ende steht das Programm da als eine bloße Ansammlung von Prozeduren, die jede für sich durchaus verständlich sind. Der Beobachter sagt dann zu sich selbst: ‚Das hätte ich auch schreiben können‘. Mit diesem Gedanken im Kopf verschiebt er das Programm vom Registerfach ‚intelligent‘ in das Registerfach für ‚Interessantes, das man nur mit Menschen diskutieren kann, die weniger verständig sind, als man selbst‘.“ (Weizenbaum 2018)

Am Ende seines Beitrags reduziert er ELIZA auf einen „Übersetzungsprozessor, der speziell konstruiert wurde, um gut mit Text aus natürlichen Sprachen zu arbeiten“ und nimmt damit Searles Kritik der starken künstlichen Intelligenz. Es übersetzt dabei nach demselben Prinzip, wie der Mann im chinesischen Zimmer: ohne jedes Verständnis.

5.5 Fazit: Die schwache künstliche Intelligenz ELIZAs

Es hat sich gezeigt, dass Sprache und Intelligenz im Allgemeinen und Sprachausgabe und künstliche Intelligenz im Besonderen auf vielfältige Weise technik-, kultur- und philosophiegeschichtlich miteinander verwoben sind. Am Beispiel des Programms ELIZA konnten einige dieser Beziehungen konkret gezeigt und diskutiert werden. Bleibt abschließend die Frage zu klären, welche Schlüsse sich aus dieser Konfrontation ziehen lassen.

Weizenbaums eigene Sichtweise, die er bereits bei der Entwicklung von ELIZA und der anschließenden Diskussion des Programms (1978, 2018) dargelegt hat, sind von einer grundlegenden Skepsis gegenüber den Möglichkeiten (sprach)intelligenter Computerprogramme geprägt. Er sieht ELIZA in der Tradition des Turing-Tests (ebd., S. 42), womit auch Searles zitierte Einwänden am Konzept einer evokatorischen Intelligenz bei ELIZA zum Tragen kommen.

Searle ist allerdings kein so radikaler Kritiker der künstlichen Intelligenz wie Weizenbau. Er unterscheidet zwischen einer starken und einer schwachen künstlichen Intelligenz:

„Der schwachen AI [Artificial Intelligence, S. H.] zufolge besteht der Hauptwert, den der Computer für die Untersuchung des Geistes hat, darin, daß er uns ein sehr wirksames Instrument an die Hand gibt. Er ermöglicht uns zum Beispiel eine strengere und präzisere Formulierung und Überprüfung von Hypothesen. Nach der starken AI aber ist der Computer nicht nur ein Instrument bei der Untersuchung des Geistes; vielmehr ist der recht programmierte Computer in Wahrheit selbst ein Geist in dem Sinn, daß man Computern, die mit den richtigen Programmen ausgestattet sind, buchstäblich Verstehen und andere kognitive Zustände zusprechen kann.“ (Searle 1994, S. 232)

Searles Kritik richtet sich vor allem gegen diese zweite, die starke künstliche Intelligenz. Welche sprachphilosophischen Möglichkeiten ergeben sich aber, wenn am ELIZA aus der Perspektive der schwachen künstlichen Intelligenz sieht? Welche Hypothesen können mit ELIZA als Werkzeug formuliert und/oder überprüft werden?

Vor dem Hintergrund der vorangegangen Diskussion scheinen hier zwei unterschiedliche Möglichkeiten auf: Zum Einen stellt ELIZA als kulturelles Artefakt einen Kondensationspunkt in der Geschichte intelligenter Maschinen dar. Vielleicht erstmals gelingt es, eine sprachfähige Maschine zu realisieren, die nicht nur als die eschatologische Erfüllung fiktionaler wie mythischer Entwürfe gesehen werden kann. In ELIZA realisieren sich neben jenen Momenten der Science Fiction auch diejenigen der fictional science, wie sie Turings 1950 publizierter Essay über Rechenmaschinen und Intelligenz (Turing 1987b) formuliert wurden. Mit ELIZA lässt sich der Turing-Test selbst testen. Searle selbst hat das Programm daher auch in seine Überlegungen zur Kritik der künstlichen einbezogen (Searle 1994, S. 223).

Als ‚Werkzeug‘ zur operativen Ergründung der Grammatik – nicht nur der Maschine, sondern auch des Menschen, kann ELIZA in zweiter Hinsicht nützlich sein und bleiben. ELIZA simuliert einen Sprecher in dem Sinne, wie ein Textverarbeitungsprogramm eine Schreibmaschine und ein 3D-Ego-Shooter das Schießen simuliert: als Spiel. Das Programm macht es möglich, gleichermaßen die Aspekte formaler und natürlicher Sprachen miteinander in den Dialog zu bringen; also über die Programmierung zur Sprachausgabe zu gelangen. Dabei reichen die algorithmischen Möglichkeiten von der morphologischen Ebene (Konjugationstabellen) über die syntaktische (Generierung syntaktisch korrekter Satzstrukturen) bis zur pragmatischen (Thema-Rhema-Beziehungen, Anaphorik, Kohäsion/Kohärenz). Selbst die Erweiterung des Wortschatzes, also das Lernen, ist möglich: Anders als in Shragers BASIC-Programm lagen die Schlüsselwörter und Ausgabephrasen in Weizenbaums Fassung als programm-externe Datei vor und konnten über einen Editor um neue Schlüsselwörter und Antworten erweitert werden. Dass dies vom Nutzer selbst vorgenommen werden konnte, implementiert im Prinzip weitere Elemente der klientenzentrierten Therapie, bei der auch der „Counselor“ beständig dazulernt.

Später existieren auch BASIC-Varianten von ELIZA, in denen dies auf verschiedene Weise möglich ist. Zum einen wird dabei ebenso wie in der MAD-SLIP-Variante mit einem externen Datensatz (auf Diskette) gearbeitet, zum anderen wird ein sich selbst erweiterndes Programm (vgl. Höltgen 2018) entwickelt. Gerade in letzteren Versionen scheint ein neuer qualitativen Aspekt der künstlichen Intelligenz auf: Ein sich selbst erweiterndes Programm reformuliert sein eigenes techno-linguistisches Apriori; es geht damit im Prinzip noch einen Schritt weiter als von Randows ‚selbstbewusster‘ Computer, indem es nicht bloß seinen Status-Quo sprachlich reflektiert, sondern diesen auch sprachlich adaptiert. Dass bei ELIZA hierzu noch die Hilfe (die Eingaben) des menschlichen Nutzers notwendig waren, ist lediglich dem Stand der zeitgenössischen Technologie geschuldet. Heute erweitern sich derartige Systeme auf Basis von automatisierten Lernprozessen (maschinelles Lernen).

ELIZA ist heute Gegenstand computerhistorischer wie computerphilologischer Forschung. Seine Konzepte finden sich ‚aufgehoben‘ in aktuellen Sprach-Assistenten wie Siri. Spezialisierte Varianten davon sollen ihren Nutzern nicht mehr bloß in psychischen Krisen helfen, sie sollen ganz konkrete Unterstützung bei unterschiedlichsten Problemen leisten und nicht zuletzt als eine anthropomorphe Schnittstelle für Ein- und Ausgaben dienen. Insbesondere die in der jüngeren Zeit aufgekommenen Sprachassistenten privatwirtschaftlicher Unternehmen (Alexa, Cortana, …) tragen zur weiteren Durchdringung von Computertechnologie ins Privatleben bei, indem sie ihre Nutzern bei Internetrecherchen, Einkäufen und der Bedienung (vernetzter) Haushaltsgeräte helfen. Daraus ergeben sich gänzlich andere ethische Fragen als die nach einer möglichen „Ohnmacht der Vernunft“ – Fragen nach dem Status der Privatsphäre angesichts einer ‚aufs Wort‘ hörenden, verstehenden und handelnden Technologie und Fragen nach Sozialität angesichts einer Robotik, mit der (insbesondere im Alter) zunehmenden Isolation des Individuums begegnet werden soll. Die Gegenwart der Chatbots ruft damit die ethischen Probleme der Science Fiction von Olympia bis zum HAL 9000 auf.