© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2024
K. Mainzer (Hrsg.)Philosophisches Handbuch Künstliche Intelligenzhttps://doi.org/10.1007/978-3-658-19606-6_3

Vom Turing-Test zum General Problem Solver. Die Pionierjahre der künstlichen Intelligenz

Christian Pallay1  
(1)
TUM Senior Excellence Faculty, Technische Universität München (TUM), München, Deutschland
 
 
Christian Pallay

Zusammenfassung

Als eigenständige Forschungsdisziplin existiert künstliche Intelligenz seit Mitte des 20. Jahrhunderts. Dieser Artikel gibt einen historischen Überblick über die Entstehungszeit rund um die namensgebende Dartmouth Conference im Jahr 1956. Er beschreibt die Rahmenbedingungen und begünstigend Faktoren in den Jahren vor der Konferenz sowie die wesentlichen philosophischen und praktischen Arbeiten, die vor und nach 1956 entstehen, insbesondere von Alan Mathison Turing, Herbert Alexander Simon und Allen Newell.

Schlüsselwörter
TuringTuring-TestLogic TheoristGeneral Problem SolverDartmouth Conference

1 Einleitung

Als künstliche Intelligenz (KI) kann man das Forschungsfeld bezeichnen, das sich mit Systemen – meistens Softwareprogramme, die auf digitalen Computern ausgeführt werden – beschäftigt, die Probleme lösen, für die ein Mensch Intelligenz benötigen würde. Trotz ihres noch sehr jungen Alters hat die KI als Wissenschaftsdisziplin bereits eine bewegte Geschichte hinter sich. Neben Zeiten des Aufschwungs finden sich zwei sogenannte KI-Winter, die durch mangelnde Forschungsförderung und fehlendes Interesse an dem Feld definiert sind.

Diese Arbeit gibt einen Überblick über die Pionierzeit der künstlichen Intelligenz. Orientiert man sich an dem Begriff, wären dies die Jahre ab 1956 – das Jahr, in dem der Begriff künstliche Intelligenz bzw. sein englisches Pendant artificial intelligence im Rahmen einer Konferenz kreiert wird. Doch die KI entsteht nicht unvermittelt, sie folgt auf eine lange Entwicklung und ist durch ältere Disziplinen geprägt. Insbesondere ab den 1940er-Jahren werden die Grundsteine gelegt. Arbeiten aus dieser Zeit tragen wesentlich dazu bei, das neue Feld zu definieren, und es in eine bestimmte Richtung zu lenken. Ein historischer Überblick über das Werden der künstlichen Intelligenz kann daher nicht erst im Jahr 1956 beginnen. Um die anfänglichen Entwicklungen einordnen zu können, muss auch ein Blick auf die Jahre davor geworfen werden.

Nach diesem einführenden Kapitel zeigt das nachfolgende zweite auf, dass der Gedanke künstlicher Intelligenz die Menschheit schon seit Jahrtausenden begleitet. Neben der Darstellung von Artefakten in der Kunst, entfaltet sich über Jahrhunderte die Vorstellung, menschliche Gedanken als logische Aussagen formalisieren zu können. Das dritte Kapitel beschreibt die vorherrschenden Rahmenbedingungen, die schließlich in der Entstehung der KI als Wissenschaftsdisziplin münden. Anschließend wird im vierten Kapitel der Blick auf die relevanten Arbeiten von Alan Mathison Turing gerichtet, der künstliche Intelligenz von Beginn an als interdisziplinäres Forschungsgebiet versteht. Während Turing Fragen stellt, die bis heute im Zentrum philosophischer Betrachtungen der KI stehen, sind es Herbert Alexander Simon und Allen Newell, die der frühen praktischen KI ihren Stempel aufdrücken. Das fünfte Kapitel betrachtet neben der namensgebenden KI-Konferenz eben diese ersten Implementierungen. Ein sechstes Kapitel schließt den Artikel in Form eines Fazits ab.

2 Drei Jahrtausende künstliche Intelligenz?

Die Sehnsucht des Menschen nach der Schaffung künstlicher Wesen ist nicht neu. Die Prometheussage des Epikers Hesiod, die Mystik um den jüdischen Golem aus dem Mittelalter, der Homunculus des Paracelsus, Jacques de Vaucansons mechanische Ente, Wolfgang von Kempelens Schachtürke, Pierre Jaquet-Drozs Androiden, Mary Shelleys Roman Frankenstein oder Der moderne Prometheus. Dies sind nur einige der bekannteren Beispiele des uralten Schöpfungstraums des Menschen. Während diese Artefakte der Kunst durch ihre Beschaffenheit den Blick auf das Physische lenken, gibt es unter Gelehrten auf der anderen Seite eine lange Tradition, das Hauptaugenmerk auf das Psychische zu legen.

Grundlage hierzu bildet insbesondere die Geschichte logischen Schließens, die spätestens im ersten Jahrtausend v. Chr. auf verschiedenen Kontinenten ihren Anfang nimmt. Zumindest seit mehreren Jahrhunderten findet sich in der Literatur darüber hinaus die Idee, menschliche Gedanken als logische Aussagen und Ableitungen zu formalisieren und mechanisieren. Beispiele gibt es auch hier genug, u. a. die Ansichten von Thomas Hobbes aus dem 17. Jahrhundert. Für diesen „ist VERNUNFT [Hervorhebung im Original] […] nichts anderes als Rechnen [Hervorhebung im Original] (das heißt Addieren und Subtrahieren).“1 Die im gleichen Jahrhundert veröffentlichten Vorschläge des Gottfried Wilhelm Leibniz auf dem Weg zur scientia universalis sind ähnlich zu interpretieren. Basis einer solchen Universalwissenschaft wäre die characteristica universalis, eine Universalsprache zum natürlichen und unverfälschten Ausdruck der Gedanken, sowie der ergänzende calculus ratiocinator zur rechnergestützten und logischen Manipulation des Wissens. So lasse sich jede Art der Argumentation auf Berechnung reduzieren. Tatsächlich systematische Ansätze im Bereich der symbolischen Logik liefern schließlich George Boole und Gottlob Frege im 19. Jahrhundert. Ihre Interpretation der mathematischen Logik bringen sie bereits durch Titel ihrer Werke zum Ausdruck: Boole etwa spricht von den Gesetzen des Denkens,2 Frege von einer Formelsprache des reinen Denkens.3

Inspiriert von Freges Arbeit publizieren Alfred North Whitehead und Bertrand Russell zwischen 1910 und 1913 die dreibändige Principia Mathematica. In diesem mathematischen Grundlagenwerk versuchen die Autoren mithilfe von Axiomen und Inferenzregeln die Mathematik auf die Logik zurückzuführen. In der Folge stellt David Hilbert die Frage auf, ob ein solches System, das sowohl vollständig als auch konsistent ist, überhaupt existieren kann. Es müsste also sichergestellt sein, dass sich alle mathematischen Wahrheiten auf diese Art herleiten lassen, gleichzeitig dürften aber keine Widersprüche ableitbar sein. Viele Mathematiker beteiligen sich an diesem sog. Hilbertprogramm und zeigen auch Widerspruchsfreiheit und Vollständigkeit von Teilsystemen der Logik, etwa der Aussagen- und Prädikatenlogik. Letztlich zeigt Kurt Friedrich Gödel 1931 mit seinen zwei Unvollständigkeitssätzen aber die Grenzen formaler Systeme auf, Turing und Alonzo Church veröffentlichen 1936 darauf aufbauende Arbeiten. Gödel beweist, dass jedes hinreichend starke formale System, wie etwa die Arithmetik, wahre Aussagen enthält, die prinzipiell nicht beweisbar sind. Er lässt allerdings das Entscheidungsproblem offen, also die Frage, ob es nicht ein Verfahren geben kann, das zweifelsfrei in endlicher Zeit zeigt, ob ein bestimmter mathematischer Satz beweisbar ist oder nicht. Oder anders formuliert: Kann es einen Algorithmus geben, der für jedes Inputelement einer Menge nach endlich vielen Schritten zweifelslos zeigt, ob dieses Eingabeelement eine bestimmte Eigenschaft hat oder nicht? Turing und Church zeigen schließlich unabhängig voneinander, dass ein solches Verfahren nicht existieren kann. Als Beispiel dient Turing das Halteproblem: Es ist unentscheidbar, ob ein bestimmtes Computerprogramm bei einer bestimmten Eingabe nach endlicher Zeit stoppt oder nicht.

Für den Beweis entwickelt Turing das Konzept der Turingmaschine. Dieses theoretische Rechnermodell zeigt auf, dass ein unendlich langes Speicherband in der Form eines Arrays und ein programmgesteuerter Lese- und Schreibkopf ausreichend sind, über die schrittweise Manipulation von Symbolen beliebige Berechnungen auszuführen. Turings abstrakte Maschine ist damit ein Model physischer digitaler Computer, die zu jener Zeit jedoch noch nicht existieren. Darüber hinaus macht die Turingmaschine den Begriff des Algorithmus mathematisch greifbarer.4 Erst später wird festgestellt, dass es grundsätzlich möglich ist, mit einem Computer eine Turingmaschine zu simulieren – Computer sind turingmächtig –, sowie mit einer Turingmaschine einen Computer.5 Heute spricht man von der Church-Turing-These, wenn man die Menge der intuitiv – vom Menschen – berechenbaren Funktionen mit denen gleichsetzt, die durch eine Turingmaschine berechnet werden können. Für die aufkommende Entwicklung digitaler Computer und der künstlichen Intelligenz ist die Unlösbarkeit des Entscheidungsproblems zwar relevant, viel bedeutender ist aber die Erkenntnis, was innerhalb bestimmter Grenzen alles möglich ist. Daher wird die symbolische Logik trotz inhärenter Limitierungen auf dem Weg zur Replikation menschlichen Denkens zunächst die Methode der Wahl. Was jedoch zu diesem Zeitpunkt noch nicht existiert, ist ein entsprechendes Medium, ein konkretes Pendant zur abstrakten Turingmaschine.

3 Digitalisierung, Information und Vernetzung

Dies ändert sich jedoch in den 1940er-Jahren. Es bleibt nicht bei den theoretischen Konzepten, die ersten turingmächtigen Computer entstehen. Die Faszination ist groß, immerhin zeigen die früheren Resultate, dass die digitalen Rechenmaschinen jede Funktion berechnen können, die auch der Mensch berechnen kann. Könnten dann nicht beliebige Gedanken, die auf Gehirnen „ausgeführt“ werden, in Form von Programmen auch auf Computern ausgeführt werden?

Spätestens nach dem Ende der Kriegswirren werden auch Journalisten auf diese neuartigen Maschinen aufmerksam. Die Parallele zum Gehirn findet sich bald auch in regulären Presseerzeugnissen. 1946 schreiben beispielsweise die Tageszeitung The Times sowie die Wochenzeitung The Listener von einem „elektronischen“6 oder einem „mechanischen Gehirn.“7 Obwohl es von Anfang an Stimmen gibt, die den Begriff für ungeeignet halten,8 setzt sich die Analogie zwischen Computer und Gehirn fest, besteht im Grunde – ob sinnvoll oder nicht – bis heute.

Zunächst existieren jedoch wenige Computer, so dass Forscher auch andere Überlegungen anstellen, die abstrakte Turingmaschine zu konkretisieren. Warren Sturgis McCulloch und Walter Pitts schlagen bereits 1943 vor, nach dem Vorbild des Gehirns ein Netz aus künstlichen Hardwareneuronen zu bauen (McCulloch und Pitts 1943). Obwohl das vorgelegte System nicht lernfähig ist, begründet der Artikel den Forschungsgegenstand künstlicher neuronaler Netze. Vereinzelt wird die Arbeit sogar als die erste Arbeit der künstlichen Intelligenz angesehen (Negnevitsky 2005). Als biologisches Vorbild ihres stark simplifizierten Modells dienen die Nervenzellen des Menschen, die ihren Input über Dendriten aufnehmen sowie ihren Output über ein Axon weiterleiten. Das McCulloch-Pitts-Neuronenmodell besteht aus einem singulären Neuron, das beliebig viele erregende und hemmende Reize als Input aufnehmen kann. Der Output hingegen entspricht einer binären Reaktion und kann somit ausschließlich die Werte 0 und 1 annehmen. Eine weitere zentrale Eigenschaft, die McCulloch und Pitts aus der Neurophysiologie ableiten, ist das Alles-oder-nichts-Gesetz: Die Reaktion eines Neurons in Form eines Aktionspotenzials erfolgt nur dann, wenn der Reiz einen bestimmten Schwellenwert überschreitet. Das Neuron verhält sich nun wie folgt: Liegt mindestens ein hemmendes Signal vor, so ist der Output grundsätzlich 0. Es wird also angenommen, dass ein einzelnes inhibitorisches Signal ausreichend ist, um ein mögliches Aktionspotenzial zu unterdrücken. Liegt indessen kein hemmendes Signal an, so werden die erregenden Reize zunächst aufsummiert, dann mit einem vordefinierten Schwellenwert des Neurons verglichen. Überschreitet die Summe diesen Wert, reagiert die Zelle und feuert ein Aktionspotenzial ab. In diesem Fall ist ihr Output 1, im anderen Fall wird die Zelle nicht genug erregt, ihr Output ist 0. Aufgrund des binären Outputs ist es möglich, im Rahmen des Modells auf einfach symbolische Logik zurückzugreifen. Indem man die Anzahl der erregenden und hemmenden Inputsignale sowie den Schwellenwert anpasst, lassen sich die wesentlichen Operatoren der booleschen Algebra – Und, Oder, Nicht – simulieren. Aus den Resultaten schließen McCulloch und Pitts: „Dies ist von Interesse, da es eine psychologische Rechtfertigung für die Turing-Definition der Berechenbarkeit und ihrer Äquivalente, Churchs λ-Definierbarkeit und Kleenes primitive Rekursivität, leistet: Wenn eine Zahl von einem Organismus berechnet werden kann, ist sie nach diesen Definitionen berechenbar, und umgekehrt.“9 Sie gehen also davon, dass mit künstlichen Neuronen das berechnet werden kann, was auch mit biologischen Neuronen berechnet werden kann.

Ebenfalls 1943 veröffentlichen Arturo Rosenblueth Stearns, Norbert Wiener und Julian Himely Bigelow das Paper Behavior, Purpose and Teleology, das sich zum größten Teil mit der Kommunikation biologischer und maschineller Systeme beschäftigt (Rosenblueth et al. 1943). Sie vertreten dabei die als Teleologie bezeichnete Ansicht, dass systemische Aktionen, Handlungen und Prozesse immer ziel- oder zweckorientiert ablaufen. In der Folge entsteht 1944 die Teleological Society. Daran auch beteiligt sind John von Neumann und Howard Hathaway Aiken, also Forscher, die entscheidende Beiträge zu den ersten digitalen Computern liefern. Geplant ist eine lose Verbindung von Wissenschaftlern, die sich mit Themen wie Kommunikation und Steuerung sowie Informationsverarbeitung beschäftigen, sei es in der Maschine oder im Lebewesen. An dem ersten und einzigen Treffen nehmen im Jahr 1945 schließlich auch McCulloch und Pitts teil (Aspray 1990). Während es keine weiteren offiziellen Treffen im Rahmen der Teleological Society gibt, entstehen daraus in der Folge die interdisziplinären Macy-Konferenzen, die 1946 bis 1953 stattfinden und wie die Teleological Society ebenso von der Macy-Stiftung gefördert werden. Die Konferenzen führen noch deutlich mehr als die Gesellschaft zum Austausch zwischen Wissenschaftlern und zu interdisziplinären Forschungsprojekten. Wiener gibt dem entsprechenden Forschungsfeld schließlich 1947 den Namen Kybernetik, definiert es ein Jahr später als den Fachbereich, der sich mit der „Theorie von Steuerung und Kommunikation, ob Maschine oder Tier“10 beschäftigt. Im Zentrum steht der Mechanismus der Rückkopplung – oder Feedback. Dieser hilft einem System bei der Erreichung eines Ziels, indem es ihm mitteilt, ob eine Verhaltensanpassung notwendig ist. Hierzu wird ein Teil des Outputs dem System erneut als Input zugeführt. Kommunikation von Information findet hier zwischen System und Umwelt, aber auch innerhalb des Systems statt. Es handelt sich somit um informationsverarbeitende Systeme.

Einen weiteren wichtigen und eng damit verwandten Beitrag leistet Claude Elwood Shannon im gleichen Jahr. Er begründet die Informationstheorie, spricht aber zunächst ebenso von einer „Theorie der Kommunikation.“11 Abstrakt formuliert ist Information die „Verringerung von Ungewissheit durch Kommunikation“ (Wersig 1971, S. 123). Konkret wird der Begriff jedoch selten definiert, da das Konzept sehr weit gefasst ist (Cover und Thomas 1991). Normalerweise wird Information jedoch wahrscheinlichkeitstheoretisch interpretiert. Danach steigt der Informationsgehalt einer Nachricht, je seltener ein Symbol auftritt. Der mittlere Informationsgehalt einer Nachricht kann mit der Entropie berechnet werden. Als Einheit zum Messen von Information führt Shannon den Begriff des Bits ein.12 Substanziell ist bei Shannons Informationsbegriff, dass er diesen von jeglichem semantischen und pragmatischen Gehalt isoliert.

Während die Teleological Society überwiegend in den USA basierte Wissenschaftler zusammenbringt, entsteht im Vereinigten Königreich ab 1949 eine ähnliche Verbindung: der Ratio Club. Nach dem Gründer John Bates besteht das zentrale Aufnahmekriterium darin, sich schon mit Kybernetik beschäftigt zu haben, bevor das namensgebende Buch von Wiener erschienen ist. Die meisten sind dennoch mit den kybernetischen Arbeiten aus den USA vertraut. Insgesamt finden 38 Treffen statt – zu Beginn nahezu monatlich, dann seltener und zuletzt 1955.13 Ein Teilnehmer ist etwa William Grey Walter, der ab 1948 erste mobile autonome Roboter entwickelt. Aufgrund ihres Aussehens und ihrer langsamen Bewegungen sind diese heute als Walters Schildkröten bekannt. Ein weiterer Teilnehmer ist William Ross Ashby, der bis 1948 den Homöostaten baut, eine der ersten Maschinen, die ihr Verhalten auf Umwelteinflüsse anpasst. The Time bezeichnet das selbstregulierende System gar als „denkende Maschine.“14 Insgesamt handelt es sich um eine stark interdisziplinäre Gruppe. Die Teilnehmer kommen u. a. aus Disziplinen wie der Mathematik, Physik, Biologie, Medizin und Psychologie. Vereinzelt finden auch Gastbesuche aus den Vereinigten Staaten statt. Zum ersten Treffen hält beispielsweise McCulloch einen Vortrag. Der Ratio Club setzt jedoch einen anderen Schwerpunkt als die Kollegen aus den USA. Im Mittelpunkt steht die Anwendung der Kybernetik und Informationstheorie auf die Biologie und insbesondere das Gehirn (Holland und Husbands 2011).

Für McCorduck stehen jedoch die Gemeinsamkeiten der verschiedenen Forschungsgruppen und Systeme im Vordergrund. Sie interpretiert die beschriebenen Entwicklungen als nicht nur für die Entstehung der künstlichen Intelligenz zentral. Vielmehr handelt es sich um einen wissenschaftshistorischen „Wechsel von einem dominanten Modell, oder einer Menge an Erklärungen für Phänomene, zu einem andern. Energie [Hervorhebung im Original] – der zentrale Begriff der Newtonschen Mechanik – wurde nun durch Information [Hervorhebung im Original] ersetzt.“15 Dieser Paradigmenwechsel wird demnach durch das Aufkommen der Informationsverarbeitungssysteme charakterisiert. Gemein ist den Systemen die Bedeutsamkeit von Informationsübertragung, d. h. Kommunikation, die sowohl innerhalb des Systems als auch nach außen in der Interaktion mit der Umwelt stattfindet. Die Realisierung der Information kann grundsätzlich auf vielfältige Weise erfolgen. Zeitgleich entsteht mit dem physischen Computer aber eine ideale Plattform zur Verarbeitung.

Die Entwicklung digitaler Computer mit der Information als zentraler Einheit kann daher als wesentliche Vorrausetzung für die Entwicklung der KI in den danach folgenden Jahren genannt werden. Jedoch hat auch die interdisziplinäre Vernetzung der interessierten Forscher, die sich in ersten Gruppen und Veranstaltungen verständigen, einen großen Anteil daran. Sowohl für die Entwicklung digitaler Computer als auch als Mitglied des Ratio Club ist eine weitere zentrale Figur der Frühzeit der KI: Alan Mathison Turing.

4 Alan Turing und die Philosophie der künstlichen Intelligenz

Turing beschäftigen Themen maschineller Intelligenz spätestens ab 1941. Zu diesem Zeitpunkt dauert der Zweite Weltkrieg an, und Turing arbeitet im Bletchley Park im Vereinigten Königreich an der Entzifferung des Nachrichtenverkehrs der deutschen Kriegsgegner. Laut Copeland und Proudfoot schildert ihnen Donald Michie, der ebenfalls in der britischen Funkabhörstelle angestellt ist, dass Turing zu jener Zeit bereits entsprechende Themen diskutiert und ergründet. Beispielsweise setzt er sich damit auseinander, wie Computer heuristische Verfahren zum Lösen von Problemen anwenden, gegebenenfalls sogar dazulernen könnten. Eine typische Anwendung sieht er in schachspielenden Maschinen (Copeland und Proudfoot 2004). Unter den Kollegen kursiert gar eine von Turing verfasste maschinengeschriebene Arbeit über maschinelle Intelligenz. Copeland und Proudfoot bemerken: „Jetzt verloren, war dies zweifellos der früheste Artikel im Bereich der KI.“16

Erhalten hingegen ist eine Vorlesung, die Turing 1947 der London Mathematical Society gibt (Turing 1986a). Zu Beginn beschreibt Turing die Automatic Computing Engine (ACE), einen der ersten Computer, an dessen Design er entscheidend beteiligt ist. Anschließend geht Turing auf Programmiertechniken, wie etwa die Auslagerung wiederverwendbarer Funktionalitäten in Module, ein. Über beide Themen schreibt Turing bereits 1945 ausführlich in seinem Antragsdokument zum Bau des ACE (Turing 1986b). Im dritten Abschnitt präsentiert Turing jedoch neue Ideen. Er erläutert zunächst, wie konventionelle Softwareprogramme grundsätzlich von einem Menschen entwickelt werden und anschließend fortwährend und unveränderlich die gleiche Aufgabe ausführen. Dazu schlägt Turing eine Weiterentwicklung vor: selbstmodifizierende Programme. Diese würden zwar weiterhin ihre ursprünglich angestrebte Aufgabe erfüllen, dabei aber z. B. immer effizienter werden. Der Computer würde dadurch ein Verhalten zeigen, das zum Zeitpunkt der Programmierung nicht vorhergesehen werden konnte. Die Aussage, dass Computer nur Prozesse ausführen können, zu denen sie detailliert instruiert wurden, wäre nach Turing damit falsch.17 Die Beziehung zwischen Computer und Programmierer stellt er sich vielmehr als Schüler-Lehrer-Verhältnis vor: „Was wir wollen, ist eine Maschine, die aus Erfahrung lernen kann.“18 Und weiter: „Ich denke, dass man die Maschine als intelligent betrachten muss, wenn dies geschieht.“19 Als mögliches Anwendungsbeispiel dient Turing erneut Schach. Von einer schachlernenden Maschine könnte man nach Turing dann sogar den Intelligenzquotienten ermitteln – ein Gedanke, den Turing später noch intensiver verfolgen sollte. Turing legt mit dieser Vorlesung 1947 den Grundstein für maschinelles Lernen, einem Teilgebiet der künstlichen Intelligenz, das sich mit aus Erfahrung lernenden Systemen beschäftigt.

1948 vertieft Turing seine Gedanken zu lernenden Maschinen in Intelligent Machinery (Turing 1968). Erneut beweist Turing erstaunlichen Weitblick, indem er verschiedene Konzepte teilweise um Jahrzehnte vorwegnimmt. Allerdings wird das Paper erst 1968 und damit lange nach Turings frühem Tod im Jahr 1954 publiziert, da es der Direktor des National Physical Laboratoy, an dem Turing mittlerweile angestellt ist, zunächst als ungeeignet erachtet. Er bezeichnet es gar als „‚Aufsatz eines Schuljungen.‘“20 Heute wird es hingegen des Öfteren als erstes Manifest der künstlichen Intelligenz bezeichnet (Copeland und Proudfoot 1999). Es ist das erste überlieferte Paper, dass sich ausschließlich mit der Materie maschineller Intelligenz beschäftigt und einen breiten Überblick über Möglichkeiten derselben verschafft. Turing konfrontiert den Leser bereits im ersten Satz mit dem Zweck der Arbeit: „Ich schlage vor, die Frage zu untersuchen, ob Maschinen intelligentes Verhalten zeigen können.“21 Nach einer Einführung in Argumente für und gegen diese Möglichkeit, konzipiert Turing eine Klassifikation von Maschinen. Einen Typ von Maschinen nennt Turing unorganized machines. Als Beispiel beschreibt er ein System, das aus einer großen Anzahl an gleichen Elementen besteht, die untereinander verbunden sind und über Signalkanäle kommunizieren. Auch Turing stellt sich diese Elemente als Neuronen vor, als ein Modell des Nervensystems. Im Unterschied zu McCulloch und Pitts charakterisiert Turing das System aber nicht statisch, sondern als von außen modifizierbar oder gar selbstmodifizierend. Den menschlichen Kortex ordnet Turing ebenso in die Klasse der unorganized machines ein. Wie würde man nun eine solche intelligente Maschine selbst realisieren können?

Hierzu sieht Turing zwei Ansätze: einen mobilen und einen stationären. Für den ersten Vorschlag stellt er fest, dass im Prinzip jeder Teil des Menschen durch ein maschinelles Pendant imitiert werden kann. Beispielsweise könnten Ohren durch Mikrofone, Augen durch Kameras sowie Gliedmaßen durch Roboterarme und -beine substituiert werden. Das Gehirn würde durch elektronische Elemente realisiert werden, etwa nach der Art des bereits beschriebenen Neuronenmodells. Turing stellt sich gar vor, dass man dem Roboter erlauben sollte, sich selbstständig durch das Land zu bewegen, um eigene Beobachtungen zu machen. Somit wäre das System selbstständig lernfähig. Mit diesem mobilen Ansatz beschreibt Turing das, was man heute als verkörperte künstliche Intelligenz bezeichnet. Nach dieser Sichtweise setzt eine generelle künstliche Intelligenz ein sog. Embodiment voraus. Dies bedeutet, dass die Entwicklung von vielfältigen Fähigkeiten, wie denen eines Menschen – im Gegensatz zu stark spezialisierten Systemen –, die physische Interaktion mit der Umwelt erfordert. Diese Methode würde zwar einen hohen Aufwand erfordern, wie Turing weiter feststellt, gleichwohl sei es „wahrscheinlich der ‚sichere‘ Weg, eine denkende Maschine zu produzieren.“22

Als Alternative beschreibt Turing einen stationären Ansatz, also eine maschinelle Intelligenz ohne Möglichkeit zur Fortbewegung, hypothetisch aber mit Sprachvermögen sowie der Fähigkeit zu visueller und auditiver Sinneswahrnehmung. Weiter schlägt er fünf Anwendungsfelder vor, in denen ein solches System eingesetzt werden könnte: Diverse Spiele, beispielsweise Schach oder Poker, Spracherwerb, maschinelle Übersetzung, Kryptografie und Mathematik. Insbesondere die ersten drei spezifischen Themen sind auch heute noch wesentliche Forschungskomplexe in der künstlichen Intelligenz, die letzteren beiden in Teilen aber ebenso. Turing betont erneut, dass das System lernfähig sein sollte. Anthropomorphisierend stellt er fest: „Es wäre ziemlich unfair zu erwarten, dass eine Maschine direkt aus dem Werk auf Augenhöhe mit einem Universitätsabsolventen konkurriert.“23 Wie ein Kind auch sollte eine Maschine ausgebildet und trainiert werden, die Unterstützung eines Lehrers haben. Um einen Lerneffekt hervorzurufen, könnte darüber hinaus mit Verstärkung und Bestrafung gearbeitet werden. Was Turing hier beschreibt, ist ein zentraler Aspekt des Lernens in allen Lebewesen und als operante Konditionierung ein etabliertes Konzept der Verhaltenspsychologie. Dabei wird die Häufigkeit eines Verhaltens durch dessen Konsequenzen gesteuert, indem eine gewünschte Reaktion auf einen Reiz belohnt, eine unerwünschte Reaktion hingegen bestraft wird. Insbesondere Anfang des 19. Jahrhunderts leisten Edward Lee Thorndike und Burrhus Frederic Skinner wesentliche Beiträge dieser psychologischen Forschung (Thorndike 1911; Skinner 1938). Dabei müssen die Subjekte, wie beispielsweise Katzen oder Hunde, bestimmte Puzzles lösen, etwa durch die Bedienung eines einfachen Mechanismus. Ein Erfolg wird durch Nahrung belohnt. Die Forschungen zeigen, dass die Subjekte zunächst durch Versuch und Irrtum instinktiv mit der Umgebung interagieren. Wenn sich ein Erfolg einstellt und eine Belohnung mit Futter folgt, steigt die Wahrscheinlichkeit, dass das Tier das entsprechende Verhalten in Zukunft wiederholt. Die Anwendung operanter Konditionierung innerhalb der KI ist heute als bestärkendes Lernen eine der drei Hauptstrategien im Bereich maschinellen Lernens. Bei den anderen beiden Ansätzen handelt es sich um das durch einen Lehrer unterstützte überwachte Lernen sowie das unüberwachte Lernen, bei dem es darum geht, in beliebigen Daten selbstständig Strukturen zu identifizieren. Betrachtet man Turings Vorschläge, dass ein Roboter selbstständig Beobachtungen macht – unüberwachtes Lernen – oder wie ein Kind von einem Lehrer unterrichtet wird – überwachtes Lernen –, dann hat Turing in Intelligent Machinery die drei zentralen Strategien im Bereich des Maschinenlernens vorweggenommen.

Turing beendet die Arbeit mit einem weiteren wegweisenden Ansatz. So stellt er zunächst fest, dass das Lösen von Problemen häufig auf Suchverfahren zurückgeführt werden kann, ist sogar davon überzeugt, dass „intellektuelle Tätigkeit hauptsächlich aus verschiedenen Suchprinzipien besteht.“24 Viele Problemlösungen könnte daher ein Computer übernehmen, indem dieser – im einfachsten Fall – jede Möglichkeit durchtestet, oder – besser – den Suchraum zunächst durch heuristische Verfahren minimiert. Eine Möglichkeit wäre ein logikbasierter Ansatz, der Probleme formalisiert und diese dann mithilfe von Ableitungsregeln deduktiv löst. Hier nimmt Turing das maschinengestützte und automatisierte Beweisen von Theoremen vorweg, ein Feld, in dem kurze Zeit später viel praktische Aktivität zu verzeichnen ist. Eine andere Art der Suche könne nach genetischem oder evolutionärem Vorbild realisiert werden. Hauptkriterium dieser Heuristik sei demnach der Anpassungswert, also die reproduktive Fitness. Hier deutet Turing an, was heute als evolutionäre Algorithmen bezeichnet wird. Diese Heuristiken orientieren sich an genetischen Konzepten wie Selektion, Mutation oder Rekombination. Im letzten Abschnitt von Intelligent Machinery beschreibt Turing schließlich noch einen Vorläufer dessen, was er in seinem nächsten Paper im Detail besprechen wird: den Turing-Test.

Diesem widmet er 1950 das gesamte Paper Computing Machinery and Intelligence (Turing 1950). Während Turing zu diesem Zeitpunkt bereits fest überzeugt ist, dass die Realisierung maschineller Intelligenz nur eine Frage der Zeit ist, existieren unter Turings Zeitgenossen auch andere, die der Vorstellung skeptisch gegenüberstehen. Turing bietet mit seinem Artikel beiden Gruppen etwas an. Für diejenigen, die wie er überzeugt sind, dass maschinelle Intelligenz realisierbar ist, entwickelt er ein Experiment, durch das ermöglicht werden soll, jene Intelligenz in Maschinen zu testen. Den Skeptikern auf der anderen Seite antwortet er vorausahnend auf eine Reihe von Einwänden gegenüber seiner Methode, insbesondere aber gegenüber der generellen Möglichkeit intelligenter Maschinen.

Erneut formuliert er seine Ausgangsüberlegung direkt im ersten Satz: „‚Können Maschinen denken?‘“25 Anschließend benennt Turing die Schwierigkeiten, die in einer spezifischen Bestimmung der Begriffe seiner Ausgangsfrage liegen. Eine Definition will er daher vermeiden, indem er die Frage durch ein Verfahren ersetzt: das imitation game. Zunächst führt Turing ein klassisches Spiel aus dem viktorianischen Zeitalter heran, an dem drei Personen teilnehmen: eine weibliche Kandidatin, ein männlicher Kandidat, und ein Juror beliebigen Geschlechts. Die Spieler sind räumlich getrennt, kommunizieren aber schriftlich miteinander. Das Spielziel des Jurors ist es, das jeweils korrekte Geschlecht der beiden Kandidaten zu ermitteln. Die Kandidaten haben hingegen beide das Spielziel, den Juror davon zu überzeugen, die Frau zu sein. Während also der Mann den Juror zu täuschen versucht, versucht die Frau den Juror zu unterstützen, die korrekte Entscheidung zu treffen. Turing reflektiert nun, was passieren wird, wenn ein Kandidat durch eine Maschine ersetzt wird. Hierzu verfolgt er verschiedene Verfahren, teilweise noch mit Bezug auf das Geschlecht der menschlichen Kandidaten. Es ist letztlich jedoch eine geschlechtsneutrale Variante, die sich in der Literatur als Standardinterpretation des imitation games durchgesetzt: der Turing-Test. Hierbei kommuniziert ein Juror maschinenschriftlich mit einem Menschen beliebigen Geschlechts und einer Maschine. In der Kommunikation selbst existieren keine Beschränkungen, wie Turing an vier Beispieläußerungen von einem potenziellen Juror an dessen Gesprächspartner zeigt:
  • „Bitte schreiben Sie mir ein Sonett zum Thema Forth Bridge.“26

  • „Addiere 34.957 zu 70.764“27

  • „Spielen Sie Schach?“28

  • „Mein König steht auf E8, sonst habe ich keine Figuren mehr. Sie haben nur noch Ihren König auf E6 und einen Turm auf H1. Sie sind am Zug. Was spielen Sie?“29

Der Turing-Test gilt für eine Maschine dann als bestanden, wenn sie das Verhalten eines Menschen derart imitieren kann, dass ein Juror nicht in der Lage ist, zwischen der Maschine und dem Menschen zu unterscheiden. Turing fragt somit nicht mehr abstrakt, ob Maschinen denken können – er fragt, ob es eine Maschine geben kann, die sich maschinenschriftlich von einem denkenden Menschen ununterscheidbar verhalten kann. Intelligenz wird in Turings Test mit linguistischen Verhalten assoziiert.

Turing selbst ist von Anfang an bewusst, dass sein Test Möglichkeiten für Einwände bietet. Diese richten sich überwiegend jedoch nicht gegen sein Verfahren, Intelligenz in Maschinen nachzuweisen, sondern vielmehr gegen die generelle Möglichkeit, dass Maschinen Intelligenz besitzen können. Insgesamt liefert er neun Repliken aus den unterschiedlichsten Standpunkten. Auffällig ist, wie interdisziplinär Turing das Thema maschineller Intelligenz bereits betrachtet. Er widerlegt Argumentationslinien gegen die KI, die u. a. auf Erkenntnissen aus Mathematik, Philosophie, Neurowissenschaften, Psychologie und sogar Theologie basieren. Seit dem Erscheinen von Computing Machinery and Intelligence sind eine Vielzahl von wissenschaftlichen Beiträgen über den Turing-Test erschienen. Die vertretenen Positionen könnten unterschiedlicher nicht sein. Unabhängig davon, wie man das Verfahren letztlich bewertet, Turings Artikel gilt heute als „einer der am häufigsten zitierten und diskutierten in der modernen philosophischen Literatur.“30 Spätestens damit hat Turing die künstliche Intelligenz als neue Forschungsdisziplin in der Philosophie verankert.

5 Dartmouth Conference und praktische KI

Turing mag der erste sein, der entsprechende Artikel verfasst, die ausschließlich künstliche Intelligenz behandelen, den Begriff hat er jedoch nicht geprägt. Dieser wird einige Jahre später eingeführt. Am 31. August 1955 beantragt eine Gruppe von Forschern um John McCarthy und Marvin Lee Minsky eine Finanzierung für ein Forschungsprojekt im Sommer 1956.

Minsky beschäftigt sich zu diesem Zeitpunkt bereits seit einigen Jahren mit der Thematik, baut ab 1951 zusammen mit Dean S. Edmonds den Stochastic Neural Analog Reinforcement Calculator (SNARC). Aus 40 Neuronen bestehend simuliert dieses Netz eine Ratte, die ihren Weg durch ein Labyrinth sucht. Jedes Neuron korrespondiert mit einer Position, Verbindungen entsprechen den Wegen zwischen diesen. Welchen Weg die simulierte Ratte nun verfolgt, basiert auf Erkenntnissen von Donald Olding Hebb. Dieser beschreibt 1949 erstmals umfassend die nach ihm benannte Hebbsche Lernregel über die synaptische Verstärkung zwischen zwei Neuronen: Je häufiger zwei Neuronen gleichzeitig aktiv sind, desto stärker ist die gemeinsame Verknüpfung. Die synaptische Plastizität kann somit als Grundlage von Gedächtnis und Lernen angesehen werden (Hebb 1949). Sobald die künstliche Ratte durch Zufall den richtigen Weg wählt, verstärken Minsky und Edmonds manuell die entsprechende Verbindung. Es handelt sich somit um die von Turing 1947 vorgeschlagene operante Konditionierung, nur dass die Belohnung umgangen wird, indem die Neuronenverbindungen direkt verstärkt werden. Nichtsdestotrotz erhöht sich dadurch die Wahrscheinlichkeit, dass das gewünschte Verhalten wiederholt auftritt. Im Gegensatz zu dem fest programmierten Neuronenmodell von McCulloch und Pitts ist SNARC daher – wie ein natürliches neuronales Netz auch – anpassungs- und lernfähig. Dies kann als Voraussetzung für die Simulation menschlicher Gedanken gelten. Minsky publiziert die Ergebnisse mit noch größeren künstlichen neuronalen Netzen erstmals 1954 (Minsky 1954). Zusammen mit einem Artikel von Farley und Clark (Farley und Clark 1954) sind es die ersten veröffentlichten praktischen Ergebnisse künstlicher neuronaler Netzwerke, die durch Verstärkung lernen.

McCarthy auf der anderen Seite prägt schließlich den Begriff, der noch heute das Forschungsfeld bezeichnet. Im Vorfeld der Konferenz editiert er mit Shannon ein Sammelwerk mit dem Namen Automata Studies, so dass diese Bezeichnung zunächst nahe liegt. Die Artikel, die sie erhalten, sind letztlich aber nicht das, was McCarthy sich für die Konferenz erhofft. Ihn fasziniert der Gedanke von lernenden Maschinen und maschineller Intelligenz. Daher argumentiert er schließlich für eine alternative Bezeichnung und setzt sich als Hauptorganisator am Ende auch durch: In dem Förderantrag – A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence – wird erstmalig von artificial intelligence – künstliche Intelligenz – gesprochen (McCarthy et al. 2006). Grundlage des Projekts ist die „Annahme, dass alle Aspekte des Lernens oder jede andere Eigenschaft von Intelligenz im Prinzip so genau beschrieben werden können, dass eine Maschine zu deren Simulation gebaut werden kann.“31 Als mögliche spezifische Forschungsthemen werden u. a. Automatisierung, Selbstmodifizierung, natürliche Sprachverarbeitung, neuronale Netze, Kreativität und Zufälligkeit vorgeschlagen. Neben den genannten Antragsstellern – größtenteils Computerpioniere, deren Hintergrund überwiegend in der Mathematik, Logik und Elektrotechnik liegt – nehmen auch zahlreiche Wissenschaftler aus anderen Fachbereichen, wie z. B. Kognitionswissenschaften, Kybernetik, Psychologie oder Wirtschaftswissenschaften, teil. Retrospektiv wird die acht Wochen andauernde Dartmouth Conference auch eher als erweiterte Brainstorming-Session – und nicht als durchgeplantes und geleitetes Forschungsvorhaben – betrachtet. Die Interdisziplinarität und das lange Entwickeln von Ideen haben jedoch dazu beigetragen, dass sich die künstliche Intelligenz im Nachfeld der Konferenz als eigenes Fachgebiet konsolidieren kann. Viele der Teilnehmer werden in der Folgezeit zu anerkannten Experten in der neu geschaffenen Disziplin. Mittlerweile wird die Dartmouth Conference mehrheitlich als Geburtsstunde des akademischen Fachgebiets der künstlichen Intelligenz angesehen (Solomonoff 1985; Moor 2006), wenn auch nicht von allen (Kline 2011).

Zwei weitere Teilnehmer der Konferenz sind Herbert Alexander Simon und Allen Newell. Beide beschäftigen sich in den Jahren vor der Konferenz mit Entscheidungsfindung, Problemlösen und Informationsverarbeitung, allerdings im Kontext der Wirtschaftswissenschaften. Über die RAND Cooperation finden die beiden schließlich zusammen und diskutieren die Idee, menschliches Denken in Maschinen zu simulieren. Als erste Zusammenarbeit konzentrieren sie sich auf ein Softwareprogramm, das Beweise von Theoremen in symbolischer Logik entdecken soll. Unterstützt werden sie dabei von John Clifford Shaw, einem Systemprogrammierer der RAND Cooperation. Die Entwicklung dieses Programms beginnt schließlich 1955 im Vorfeld der Dartmouth Conference. Eine frühe Version dieses Logic Theorists (LT)32 wird schließlich auch im Rahmen der Konferenz präsentiert. Es ist überdies das einzige funktionsfähige Programm, das im Rahmen der acht Wochen gezeigt wird. Die Reaktionen der anderen Teilnehmer fallen zunächst bescheiden aus. Ungeachtet dessen führt die Konferenz im Kontext der Entwicklung intelligenter Systeme zu einem Aufkommen von symbolischen Methoden nach dem Prinzip des LT. Dabei ist die Repräsentation der Modelle explizit, erfolgt durch menschenlesbare Symbole. Mithilfe eines Regelsets – und gegebenenfalls einer zusätzlichen Wissensbasis – geht man Probleme deduktiv über die Manipulation dieser Symbole an.

Der Logic Theorist wird nach der Konferenz von Newell, Simon und Shaw weiterentwickelt. In der ersten Publikation legen sie dar, wie sich das Programm von vorherigen unterscheidet. Anders als die klar systematischen Algorithmen, die auf wenige Methoden zurückgreifen und kaum von Bedingungen abhängen, stützt sich der LT als ein komplexes Informationsverarbeitungssystem verstärkt auf heuristische Methoden. Diese Art, Probleme zu lösen, sei geradezu charakteristisch für das menschliche Denken. Überdies sei das Programm beschränkt lernfähig: Einmal konstruierte Beweise werden gespeichert und können dann in Form von Bausteinen für subsequente Beweise herangezogen werden (Newell und Simon 1956). Als von Menschen bewiesenes Pendant des LT betrachten sie die Principia Mathematica. Wie sie später berichten, beweist der Logic Theorist schließlich 38 der ersten 52 Theoreme aus Kap. 2 der Principia (Newell et al. 1957). Ein begleitender Artikel erläutert die entsprechende Programmierung (Newell und Shaw 1957).

Auch nach den ersten Veröffentlichungen arbeiten Newell, Shaw und Simon an der Optimierung des Logic Theorists, zusätzlich auch an einer generellen Theorie menschlichen Problemlösens (Newell et al. 1958). Damit beschäftigen sich zeitgleich auch insbesondere Forscher aus der Psychologie. Maßgebliche Studien führen Omar Khayyam Moore und Scarvia B. Anderson 1954 durch. Im Rahmen ihrer Experimente entwickeln sie eine Reihe an logischen Rätseln – die prinzipiell auch der Logic Theorist lösen könnte – und präsentieren diese menschlichen Testsubjekten. Aufgabe der Teilnehmer ist es, ihre Gedanken zu verbalisieren, während sie die Logikprobleme lösen (Moore und Anderson 1954a, b). Anschließend konstatieren Moore und Anderson: „Die ‚Gesetze der Logik‘ mit den ‚Gesetzen des Denkens‘ gleichzusetzen oder, im Allgemeinen, die logischen Aspekte von Problemen und die psychologischen Aspekte der Problemlösung zu verwechseln, ist ein nicht selten begangener Fehler.“33 Die Resultate sind für Newell, Simon und Shaw bedeutsam, da sie erkennen, dass Menschen beim Lösen von Problemen möglicherweise ganz anders vorgehen als es der Logic Theorist tut. Um die Daten im Detail auswerten zu können, führen sie in der Konsequenz ähnliche Experimente durch. Die zentrale Erkenntnis bei der Durchsicht der menschlichen Gedankenprotokolle ist schließlich, dass das Vorgehen der Testsubjekte im Kern unabhängig von der spezifischen Aufgabe ist. Ziel der drei Forscher ist es in der Folge, dieses Prinzip als wesentliches Merkmal eines neuen Computerprogramms umzusetzen.

Dies spiegelt sich schließlich auch im Namen dieses Programms wider: General Problem Solver (GPS). Als general – allgemein – wird das Programm indes nicht bezeichnet, weil es alle Probleme lösen kann. Vielmehr wird es so genannt, da es beliebige Probleme, die in eine bestimmte allgemeine Form gebracht werden können, als Input akzeptiert, sowie, weil die angewandten Methoden keinen spezifischen Bezug zum Gegenstand des jeweiligen Problems haben (Simon et al. 1966). Um ein Problem mit dem GPS lösen zu können, muss es zunächst in eine entsprechende Repräsentation in der Form von Objekten und Operatoren transformiert werden. Ein Objekt ist eine beliebige Entität, die durch Eigenschaften beschrieben wird, die sie besitzt, sowie durch Unterschiede im Vergleich zu anderen Objekten. Ein Operator ist eine mathematische Vorschrift, etwa eine Funktion, die auf ein oder mehrere Objekte angewandt werden kann, um diese zu manipulieren. Newell, Shaw und Simon veranschaulichen dies durch die folgenden zwei Beispiele: Im Schach etwa könnten Positionen durch Objekte und regelkonforme Züge durch Operatoren dargestellt werden. Beim Beweisen von Theoremen hingegen wären diese die entsprechenden Objekte, zulässige Inferenzregeln die darauf anzuwendenden Operatoren. In beiden Fällen würde man wiederholt Operatoren auf Objekte anwenden, um ein Ziel zu erreichen. Im ersten Fall beginnt man mit dem Objekt, das der Grundstellung im Schach entspricht. Ziel wäre eine Position, in der der gegnerische König im Schachmatt steht. Im zweiten Fall entsprechen die Ausgangsobjekte den Axiomen des zugrunde liegenden logischen Systems, Ziel ist das zu beweisende Theorem (Newell et al. 1960).

Um ein Problem zu lösen, greift der GPS auf Rekursion zurück, indem er versucht, jedes Ziel in einfachere Teilziele zu zerlegen. Resultate von Subroutinen werden temporär abgespeichert und später bei Bedarf wieder angefordert. Zum Lösen der Probleme dienen dem GPS im Wesentlichen zwei Heuristiken: means-ends analysis und Planung. Im Rahmen der means-ends analysis betrachtet man die Unterschiede, die zwischen den Eigenschaften von Objekten bestehen. Diese Unterschiede können als Differenzen quantifiziert werden. Das Ziel ist, die Differenzen zwischen dem vorliegenden Objekt und dem Zielobjekt schrittweise zu minimieren. Dies geschieht mithilfe der Operatoren. Diese manipulieren Objekte und ihre Eigenschaften – und damit die Differenzen zum Zielobjekt. Die Reduzierung mancher Differenzen erweist sich in der Regel als schwerer als die anderer. Schwerer zu reduzierende Differenzen haben daher Priorität, auch wenn dies auf Kosten leichter zu reduzierender Differenzen geht. Die Objekte werden letztlich so lange manipuliert bis keine weiteren Fortschritte in der Reduzierung von Differenzen zu verzeichnen sind. Ein Defizit dieser Vorgehensweise ist die mangelnde Voraussicht, da schrittweise und nur mit den Werten des aktuellen Zustands gearbeitet wird. Als ergänzende Heuristik existiert daher als Pendant die Planung. Bevor mit der Lösung eines Problems begonnen wird, erstellt die Planungsmethode eine Abstraktion aller Objekte und Operatoren – sozusagen ein Model des Models. Ferner wird auch das korrespondierende Problem abstrahiert und damit eine Lösung angestrebt. In der Regel ist das neu kreierte Problem leichter als das originäre. Sollte ein Lösungsweg gefunden werden, wird aus diesem ein Plan für das Vorgehen für das originäre Problem geformt.

Die Erwartungen an den GPS sind aufgrund der ersten Erfolge des Logic Theorists sowie der nachfolgenden Korrekturen aufgrund der psychologischen Forschungsergebnisse groß. Nach einigen Experimenten stellt sich jedoch heraus, dass der GPS tatsächlich nicht auf Probleme jeder Art, sondern nur auf eine limitierte Klasse wohldefinierter Probleme angewandt werden kann. Nach Mainzer sollte der GPS „die heuristische Basis für menschliches Problemlösen überhaupt festlegen“ (Mainzer 2019, S. 11). Vor diesem Hintergrund sind die praktischen Resultate in wenigen spezifischen Problemen als enttäuschend zu betrachten. Nichtsdestotrotz verfassen Newell und Simon einige Jahre später die physical symbol system hypothesis, ihre zentrale Hypothese der symbolischen künstlichen Intelligenz. Sie besagt, dass menschliches Denken wie Informationsverarbeitung im Computer einer reinen Manipulation von Symbolen entspricht. Das Gehirn ist, ebenso wie der Computer, nur ein Medium, das zwar als Hardware der Ausführung einer Software dient, jedoch beliebig ersetzt werden könnte. Für sie ist Intelligenz nicht an eine Trägersubstanz gebunden.

Mitte der 1960 Jahre endet schließlich die erste Phase der KI (Mainzer 2019). In der Folge werden neue Anwendungsbereiche – größtenteils bereits von Turing angestoßen – erfasst. Beispiele beinhalten Sprachverarbeitung, Mikrowelten oder Systeme, die Spiele wie Schach oder Dame lösen. Die symbolische KI entwickelt sich dabei weiter. Man überlegt, wie sich Wissen im Computer repräsentieren und speichern lässt. Die Programme greifen schließlich vermehrt auf Wissensbasen zurück, erste Expertensysteme werden entwickelt. Zentrales Paradigma der KI bleibt die symbolische KI noch zwei weitere Jahrzehnte. Dann wird sie schließlich abgelöst: Seit Ende der 1980er dominiert die subsymbolische KI – also künstliche neuronale Netze wie bereits bei McCulloch, Pitts, Turing und Minsky.34

6 Fazit

Diese Arbeit beschreibt in fünf Kapiteln die historische Entwicklung der künstlichen Intelligenz in ihren Anfangsjahren. Dabei liegt der Fokus insbesondere auf den 1940er- und 1950er-Jahren. Besonders die Einflüsse von Turing sowie Newell und Simon, die das Feld nachhaltig prägen, werden erörtert. Insgesamt kann man konstatieren: Die künstliche Intelligenz steht auf den Schultern vieler Riesen, sowohl in der historischen Tiefe als auch in der schöpferischen Breite.35 In der unmittelbaren Zeit vor der Entstehung Mitte des 20. Jahrhunderts sind zwei Aspekte von essenzieller Bedeutung: die Entwicklung digitaler Computer, die mit einem Fokus auf das Konzept der Information einhergeht, sowie Vernetzung und Austausch interdisziplinär interessierter Forscher.

Es ist unwahrscheinlich, dass es ohne den digitalen Computer keine weitere Entwicklung im Bereich maschineller Intelligenz gegeben hätte. Bereits in den ersten Jahren der Kybernetik werden neuronale Netze modelliert, die durchaus in Hardwareneuronen implementierbar sind. Auch ist das Konzept der Turingmaschine nicht an gewöhnliche Computer gebunden, und könnte mit vollkommen anderen Komponenten – und sei es biologischer Art – realisiert werden. Und dennoch muss man feststellen: Digitale Computer dienen der KI von nahezu Anfang an als materielles Fundament. Es sind Aspekte des Computers wie Programmierbarkeit, Geschwindigkeit oder Reproduzierbarkeit, die der jungen Wissenschaft erlauben, ihr Potenzial auf einem physischen Medium voll zu entfalten.

Als zweiten Aspekt kann man die Forscher und insbesondere ihren Austausch nennen. Die Interdisziplinarität beteiligter Individuen zeichnet die KI von Anfang aus. Logik, Mathematik, Informationstheorie, Kybernetik, Neurophysiologie, Psychologie, Philosophie sind nur einige der Forschungsfelder, aus denen die KI damals wie heute schöpft. Anders als bei der Entstehung von Wissenschaften wie etwa der Psychologie oder der Soziologie hat sich hier keine Wissenschaft aus einer anderen Disziplin herausgelöst, sondern Forscher aus den unterschiedlichsten Bereichen haben zusammen ein neues Feld erschlossen. Der interdisziplinäre Austausch spiegelt sich in informellen Gruppen wie der Teleological Society und dem Ratio Club sowie der Dartmouth Conference wider. Die künstliche Intelligenz ist eine Forschungsdisziplin, die sich in weniger als 70 Jahren enorm entwickelt hat. Der Großteil der Menschen technologisierter Nationen kommt regelmäßig mit Software in Berührung, die man heute als schwache – spezialisierte – künstliche Intelligenz bezeichnet. Starke – generelle – künstliche Intelligenz ist jedoch noch nicht absehbar, und den Turing-Test hat auch noch keine Maschine bestanden. Aber, ob nun praktisch, wie etwa Newell und Simon, oder eher philosophisch, wie Turing: Die KI eröffnet dem Interessenten alle Möglichkeiten an sie heranzutreten, und allein ihre Existenz ist ein klares Plädoyer für Interdisziplinarität!