Ray Kurzweil gehört zu den führenden Erfindern, Denkern und Zukunftsforschern. Ihm wurden 21 Ehrendoktortitel verliehen, und er wurde von drei US-Präsidenten ausgezeichnet. Ihm wurde der MIT-Lemelson-Innovationspreis verliehen, und 1999 erhielt er von Präsident Clinton die National Medal of Technology, die höchste Auszeichnung im Bereich Technologie. Kurzweil ist auch ein produktiver Autor und hat fünf Bestseller verfasst. 2012 kam er zu Google, wo er ein Forschungsteam leitet, das an Maschinenintelligenz und dem Verstehen natürlicher Sprache arbeitet. Anfang 2019 erschien Kurz-weils erster Roman, Danielle, Chronicles of a Superheroine. Ein weiteres Buch von Kurzweil, The Singularity is Nearer, wird voraussichtlich Ende 2019 erscheinen.
In dem Szenario, das mir vorschwebt, werden wir medizinische Nanoroboter in unsere Blutbahn injizieren. [...] Diese Roboter werden auch das Gehirn bevölkern. Virtual Reality und Augmented Reality werden nicht durch an die Gliedmaßen unseres Körpers angeschlossene Geräte bereitgestellt, sondern aus dem Inneren des Nervensystems heraus.
Martin Ford: Wie sind Sie zur KI gekommen?
Ray Kurzweil: Ich kam 1962 erstmals mit KI in Berührung, das war nur sechs Jahre nachdem der Ausdruck auf der Dartmouth-Konferenz 1956 in Hanover, New Hampshire, von Marvin Minsky und John McCarthy geprägt wurde.
Das Fachgebiet KI war damals schon in zwei sich bekämpfende Lager aufgespalten: die Verfechter symbolischer Modelle und und die Anhänger konnektionistischer Modelle. Erstere hatten damals eine Vormachtstellung, und Marvin Minsky galt als ihr wichtigster Vertreter. Die Konnektionisten waren die Emporkömmlinge, und einer davon war Frank Rosenblatt von der Cornell University, der das erste neuronale Netz bekannt gemacht hatte, das als Perzeptron bezeichnet wurde. Ich schrieb beiden Briefe, und beide luden mich ein, also besuchte ich zunächst Minsky, der den ganzen Tag mit mir verbrachte, und wir bauten eine persönliche Beziehung auf, die 55 Jahre währen sollte. Wir sprachen über KI, die damals ein ziemlich undurchsichtiges Fachgebiet war, dem eigentlich niemand Beachtung schenkte. Er fragte mich, wen ich als nächsten besuchen würde, und als ich Dr. Rosenblatt erwähnte, meinte er, die Mühe könne ich mir sparen.
Dann traf ich Dr. Rosenblatt, der dieses einschichtige neuronale Netz namens Perzeptron entwickelt hatte. Dabei handelte es sich um ein Gerät mit einer Kamera. Ich hatte einige ausgedruckte Buchstaben zu meinem Treffen mit Dr. Rosenblatt mitgebracht, die sein Gerät perfekt erkannte, sofern sie in der Schriftart Courier 10 gedruckt waren.
Andere Schriftarten funktionierten nicht so gut, und er sagte: »Kein Problem, ich kann die Ausgabe des Perzeptrons als Eingabe eines zweiten Perzeptrons verwenden, und dessen Ausgabe können wir in eine dritte Schicht einspeisen. Und wenn wir weitere Schichten hinzufügen, wird es intelligenter werden und kann generalisieren und all diese bemerkenswerte Dinge leisten«. Ich fragte ihn: »Haben Sie das ausprobiert?«, und er sagte: »Noch nicht, aber es steht auf unserer Forschungs-agenda ganz oben«.
In den 1960er-Jahren ging alles nicht so schnell wie heute, und leider verstarb er 1971, neun Jahre später, ohne diese Idee ausprobiert zu haben. Diese Idee war allerdings bemerkenswert vorausschauend. Die ganze Aufregung um neuronale Netze wurde von diesen tiefen neuronalen Netzen mit vielen Schichten ausgelöst. Das war eine wirklich erstaunliche Erkenntnis, denn es war tatsächlich überhaupt nicht klar, ob die Idee funktionieren würde.
1969 schrieb Minsky zusammen mit seinem Kollegen Seymour Papert sein Buch Perceptrons. Im Wesentlichen bewies das Buch ein Theorem, das besagt, dass ein Perzeptron keine Antworten liefern kann, die es erfordern, die Logikfunktion XOR zu verwenden, und dass es das Problem zusammenhängender Räume nicht lösen kann. Auf dem Buchumschlag sind zwei labyrinthartige Muster abgebildet, und wenn man genau hinsieht, kann man erkennen, dass eins zusammenhängend ist und das andere nicht. Diese Klassifizierung ist das Problem zusammenhängender Räume. Das Theorem bewies, dass ein Perzeptron diese Aufgabe nicht lösen kann. Das Buch sorgte dafür, dass es die folgenden 25 Jahre keine Fördergelder für die Erforschung des Konnektionismus gab, was Minsky bedauerte, denn kurz vor seinem Tod sagte er mir, dass er die Leistungsfähigkeit tiefer neuronaler Netze mittlerweile anerkennt.
Martin Ford: Hat Marvin Minsky in den 1950er-Jahren nicht selbst an den ersten konnektionistischen neuronalen Netzen gearbeitet?
Ray Kurzweil: Das stimmt, aber in den 1960er-Jahren war er davon enttäuscht und wollte die Leistungsfähigkeit mehrschichtiger neuronaler Netze nicht an-erkennen. Sie wurde erst Jahrzehnte später deutlich, als dreischichtige neuronale Netze ausprobiert wurden, die etwas besser funktionierten. Die Verwendung mehrerer Schichten bereitete Schwierigkeiten wegen des sogenannten Problems der verschwindenden und explodierenden Gradienten (engl. vanishing and exploding gradient problem), das im Wesentlichen dafür verantwortlich ist, dass sich der dynamische Wertebereich der Koeffizienten verschlechtert, weil die Zahlen zu groß oder zu klein werden.
Geoffrey Hinton und eine Gruppe von Mathematikern haben dieses Problem gelöst, und nun können wir beliebig viele Schichten verwenden. Die Lösung besteht darin, dass man die Informationen in jeder Schicht neu kalibriert, damit der repräsentierbare Wertebereich nicht überschritten wird. Solche 100-schichtigen neuro-nalen Netze waren äußerst erfolgreich. Es gibt allerdings noch immer ein Problem, das sich unter dem Motto »Das Leben beginnt bei einer Milliarde Beispielen« zusammenfassen lässt.
Dass ich bei Google bin, hat unter anderem den Grund, dass hier Milliarden von Beispielen zur Verfügung stehen, wie etwa Bilder von Hunden und Katzen, oder anderen Bildkategorien, die gekennzeichnet sind. Für viele Objekte gibt es aber auch keine Milliarden Beispiele. Wir verfügen über viele Sprachbeispiele, die jedoch nicht mit ihrer Bedeutung gekennzeichnet sind, und wie sollen wir sie in der Sprache kennzeichnen, die wir von vornherein nicht verstehen? Bei einer bestimmten Kategorie von Aufgaben können wir das Problem umgehen, und dafür ist Go-Spielen ein gutes Beispiel. Das DeepMind-System wurde mit allen online verfügbaren Spielzügen trainiert, deren Anzahl in der Größenordnung von einer Million liegt, nicht einer Milliarde. Das System spielte so gut wie ein mittelmäßiger Amateur, also wurden weitere 999 Millionen Beispiele benötigt, aber woher soll man die nehmen?
Martin Ford: Sie wollen darauf hinaus, dass Deep Learning und überwachtes Lernen sehr stark von gekennzeichneten Daten abhängig sind.
Ray Kurzweil: Richtig. Man kann das Problem umgehen, wenn man die Welt, in der man sich befindet, simulieren kann. Dann kann man seine eigenen Trainingsdaten erzeugen. Und genau das hat DeepMind gemacht, indem es gegen sich selbst gespielt hat. Die Kennzeichnung der Spielzüge konnte durch klassische Methoden erfolgen. Nachfolgend hat AlphaZero ein neuronales Netz trainiert, um die Kennzeichnung der Spielzüge zu verbessern, und war so in der Lage, ohne vom Menschen stammende Trainingsdaten alle 100 Spiele gegen AlphaGo zu gewinnen.
Die Frage ist, in welchen Situationen das möglich ist. Mathematik ist ein weiterer Anwendungsbereich, in der das funktioniert, denn Mathematik können wir simulieren. Die Axiome der Zahlentheorie sind nicht komplizierter als die Spielregeln von Go.
Ein weiteres Beispiel sind selbstfahrende Autos, obwohl Autofahren viel komplizierter ist als ein Brettspiel oder mathematische Axiome. Waymo hat ein ziemlich gutes System entwickelt, das mehrere Methoden kombiniert, und ließ Fahrzeuge Millionen von Kilometern fahren, wobei Menschen an Bord waren, die jederzeit das Steuer übernehmen konnten. Auf diese Weise wurden genug Daten erzeugt, um einen präzisen Fahrsimulator zu erstellen. Sie haben im Simulator mehr als eine Milliarde Kilometer mit simulierten Fahrzeugen zurückgelegt und damit Trainingsdaten für ein tiefes neuronales Netz generiert, das dafür ausgelegt ist, den Algorithmus zu verbessern. Das hat funktioniert, obwohl die Fahrsimulation sehr viel komplexer als ein Brettspiel ist.
Der nächste spannende Bereich, den man zu simulieren versucht, ist die Welt der Biologie und Medizin. Wenn wir die Biologie simulieren könnten – und das ist nicht unmöglich –, dann wären wir in der Lage, klinische Studien in Stunden, statt in Jahren durchzuführen, und wir könnten wie bei selbstfahrenden Autos, Brettspielen oder Mathematik, unsere eigenen Daten erzeugen.
Das ist aber nicht der einzige Ansatz zur Lösung des Problems, genügend Trainingsdaten bereitzustellen. Menschen können aus sehr viel weniger Daten lernen, weil wir Transfer Learning betreiben. Wir verwenden Wissen, das wir in Situationen erlernt haben, die sich von dem, was wir gerade zu erlernen versuchen, deutlich unterscheiden. Ich habe ein anderes Lernmodell entwickelt, das auf einer groben Vorstellung der Funktionsweise des Neokortex beruht. 1962 habe ich eine These über die Arbeitsweise des menschlichen Gehirns aufgestellt – und ich habe die letzten 50 Jahre über das Denken nachgedacht. Mein Modell ist kein großes neuronales Netz, sondern ist aus vielen kleinen Modulen zusammengesetzt, die jeweils ein Muster erkennen können. In meinem Buch How to Create a Mind beschreibe ich, dass der Neokortex im Wesentlichen aus 300 Millionen solcher -Module besteht, die jeweils ein sequenzielles Muster erkennen können und dabei einen gewissen Grad an Variabilität zulassen. Die Module sind in einer Hierarchie organisiert, die durch ihr eigenes Denken entsteht. Das System entwickelt seine eigene Hierarchie.
Dieses hierarchische Modell des Neokortex kann aus sehr viel weniger Daten lernen. Beim Menschen verhält es sich ebenso. Wir können aus kleinen Datenmengen lernen, weil wir das Wissen aus einem Bereich auf einen anderen generalisieren können.
Larry Page, einer der Gründer von Google, gefiel meine These in How to Create a Mind, und er stellte mich bei Google ein, damit ich diese Ideen auf das Verstehen von Sprache anwende.
Martin Ford: Gibt es ein praktisches Beispiel für die Anwendung dieser Konzepte auf ein Google-Produkt?
Ray Kurzweil: Gmails Smart Reply, das jeweils drei Vorschläge für die Beantwortung einer E‑Mail unterbreitet, ist eine von meinem Team entwickelte Anwendung, die dieses hierarchische System verwendet. Wir haben gerade Talk to Books (https://books.google.com/talktobooks/) vorgestellt. Sie stellen eine Frage in natürlicher Sprache, und das System liest in einer halben Sekunde 100.000 Bücher – das entspricht 600 Millionen Sätzen – und liefert die besten Antworten zurück, die es in den 600 Millionen Sätzen finden konnte. Das Ganze beruht auf semantischem Verstehen, nicht auf Schlüsselwörtern.
Bei Google machen wir Fortschritte beim Verstehen natürlicher Sprache, und Sprache entstand ursprünglich im Neokortex. Sprache ist hierarchisch; wir können die hierarchischen Vorstellungen in unserem Neokortex miteinander teilen, indem wir die Hierarchie der Sprache verwenden. Ich denke, es war sehr vorausschauend von Alan Turing, dass er den Turing-Test auf Sprache aufbaute, denn ich glaube, dass es des gesamten Spektrums menschlichen Denkens und menschlicher Intelligenz bedarf, um Sprache auf menschlichem Niveau zu erschaffen und zu verstehen.
Martin Ford: Haben Sie letztendlich zum Ziel, diese Ideen auszubauen, um tatsächlich eine Maschine zu entwickeln, die den Turing-Test besteht?
Ray Kurzweil: Nicht alle sind dieser Meinung, aber ich halte den Turing-Test, sofern er richtig durchgeführt wird, tatsächlich für einen sehr guten Test für Intelligenz auf menschlichem Niveau. Problematisch ist, dass es in der kurzen Arbeit, die Turing 1950 verfasst hat, nur in einigen wenigen Absätzen um den Turing-Test geht, und dass er entscheidende Elemente weggelassen hat. Beispielsweise beschreibt er nicht, wie bei der Durchführung des Tests tatsächlich verfahren werden soll. Die Vorschriften des Tests sind ziemlich kompliziert, wenn man ihn in der Praxis durchführt, aber wenn ein Computer ihn bestehen soll, dann muss er, wie ich glaube, den vollen Umfang der menschlichen Intelligenz besitzen. Das eigentliche Ziel ist das Verständnis von Sprache auf menschlichem Niveau. Wenn eine KI dazu in der Lage ist, kann sie alle Dokumente und alle Bücher lesen und alles andere erlernen. Wir kommen dem ganz allmählich und schrittweise näher. Wir können beispielsweise genug Semantik verstehen, um mit Talk to Books vernünftige Antworten auf die Fragen zu geben, aber noch nicht auf menschlichem Niveau. Mitch Kapor und ich haben eine langfristige Wette um 20.000 Dollar laufen, die der Verlierer einer wohltätigen Organisation nach Wahl des Gewinners spenden muss. Ich behaupte, dass eine KI den Turing-Test bis 2029 besteht, er hält das nicht für möglich.
Martin Ford: Stimmen Sie zu, dass es beim Turing-Test überhaupt keine zeitliche Beschränkung geben sollte, damit er Intelligenz zuverlässig erkennt? Jemanden 15 Minuten lang hinters Licht zu führen, erscheint ein wenig wie Spielerei.
Ray Kurzweil: Ganz genau. Und wenn Sie sich die Regeln ansehen, die Mitch Kapor und ich vereinbart haben, werden Sie feststellen, dass wir mehrere Stunden vorgesehen haben, und selbst das ist vielleicht nicht genug Zeit. Wenn eine KI Sie wirklich davon überzeugt, menschlich zu sein, dann besteht sie den Test, das ist das Entscheidende. Wir können darüber diskutieren, wie lange das dauern muss – vielleicht mehrere Stunden lang, wenn der Schiedsrichter anspruchsvoll ist –, aber ich stimme zu, dass man mit einfachen Tricks davonkommen könnte, wenn die Zeit zu knapp bemessen ist.
Martin Ford: Ich glaube, es ist einfach, sich einen intelligenten Computer vorzustellen, dem es nicht besonders gut gelingt, sich als Mensch auszugeben, weil es sich um eine fremde Intelligenz handelt. Deshalb erscheint es wahrscheinlich, dass es einen Test geben könnte, bei dem alle übereinstimmen, dass eine Maschine intelligent ist, obwohl sie offenbar nicht menschlich ist. Wir würden das vermutlich auch als einen angemessenen Test anerkennen.
Ray Kurzweil: Wale und Tintenfische besitzen große Gehirne und zeigen intelligentes Verhalten, sind aber offensichtlich nicht in der Lage, den Turing-Test zu bestehen. Ein Chinese, der nicht Englisch, sondern Mandarin spricht, würde den englischen Turing-Test nicht bestehen, es gibt also viele Möglichkeiten, intelligent zu sein, ohne den Turing-Test zu bestehen. Die entscheidende Aussage ist die Umkehrung: Um den Test bestehen zu können, muss man intelligent sein.
Martin Ford: Glauben Sie, dass Deep Learning in Kombination mit Ihrem hie-rarchischen Ansatz der richtige Weg ist, oder denken Sie, dass die Notwendigkeit für weitere Paradigmenwechsel besteht, um eine AGI zu erreichen?
Ray Kurzweil: Nein, ich denke, dass Menschen diesen hierarchischen Ansatz nutzen. Jedes einzelne der Module kann lernen, und ich weise in meinem Buch sogar darauf hin, dass in den Modulen des Gehirns kein Deep Learning stattfindet, sondern etwas, das einer Markow-Kette ähnelt, aber es ist tatsächlich besser, Deep Learning zu verwenden.
Unsere Systeme bei Google verwenden Deep Learning, um Vektoren zu erzeugen, die das Muster in den Modulen repräsentieren, und es gibt eine Hierarchie, die über das Deep-Learning-Paradigma hinaus geht. Ich denke, das ist für eine AGI schon ausreichend. Meiner Ansicht nach nutzt das Gehirn den hierarchischen Ansatz und die Projekte, die versuchen, ein Reverse Engineering des Gehirns vorzunehmen, haben mittlerweile viele Hinweise darauf geliefert.
Es gibt die These, dass menschliche Gehirne ein regelbasiertes System nutzen, kein konnektionistisches. In diesem Zusammenhang wird darauf hingewiesen, dass Menschen in der Lage sind, sehr genaue Unterscheidungen vorzunehmen, und dass wir logisch denken können. Ein entscheidender Punkt ist, dass der Konnektionismus einen regelbasierten Ansatz emulieren kann. Ein konnektionistisches System kann sich in einer bestimmten Situation seiner Beurteilung so sicher sein, dass es sich wie ein regelbasiertes System verhält, ist aber dennoch in der Lage, mit seltenen Ausnahmen und den Nuancen der scheinbaren Regeln zurechtzukommen.
Ein regelbasiertes System kann jedoch kein konnektionistisches System emulieren, die Umkehrung der Aussage trifft also nicht zu. Doug Lenats »Cyc« ist ein beeindruckendes Projekt, aber ich glaube, dass es die Beschränkungen eines regelbasierten Systems belegt. Man stößt irgendwann an eine Komplexitätsgrenze, und die Regeln werden so kompliziert, dass der Versuch, einen Fehler zu beheben, dazu führt, dass drei andere Dinge nicht mehr funktionieren.
Martin Ford: Cyc ist das Projekt, bei dem versucht wird, manuell logische Regeln für einen gesunden Menschenverstand zu erstellen?
Ray Kurzweil: Richtig. Ich kann keine Zahl nennen, aber es gibt eine gewaltige Anzahl von Regeln. Es gab einen Modus, bei dem das System die einem Verhalten zugrunde liegenden Überlegungen ausgeben konnte, und die Erklärungen waren viele Seiten lang und ließen sich nur schwer nachvollziehen. Eine zweifellos beeindruckende Arbeit, aber sie zeigt, dass dies nicht der richtige Ansatz ist, jedenfalls nicht für sich allein genommen, und dass Menschen Intelligenz nicht auf diese Weise erzielen. Wir durchlaufen keine Kaskaden von Regeln, wir verwenden den hierarchischen selbstorganisierten Ansatz.
Ein hierarchischer, aber konnektionistischer Ansatz hat darüber hinaus den Vorteil, dass er sich besser selbst erklärt, weil man sich die Module in der Hierarchie ansehen und erkennen kann, welches Modul welche Entscheidung beeinflusst. Wenn es sich um riesige 100-schichtige neuronale Netze handelt, verhalten sie sich wie eine große Blackbox. Es ist sehr schwierig, die Vorgänge nachzuvollziehen, wenngleich es einige Versuche gab, das zu tun. Ich halte die hierarchische Erweiterung eines konnektionistischen Ansatzes für gut geeignet, und ich glaube, dass Menschen auf diese Weise denken.
Martin Ford: Aber es gibt doch einige Strukturen im menschlichen Gehirn, die schon bei der Geburt vorhanden sind. Babys können beispielsweise Gesichter erkennen.
Ray Kurzweil: Bestimmte Merkmale können wir selbst erzeugen. In unserem Gehirn gibt es beispielsweise ein Modul in Form einer Gehirnwindung namens Gyrus fusiformis, das spezielle neuronale Verknüpfungen zum Berechnen von Verhältnissen enthält, wie etwa den Abstand zwischen Nasenspitze und Nasenwurzel oder den Augenabstand. Es gibt vielleicht ein Dutzend ziemlich einfacher Merkmale, und Experimente haben Folgendes gezeigt: Wenn man anhand dieser Merkmale eines Bilds ein neues Bild mit den gleichen Merkmalen – den gleichen Verhältnissen – erzeugt, erkennen Menschen auf dem Bild sofort die gleiche Person, obwohl sich andere Details des Bilds ziemlich stark verändert haben. Es gibt verschiedene solcher Merkmalsgeneratoren, einige erzeugen Audioinformationen wie Tonverhältnisse und erkennen Obertöne. Diese Merkmale werden dem hie-rarchischen konnektionistischen System zugeführt. Es ist also wichtig, diese Merkmalsgeneratoren zu verstehen, und gibt es einige sehr spezielle Merkmale, auf die Babys bei der Erkennung von Gesichtern zurückgreifen.
Martin Ford: Ich möchte auf den Weg zu einer AGI zu sprechen kommen und auf den Zeitpunkt, zu dem sie erreicht wird. Ich gehe davon aus, dass AGI und Intelligenz auf menschlichem Niveau gleichwertige Bezeichnungen sind.
Ray Kurzweil: Es sind Synonyme, allerdings gefällt mir die Bezeichnung AGI nicht, weil ich glaube, dass sie eine implizite Kritik an KI darstellt. Es war schon immer das Ziel der KI, immer größere Intelligenz zu erzielen und schließlich eine Intelligenz auf menschlichem Niveau zu erreichen. Während wir Fortschritte gemacht haben, wurden eigene Fachgebiete abgespalten. Nachdem wir beispielsweise die Erkennung von Buchstaben gemeistert hatten, wurde daraus das eigene Fachgebiet OCR (Optical Character Recognition, optische Zeichenerkennung). Bei der Spracherkennung und der Robotik verhielt es sich gleichermaßen, und man bekam den Eindruck, dass sich das übergreifende Fachgebiet KI nicht mehr auf eine allgemeine Intelligenz konzentriert. Ich war schon immer der Ansicht, dass wir eine allgemeine Intelligenz schrittweise erreichen werden, indem wir ein Problem nach dem anderen lösen.
Ein weiterer Aspekt ist, dass die menschliche Leistung bei einer bestimmten Aufgabe einen sehr großen Bereich umfasst. Wie hoch ist das menschliche Leistungsniveau beim Go-Spielen? Es ist ein breites Spektrum, das von einem Kind, das zum ersten Mal spielt, bis zum Weltmeister reicht. Wir haben schon erlebt, dass ein Computer, sobald er menschliches Niveau auch nur am unteren Ende des Spektrums erreicht, sehr schnell das menschliche Leistungsvermögen übertrifft. Es ist nur wenig länger als ein Jahr her, dass Computer Go nur auf einem niedrigen Niveau spielen konnten, dann aber schnell immer besser wurden. Und vor Kurzem hat AlphaZero nach einigen wenigen Stunden Training AlphaGo überholt und in 100 Spielen 100 Mal geschlagen.
Computer haben sich auch beim Verstehen von Sprache verbessert, allerdings nicht im gleichen Tempo, weil sie noch nicht über genügend Allgemeinwissen verfügen. Heutige Computer können nicht besonders gut mehrstufige Schlussfolgerungen ziehen, wie sie beim Schließen aus mehreren Aussagen gleichzeitig das Allgemeinwissen berücksichtigen müssen. Bei einem Sprachverständnistest für Drittklässler hat ein Computer beispielsweise nicht verstanden, dass ein Junge vermutlich deswegen schmutzige Schuhe hat, weil er durch eine schlammige Pfütze gelaufen ist, und dass seine Mutter sauer wird, wenn er durch die Küche läuft und den Fußboden verschmutzt. Für uns Menschen mag das alles auf der Hand liegen, weil wir so etwas schon erlebt haben, aber für eine KI ist das nicht offensichtlich.
Von der Leistung eines durchschnittlichen Erwachsenen, die Computer bei manchen Sprachverständnistests heute erreichen, zu einer übermenschlichen Leistung zu gelangen, wird nicht so schnell gelingen wie beim Go, denn ich glaube, dass dafür noch weitere grundlegende Probleme gelöst werden müssen. Dessen ungeachtet umfasst die menschliche Leistung ein breites Spektrum, und sobald Computer in diesen Bereich vordringen, werden sie ihn letztendlich überschreiten und übermenschliche Leistungen erbringen. Die Tatsache, dass sie beim Sprachverständnis überhaupt eine Leistung auf dem Niveau eines Erwachsenen zeigen, ist schon sehr beeindruckend, denn ich bin davon überzeugt, dass Sprachverständnis die gesamte Bandbreite menschlicher Intelligenz erfordert, und dass Sprache das gesamte Spektrum menschlicher Mehrdeutigkeit und hierarchischen Denkens umfasst. Um es zusammenzufassen: Die KI macht sehr schnell Fortschritte, und bei alldem werden konnektionistische Ansätze verwendet.
Ich habe kürzlich mit meinem Team diskutiert, was wir zusätzlich zu dem, was wir schon getan haben, unternehmen müssen, um den Turing-Test zu bestehen. Ein gewisses Sprachverständnis haben wir bereits erreicht. Eine entscheidende Anforderung ist das mehrstufige Schlussfolgern – in der Lage zu sein, die Folgen und Auswirkungen von Konzepten zu berücksichtigen, ist von hoher Priorität. Das ist ein Gebiet, auf dem Chatbots regelmäßig scheitern.
Wenn ich Ihnen erzähle, dass ich mir Sorgen um die Leistung meiner Tochter in der Vorschule mache, werden Sie mich kaum ein paar Augenblicke später fragen, ob ich Kinder habe. Chatbots unterlaufen solche Fehler, weil sie nicht alle Folgen berücksichtigen, die das schon Gesagte hat. Wie erwähnt, gibt es auch noch das Problem des Allgemeinwissens, aber wenn wir alle mit der Sprache einhergehenden Auswirkungen verstehen könnten, wäre es möglich, das Allgemeinwissen durch das Lesen und Verstehen der vielen online verfügbaren Dokumente aufzubauen. Ich glaube, wir haben ein paar sehr gute Ideen, wie wir diese Aufgaben erledigen können, und wir haben dafür genügend Zeit.
Martin Ford: Sie haben schon seit einiger Zeit keinen Zweifel daran gelassen, dass Sie glauben, dass wir 2029 eine KI auf menschlichem Niveau erreichen. Ist das noch immer der Fall?
Ray Kurzweil: Ja. In meinem Buch The Age of Intelligent Machines, das 1989 erschien, habe ich einen Zeitraum um 2029 genannt, vielleicht ein Jahrzehnt früher oder später. 1999 habe ich The Age of Spiritual Machines veröffentlicht und darin die genauere Vorhersage 2029 getroffen. An der Stanford University gab es eine Konferenz von KI-Experten, die sich mit dieser offenbar aufsehenerregenden Prognose befassten. Damals gab es noch keine Wahlmaschinen, wir haben also durch Handzeichen abgestimmt. Die übereinstimmende Meinung war, dass es noch Hunderte von Jahren dauern wird, wobei rund ein Viertel der Gruppe der Ansicht war, dass es niemals geschehen wird.
2006 gab es anlässlich des 50. Jahrestags der vorhin erwähnten Dartmouth-Konferenz 1956 am Dartmouth College ein Treffen, und dort gab es Wahlmaschinen. Der Konsens war, dass es noch etwa 50 Jahre dauern wird. 12 Jahre später, im Jahr 2018, ist die übereinstimmende Meinung, dass es in 20 bis 30 Jahren so weit sein wird, also irgendwann zwischen 2038 und 2048, ich bin also noch immer optimistischer als die meisten KI-Experten, aber nur ein wenig. Meine Vorhersage und der Konsens der KI-Experten nähern sich einander an, aber nicht, weil ich meine Meinung geändert habe. Es gibt eine zunehmende Zahl von Leuten, die meinen, ich sei zu konservativ.
Martin Ford: 2029 ist schon in 11 Jahren, also in gar nicht allzu ferner Zukunft. Das wird mir klar, wenn ich an meine 11 Jahre alte Tochter denke.
Ray Kurzweil: Der Fortschritt nimmt exponentiell zu – denken sie nur an den allein im letzten Jahr erzielten atemberaubenden Fortschritt. Bei selbstfahrenden Autos, beim Verstehen von Sprache, beim Go-Spielen und in vielen anderen Bereichen haben wir dramatische Verbesserungen erreicht. Das Tempo ist rasant, sowohl bei Hardware als auch bei Software. Bei der Hardware findet der exponentielle Fortschritt sogar noch schneller statt als bei der normalen Rechenleistung. In den letzten paar Jahren haben wir die für Deep Learning verfügbare Rechenleistung alle drei Monate verdoppelt, während die normale Rechenleistung sich nur alle 12 Monate verdoppelt.
Martin Ford: Einige sehr kluge Köpfe mit profunden KI-Kenntnissen sagen dennoch vorher, dass es noch mindestens 100 Jahre dauert. Glauben Sie, das liegt daran, dass sie in die Falle des linearen Denkens geraten sind?
Ray Kurzweil: Zum einen denken sie linear, und zum anderen fallen sie dem zum Opfer, was ich als Pessimismus des Entwicklers bezeichne, also sich so sehr auf ein Problem zu konzentrieren und das Gefühl zu haben, dass es wirklich schwierig ist, weil man es noch nicht gelöst hat, und zu extrapolieren, dass man das Problem allein in dem Tempo lösen muss, in dem man daran arbeitet. Die Sache sieht völlig anders aus, wenn man das Tempo des Fortschritts eines Fachgebiets berücksichtigt und das Phänomen betrachtet, dass Ideen sich gegenseitig beeinflussen. Mache Menschen sind einfach nicht in der Lage, den exponentiellen Charakter des Fortschritts zu begreifen, insbesondere dann nicht, wenn es um Informationstechnologie geht.
In der ersten Hälfte des Humangenomprojekts hatte man nach 7 Jahren 1 % des Genoms entschlüsselt, und die Kritiker meinten: »Wir haben doch gleich gesagt, dass es nicht klappt. 1 Prozent in 7 Jahren bedeutet, dass es 700 Jahre dauern wird«. Meine Reaktion war: »Wir haben 1 Prozent erledigt – dann sind wir so gut wie fertig. Wir werden jedes Jahr eine Verdopplung erreichen. 1 Prozent muss nur sieben Mal verdoppelt werden, um 100 Prozent zu erreichen«. Und tatsächlich war das Projekt sieben Jahre später abgeschlossen.
Die entscheidende Frage ist: Warum verstehen manche Menschen das problemlos und andere nicht? Das hängt mit Sicherheit nicht von den Fähigkeiten oder von der Intelligenz ab. Manche Menschen, die beruflich gar nichts damit zu tun haben, verstehen es mit Leichtigkeit, weil sie den Fortschritt an ihren Smartphones erleben. Andere, sehr verdienstvolle Menschen, die an der Spitze ihres Fachgebiets stehen, bleiben hartnäckig bei der linearen Denkweise. Ich kann diese Frage also tatsächlich nicht beantworten.
Martin Ford: Würden Sie sagen, dass es nicht nur um den exponentiellen Fortschritt bei der Rechenleistung und der Speicherkapazität geht? Es müssen zweifelsohne noch einige grundlegende konzeptuelle Durchbrüche erfolgen, um Computer dazu zu bringen, so wie wir Menschen in Echtzeit aus unstrukturierten Daten zu lernen, oder zu schlussfolgern und sich eine Vorstellung von etwas zu bilden.
Ray Kurzweil: Der Fortschritt bei der Software erfolgt ebenfalls exponentiell, wenngleich es die unvorhersehbaren Aspekte gibt, auf die Sie anspielen. Es gibt eine gegenseitige Bereicherung durch Ideen, die ihrer Natur nach exponentiell ist, und sobald wir bei der Leistung eine bestimmte Stufe erreicht haben, wird es neue Ideen geben, die zur nächsten Stufe führen.
Der wissenschaftliche Beirat der Obama-Regierung hat zu dieser Frage eine Studie durchgeführt, die den Fortschritt von Hardware und Software miteinander vergleicht. Dazu wurde ein Dutzend klassischer naturwissenschaftlich/technischer Aufgaben genutzt, um die erzielten Fortschritte quantitativ daraufhin zu überprüfen, wie viel auf Hardware zurückzuführen ist. In den letzten 10 Jahren betrug das Verhältnis von Hardware zu Software im Allgemeinen etwa 1.000 zu 1, was mit der jährlichen Verdopplung der Rechenleistung in Einklang steht. Wie vielleicht zu erwarten, variierten die Fortschritte bei der Software deutlich, die relative Verbesserung war jedoch in allen Fällen größer als bei der Hardware. Fortschritte sind tendenziell exponentiell. Wenn man bei der Software Fortschritte erzielt, sind sie also auch nicht linear, sondern exponentiell. Insgesamt ergibt sich der Fortschritt aus der Kombination des Fortschritts bei Hardware und Software.
Martin Ford: Sie haben für das Jahr 2045 eine weitere Vorhersage getroffen, nämlich dass dann das eintritt, was Sie als Singularität bezeichnen. Ich denke, die meisten Menschen stellen sich darunter eine Intelligenzexplosion oder das Auftreten einer echten Superintelligenz vor. Kann man das so sagen?
Ray Kurzweil: Bezüglich der Singularität gibt es tatsächlich zwei Denkrichtungen. Das eine Lager glaubt an einen schnellen Takeoff, das andere an einen gemäßigten Takeoff. Ich zähle mich zu der zweiten Gruppe, die der Ansicht ist, dass wir weiterhin exponentielle Fortschritte machen werden, was schon beängstigend genug ist. Die Vorstellung einer Intelligenzexplosion besagt, dass es einen magischen Moment gibt, ab dem ein Computer auf sein eigenes Design zugreifen und es modifizieren kann, um so verbesserte Versionen von sich selbst zu erschaffen, und das in einer sehr schnellen iterativen Schleife wiederholt, sodass seine Intelligenz explosionsartig zunimmt.
Tatsächlich glaube ich, dass wir das schon seit Tausenden von Jahren so machen. Wir sind durch unsere Technologie zweifellos smarter geworden. Unsere Smartphones sind eine Art Erweiterung des Gehirns, und sie machen uns tatsächlich smarter. Es handelt sich um einen exponentiellen Vorgang. Vor tausend Jahren haben Paradigmenwechsel und Fortschritte Jahrhunderte gedauert, und man hatte den Eindruck, dass überhaupt nichts geschieht. Ihre Großeltern haben das gleiche Leben wie Sie gelebt, und Sie erwarten, dass Ihre Enkel das gleiche Leben wie Sie leben werden. Aber heute sind Veränderungen schon nach einem Jahr oder sogar noch schneller erkennbar. Das Ganze ist exponentiell, und das führt zu einem beschleunigten Fortschritt, der aber in diesem Sinn nicht explosionsartig verläuft.
Ich glaube, dass wir Intelligenz auf menschlichem Niveau im Jahr 2029 erreichen werden, und sie wird nahezu sofort übermenschlich sein. Betrachten Sie als Beispiel Talk to Books. Sie stellen eine Frage, und das System liest 600 Millionen Sätze, 100.000 Bücher, in einer halben Sekunde. Ich persönlich brauche schon ein paar Stunden, um 100.000 Bücher zu lesen!
Ihr Smartphone ist schon heute in der Lage, eine Suche anhand von Schlagwörtern und anderen Verfahren durchzuführen. Googles Suche geht schon über eine Schlagwortsuche hinaus und verfügt über einige semantische Fähigkeiten. Das semantische Verständnis ist noch nicht auf menschlichem Niveau, aber es ist eine Milliarde Mal schneller als menschliches Denken. Und sowohl Software als auch Hardware werden sich in exponentiellem Tempo weiter verbessern.
Martin Ford: Sie sind auch dafür bekannt, dass Sie sich darüber Gedanken gemacht haben, Technologie zur Verlängerung des menschlichen Lebens einzusetzen. Können Sie mir dazu mehr erzählen?
Ray Kurzweil: Eine meiner Thesen lautet, dass wir mit der intelligenten Technologie verschmelzen werden, die wir erschaffen. In dem Szenario, das mir vorschwebt, werden wir medizinische Nanoroboter in unsere Blutbahn injizieren. Eine Anwendung dieser medizinischen Nanoroboter wird die Erweiterung unseres Immunsystems sein. Ich bezeichne das als die dritte Brücke zur radikalen Lebensverlängerung. Die erste Brücke ist das, was wir schon heute tun können, und die zweite Brücke ist die Perfektionierung der Biotechnologie und die Umprogrammierung der Software des Lebens. Der dritte Brücke besteht schließlich darin, dass diese medizinischen Nanoroboter das Immunsystem perfektionieren. Diese Roboter werden auch das Gehirn bevölkern. Virtual Reality und Augmented Reality werden nicht durch an die Gliedmaße unseres Körpers angeschlossene Geräte bereitgestellt, sondern aus dem Inneren des Nervensystems. Die wichtigste Anwendung der medizinischen Nanoroboter wird sein, dass wir die obersten Schichten unseres Neokortex mit einem synthetischen Neokortex in der Cloud verbinden.
Martin Ford: Arbeiten Sie bei Google an so etwas?
Ray Kurzweil: Die Projekte, die ich hier bei Google mit meinem Team durchgeführt habe, verwenden das, was ich als eine grobe Simulation des Neokortex bezeichnen würde. Wir verstehen den Neokortex noch nicht richtig, aber wir versuchen, ihn mit dem vorhandenen Wissen annähernd nachzuahmen. Wir haben schon einige interessante Sprachanwendungen entwickelt, aber Anfang der 2030er-Jahre werden wir über eine sehr gute Simulation des Neokortex verfügen.
So wie ein Smartphone eine Million Mal smarter wird, indem es auf die Cloud zugreift, werden wir das direkt mit unserem Gehirn tun. Durch unsere Smartphones tun wir das schon heute, auch wenn sie kein Teil unserer Körper und Gehirne sind, was eigentlich eine willkürliche Unterscheidung ist. Wir benutzen unsere Finger und unsere Augen und Ohren auch als Erweiterungen unseres Gehirns. Zukünftig werden wir in der Lage sein, das direkt mit unserem Gehirn zu erledigen, aber nicht nur, um Suchen und Sprachübersetzungen direkt mit unserem Gehirn durchzuführen, sondern um die obersten Schichten unseres Neokortex tatsächlich mit einem synthetischen Neokortex in der Cloud zu verbinden.
Vor zwei Millionen Jahren hatten wir noch keine hohe Stirn, aber als wir uns weiterentwickelten, bekamen wir mehr Raum, um einen größeren Neokortex beherbergen zu können. Und was haben wir daraus gemacht? Wir haben ihn in der neokortikalen Hierarchie an erster Stelle platziert. Wir haben als Primaten schon sehr gute Arbeit geleistet, aber jetzt können wir auf noch abstrakterer Ebene darüber nachdenken.
Das war der entscheidende Faktor, der uns dazu befähigte, Technologie, Wissenschaft, Sprache und Musik zu erfinden. Alle uns bekannten menschlichen Kulturen machen Musik, aber nicht eine der Kulturen von Primaten. Die Vergrößerung des für den Neokortex verfügbaren Raums war ein einmaliger Vorgang, denn er konnte nicht weiterwachsen, weil die Geburt, die nach der Vergrößerung des Gehirns vor zwei Millionen Jahren schon schwierig genug war, dadurch unmöglich geworden wäre.
Die Erweiterung unseres Gehirns in den 2030er-Jahren wird kein einmaliger Vorgang sein. Die Leistungsfähigkeit der Cloud verdoppelt sich jedes Jahr und ist nicht durch räumliche Grenzen beschränkt, also wird der nicht-biologische Teil unseres Denkens weiterwachsen. Wir werden unsere Intelligenz bis 2045 um ein Milliardenfaches steigern, und das ist eine so tiefgreifende Umwälzung, dass es schwierig ist, über diesen Ereignishorizont hinaus zu blicken. Wir verwenden hier die aus der Physik entliehene Metapher des Ereignishorizonts, die auch die Schwierigkeit beinhaltet, darüber hinaus zu blicken.
Technologien wie Googles Suche oder Talk to Books sind mindestens eine Milliarde Mal schneller als Menschen. Die Intelligenz bewegt sich noch nicht auf menschlichem Niveau, aber sobald wir diesen Punkt erreichen, wird die KI den schon vorhandenen enormen Geschwindigkeitsvorteil und die weiter exponentiell wachsenden Kapazitäten und Fähigkeiten zu ihrem Vorteil nutzen. Das ist die Bedeutung der Singularität: Es ist ein gemäßigter Takeoff, dennoch sind die exponentiellen Entwicklungen beängstigend genug. Wenn man einen Wert 30 Mal verdoppelt, entspricht das einer Multiplikation mit einer Milliarde.
Martin Ford: Im Bereich Medizin, insbesondere bezüglich der Langlebigkeit des Menschen, haben Sie sich ausführlich dazu geäußert, welche Auswirkungen die Singularität haben wird, und Sie sind dafür auch kritisiert worden. Ich habe letztes Jahr am MIT einen Vortrag von Ihnen besucht, in dem Sie davon sprachen, dass die meisten Menschen innerhalb der nächsten 10 Jahre in der Lage sein könnten, das zu erreichen, was Sie als »Fluchtgeschwindigkeit der Langlebigkeit« bezeichnen. Darüber hinaus sagten Sie, dass Sie persönlich das vielleicht schon erreicht hätten. Glauben Sie tatsächlich, dass es schon so bald geschehen wird?
Ray Kurzweil: Wir stehen in der Biotechnologie vor einem Wendepunkt. Die Menschen gehen davon aus, dass die Medizin wie in der Vergangenheit weiter in einem gemächlichen Tempo vor sich hindümpelt. Erfolge der medizinischen Forschung waren im Wesentlichen Zufallstreffer. Arzneimittelhersteller gehen eine Liste mit zigtausend chemischen Verbindungen durch und hoffen, etwas Wirksames zu finden, anstatt zu versuchen, das Ganze zu verstehen und die Software des Lebens systematisch umzuprogrammieren.
Zu behaupten, dass unsere genetischen Prozesse Software sind, ist mehr als nur eine Metapher. Es handelt sich um eine Verkettung von Daten, die sich in einem Zeitalter entwickelt hat, in dem es nicht im Interesse unserer Spezies lag, dass einzelne Menschen sehr lange leben, weil es begrenzte Ressourcen wie etwa Nahrung gab. Wir erleben einen Übergang von einem Zeitalter der Knappheit zu einem Zeitalter des Überflusses.
Die Leistungsfähigkeit der informationsverarbeitenden Prozesse in der Biologie hat sich jedes Jahr verdoppelt. Betrachten Sie beispielsweise die genetische Sequenzierung. Das erste Genom kostete eine Milliarde Dollar, und heute betragen die Kosten um die 1.000 Dollar. Aber unsere Fähigkeit, diesen rohen Objektcode des Lebens nicht nur zu erfassen, sondern auch zu verstehen, zu modellieren, zu simulieren und vor allem neu zu programmieren, verdoppelt sich auch jedes Jahr in ihrer Leistung.
Es gibt jetzt erste klinische Anwendungen – noch ist es ein Rinnsal, das im kommenden Jahrzehnt jedoch zu einer Flut anwachsen wird. Es gibt Hunderte von Anträgen für tiefgehende Eingriffe, die auf eine Zulassung der Regulierungsbehörden warten. Wir sind jetzt in der Lage, ein durch einen Herzanfall angegriffenes Herz zu heilen, also es durch die Injektion von umprogrammierten adulten Stammzellen zu verjüngen. Wir können Organe züchten, die wir erfolgreich Primaten implantiert haben. Die Immuntherapie ist im Wesentlichen eine Umprogrammierung des Immunsystems. Das Immunsystem geht nicht eigenständig gegen Krebs vor, weil es nicht dafür entwickelt wurde, Krankheiten zu bekämpfen, von denen wir tendenziell erst in höherem Alter befallen werden. Tatsächlich können wir es umprogrammieren, sodass es Krebs erkennt und ihn bekämpft. Das ist ein großer Lichtblick in der Krebstherapie, und es gibt bemerkenswerte Studien, in denen sich der Zustand praktisch aller Patienten von Stufe 4 (Krebs im Endstadium) verbesserte und die Rückbildung einsetzte.
Die Medizin in zehn Jahren wird sich grundlegend von der heutigen unterscheiden. Wenn man sich bemüht, wird man die Fluchtgeschwindigkeit der Langlebigkeit erreichen können, was bedeutet, dass man die Lebenszeit verlängert, also nicht nur die Lebenserwartung zum Zeitpunkt der Geburt, sondern die noch verbleibende Lebenserwartung. Dafür gibt es natürlich keine Garantie, weil man ja immer noch von dem sprichwörtlichen Bus überfahren werden kann und die Lebenserwartung tatsächlich ein kompliziertes statistisches Konzept ist, aber die Lebensuhr wird langsamer ticken als heute. Und ein weiteres Jahrzehnt später werden wir auch in der Lage sein, Alterungsprozesse umzukehren.
Martin Ford: Ich möchte über die Nachteile und Risiken der KI sprechen. Ich würde sagen, dass Sie manchmal zu Unrecht dafür kritisiert werden, bei diesen Fragen zu optimistisch zu sein, vielleicht sogar übertrieben optimistisch. Gibt es bei diesen Entwicklungen irgendetwas, über das wir uns Sorgen machen sollten?
Ray Kurzweil: Ich habe mehr über die Nachteile geschrieben als irgendjemand sonst, und das war Jahrzehnte bevor Stephen Hawking und Elon Musk ihre Bedenken geäußert haben. Auf die Nachteile von GNR (Genetik, Nanotechnologie und Robotik, womit KI gemeint ist) bin ich ausführlich eingegangen – in meinem Buch The Age of Spiritual Machines, das 1999 erschien und Bill Joy dazu veranlasste, im Januar 2000 seine berühmte Wired-Titelgeschichte Why the Future Doesn’t Need Us (Weshalb die Zukunft uns nicht braucht) zu schreiben.
Martin Ford: Das beruhte auf einem Zitat von Ted Kaczynski, dem Unabomber[1], richtig?
Ray Kurzweil: Auf einer Seite steht ein Zitat von ihm, das sehr nach einem wohlüberlegten Ausdruck der Besorgnis klingt, und dann blättert man eine Seite weiter und stellt fest, dass es dem Unabomber-Manifest entstammt. In dem Buch erläutere ich die mit GNR verbundenen existenziellen Risiken. In meinem Buch The Singularity is Near (deutscher Titel: Menschheit 2.0: Die Singularität naht) gehe ich sehr ausführlich auf das Thema Risiken von GNR ein. Kapitel 8 trägt den Titel »The Deeply Intertwined Promise versus Peril of GNR« (Die eng verwobenen Nutzen und Gefahren von GNR).
Ich bin optimistisch, dass wir als Spezies das überstehen werden. Technologie bereitet uns sehr viel mehr Nutzen als Schaden, aber man muss nicht lange suchen, um den Schaden zu erkennen, der angerichtet wurde, beispielsweise all die Zerstörung, die im 20. Jahrhundert stattgefunden hat – obwohl es das bis dahin friedlichste Jahrhundert war, und wir heute sogar in einer noch friedlicheren Zeit leben. Die Welt wird grundsätzlich besser, beispielsweise hat sich in den letzten 200 Jahren die Armut um 95 Prozent verringert, und die Alphabetisierungsrate ist von weniger als 10 Prozent auf mehr als 90 Prozent gestiegen.
Um zu beurteilen, ob die Welt besser oder schlechter geworden ist, fragen sich Menschen: »Wie oft höre ich gute und wie oft schlechte Nachrichten?«, und das ist kein besonders guter Algorithmus. Es gab eine Umfrage unter 24.000 Teilnehmern aus 26 Ländern, denen die Frage gestellt wurde: »Hat sich die Armut weltweit in den letzten 20 Jahren verringert oder vergrößert?«. 87 Prozent antworteten fälschlicherweise, sie habe sich vergrößert. Nur 1 Prozent konnte korrekt angeben, dass sie sich in den letzten 20 Jahren mehr als halbiert hat. Menschen bevorzugen aus evolutionären Gründen schlechte Nachrichten, denn vor 10.000 Jahren war es von großer Bedeutung, schlechten Nachrichten Beachtung zu schenken, beispielsweise dem leisen Rascheln im Gebüsch, das von einem Raubtier stammen könnte. Dem Aufmerksamkeit zu schenken, war wichtiger als festzustellen, dass die Gemüseernte ein halbes Prozent besser ist als im letzten Jahr, und wir geben noch immer schlechten Nachrichten den Vorzug.
Martin Ford: Aber es gibt doch einen drastischen Unterschied zwischen solchen Gefahren und existenziellen Risiken.
Ray Kurzweil: Wir sind auch mit existenziellen Risiken durch Informationstechnologie ganz gut zurechtgekommen. Vor 40 Jahren gab es eine Gruppe visionärer Wissenschaftler, die sowohl den Nutzen als auch die Gefahren der Biotechnologie erkannten, die damals noch in ferner Zukunft lag, und sie veranstalteten die erste Asilomar-Konferenz zur Sicherheit in der Molekularbiologie. Die ethischen Standards und die Strategien wurden regelmäßig aktualisiert, und das hat sehr gut funktioniert. Die Anzahl der Personen, die durch absichtlichen oder unabsichtlichen Missbrauch der Biotechnologie oder durch Unfälle zu Schaden gekommen sind, liegt praktisch bei null. Wir kommen allmählich in den Genuss der Vorteile, auf die ich angespielt hatte und die im kommenden Jahrzehnt zu einer Flut anwachsen werden.
Das ist ein Erfolg für diesen Ansatz, umfassende ethische Standards und technische Strategien zur Bewahrung der Sicherheit festzulegen, und vieles davon ist inzwischen gesetzlich geregelt. Das soll aber nicht heißen, dass wir Gefahren durch Biotechnologie von unserer Liste der Bedenken streichen können. Wir entwickeln immer leistungsfähigere Technologien, wie etwa CRISPR, und wir müssen die Standards dementsprechend immer wieder anpassen.
Wir haben vor rund 18 Monaten erstmals an einer Asilomar-Konferenz teilgenommen und eine Reihe ethischer Standards vorgestellt. Ich denke, sie müssen noch weiterentwickelt werden, aber der Ansatz als solcher kann funktionieren. Wir müssen ihm hohe Priorität einräumen.
Martin Ford: Eine Befürchtung, die gerade sehr viel Aufmerksamkeit findet, ist das sogenannte Kontrollproblem, bei dem eine Superintelligenz Ziele verfolgen könnte, die nicht damit in Einklang stehen, was für die Menschheit am besten ist. Nehmen Sie das ernst, und sollte daran gearbeitet werden?
Ray Kurzweil: Die Ziele von Menschen stehen auch nicht alle miteinander in Einklang, und das ist eigentlich der entscheidende Punkt. Es ist ein Missverständnis, KI als eine eigene Zivilisation zu betrachten, so als ob es sich um eine Invasion von Marsmenschen handeln würde. Wir entwickeln Tools, um unseren Einfluss-bereich zu erweitern. Vor 10.000 Jahren konnten wir die Früchte nicht erreichen, die an den oberen Zweigen hingen, also entwickelten wir Werkzeuge, die unsere Reichweite vergrößerten. Wir können Wolkenkratzer nicht mit bloßen Händen errichten, also setzen wir statt unserer Muskeln Maschinen ein. Und ein Kind in Afrika, das ein Smartphone besitzt, kann durch ein paar Tastendrücke auf das gesamte Wissen der Menschheit zugreifen.
Das ist die Rolle, die Technologie einnimmt: Sie ermöglicht es uns, über unsere Grenzen hinauszuwachsen, und dafür nutzen wir jetzt und zukünftig KI. Es geht anders als in vielen dystopischen Science-Fiction-Filmen nicht um Menschheit gegen KI. Wir werden vielmehr mit ihr verschmelzen. Damit haben wir schon angefangen. Dass ein Smartphone kein physischer Bestandteil des Körpers und des Gehirns ist, macht im Grunde keinen Unterschied, weil es ebenso gut so sein könnte. Ohne Smartphone gehen wir nicht aus dem Haus, weil wir uns sonst irgendwie unvollständig fühlen. Ohne Smartphone kann heutzutage niemand mehr seine Arbeit erledigen, seine Ausbildung erhalten oder Beziehungen pflegen, und diese Bindung wird immer enger.
Ich bin zum MIT gegangen, weil es 1965 so fortschrittlich war, dass es über Computer verfügte. Wenn ich einen benutzen wollte, musste ich mit dem Fahrrad quer über den Campus fahren und meinen Ausweis vorzeigen, um das Gebäude betreten zu dürfen. Und heute, ein halbes Jahrhundert später, haben wir Computer in der Hosentasche und verwenden sie ständig. Sie sind zu einem Bestandteil unseres Lebens geworden und werden letztendlich zum Bestandteil unserer Körper und Gehirne werden.
Die Konflikte und Kriege der letzten Jahrtausende wurden stets durch Meinungsverschiedenheiten unter Menschen ausgelöst. Ich glaube, dass Technologie tendenziell zu mehr Eintracht, mehr Frieden und mehr Demokratisierung führt. Das Aufkommen der Demokratisierung ist eng mit Verbesserungen der Kommunikationsmittel verknüpft. Vor zwei Jahrhunderten gab es weltweit nur eine Demokratie. Vor einem Jahrhundert gab es ein halbes Dutzend. Heute sind 123 der anerkannten 192 Staaten Demokratien, das sind 64 Prozent. Die Welt ist keine perfekte Demokratie, aber diese Staatsform hat sich als Standard etabliert. Wir leben in der friedlichsten Zeit in der Geschichte der Menschheit, und alle Aspekte des Lebens verbessern sich, und das verdanken wir den Auswirkungen der Technologie, die zunehmend intelligenter wird und die zu uns einfach dazugehört.
Die heutigen Konflikte zwischen Bevölkerungsgruppen werden durch die jeweils verfügbaren Technologien verstärkt. Das wird auch weiterhin der Fall sein. Allerdings glaube ich, hier sollte berücksichtigt werden, dass durch bessere Kommunikationstechnologien auch unsere kurzfristige Empathie zum Tragen kommt. Wir zeigen von Natur aus Empathie für kleine Bevölkerungsgruppen, und das wird durch unsere Fähigkeit, tatsächlich mitzuerleben, was Menschen am anderen Ende der Welt widerfährt, weiter verstärkt. Ich glaube, das ist der entscheidende Punkt. Wir müssen nach wie vor mit menschlichen Beziehungen umgehen, wenn wir unsere persönlichen Fähigkeiten durch Technologie erweitern.
Martin Ford: Lassen Sie uns über das Potenzial für Umwälzungen der Wirtschaft und des Arbeitsmarkts sprechen. Ich persönlich glaube, dass es ein großes Potenzial für den Verlust oder die Entqualifizierung von Arbeitsplätzen und eine stark wachsende Ungleichheit gibt. Tatsächlich glaube ich, dass es Umwälzungen in der Größenordnung einer neuen industriellen Revolution geben könnte.
Ray Kurzweil: Dann frage ich Sie: Wie ist die letzte industrielle Revolution ausgegangen? Vor 200 Jahren gab es die Webergilde, die seit Hunderten von Jahren von einer Generation zur nächsten fortgeführt wurde. Das Geschäftsmodell der Weber wurde auf den Kopf gestellt und zerschlagen, als plötzlich überall Garn und Kleidung produzierende Webmaschinen auftauchten, die ihre Existenzgrundlage bedrohten. Es wurde vorhergesagt, dass weitere Maschinen kommen, und dass die meisten Menschen ihre Jobs verlieren werden. Beschäftigung würde es nur noch für eine Elite geben. Ein Teil dieser Vorhersage erwies sich als richtig – es wurden weitere Maschinen eingeführt, und viele Fähigkeiten und Jobs wurden nicht mehr benötigt. Die Beschäftigungsrate allerdings sank nicht, sondern stieg an, weil die Gesellschaft wohlhabender wurde.
Wenn ich ein vorausschauender Zukunftsforscher im Jahr 1900 wäre, würde ich darauf hinweisen, dass 38 Prozent der Bevölkerung in der Landwirtschaft und 25 Prozent in Fabriken arbeiten. Ich würde vorhersagen, dass in 115 Jahren, also 2015, nur noch 2 Prozent in der Landwirtschaft und 9 Prozent in Fabriken arbeiten werden. Darauf würden alle mit »Meine Güte, ich werde keine Arbeit haben« reagieren, und ich würde entgegnen: »Keine Sorge, die Arbeitsplätze, die wegfallen, gehören zur niedrigsten Qualifizierungsstufe, und wir werden eine viel größere Zahl an Jobs schaffen, die zur höchsten Qualifizierungsstufe gehören«. Die Leute würden mich fragen: »Oh tatsächlich, was sind das für Jobs?«, und ich würde antworten: »Das weiß ich nicht, wir haben sie noch nicht erfunden«.
Es wird behauptet, dass wir mehr Jobs vernichtet als neu geschaffen hätten, aber das stimmt nicht. 1900 gab es 24 Millionen Arbeitsplätze, und heute sind es 142 Millionen. Als prozentualer Anteil der Bevölkerung entspricht das einem Anstieg von 31 Prozent auf 44 Prozent. Und wie sehen die Jobs im Vergleich miteinander aus? Zum einen ist der durchschnittliche Stundenlohn heute 11 Mal so hoch wie 1900 (inflationsbereinigt). Wir haben das Arbeitsjahr von etwa 3.000 auf 1.800 Stunden verkürzt, aber die Leute verdienen immer noch sechs Mal so viel pro Jahr, und die Jobs sind viel interessanter geworden. Ich glaube, dass wird auch weiterhin so bleiben, auch nach der nächsten industriellen Revolution.
Martin Ford: Die eigentliche Frage ist, ob es dieses Mal anders verläuft. Was Sie über die früheren Vorgänge gesagt haben, ist zweifellos richtig, aber den meisten Schätzungen zufolge verrichtet etwa die Hälfte der Arbeitnehmerschaft Tätigkeiten, die grundsätzlich vorhersehbar und ziemlich monoton sind, und all diese Jobs werden potenziell durch Machine Learning bedroht sein. Für die Automatisierung der meisten dieser vorhersehbaren Jobs ist keine KI auf menschlichem Niveau erforderlich.
Es wird vermutlich neue Jobs für Roboterentwickler, Deep-Learning-Forscher und dergleichen geben, aber Sie können realistischerweise nicht erwarten, dass all die Menschen, die jetzt Hamburger braten oder Taxi fahren, diese Stellen besetzen, selbst wenn man annimmt, dass es genügend davon geben wird. Wir sprechen hier von einer Technologie, die Wahrnehmung und Intellekt von Menschen ersetzen kann, und sie wird ein außerordentlich breites Spektrum abdecken.
Ray Kurzweil: Diese Vorhersagen beruhen auf einer »Wir-gegen-sie«-Mentalität und auf dem, was die Menschen gegen die Maschinen unternehmen können. Wir sind schon smarter geworden, um besser für diese anspruchsvolleren Jobs geeignet zu sein. Noch nicht durch Dinge, die direkt mit unserem Gehirn verbunden sind, sondern durch intelligente Geräte. Niemand kann seine Aufgaben ohne diese Gehirnerweiterungen erledigen, und sie werden unser Gehirn sogar noch umfassender erweitern und noch stärker in unser Leben eingebunden sein.
Zwecks Verbesserung unserer Fähigkeiten haben wir das Bildungswesen ausgebaut. 1870 gab es 68.000 Hochschulstudenten, und heute sind es 15 Millionen. Wenn man sie und alle, die sie betreuen, wie Angestellte der Fakultät und anderes Personal, zusammenrechnet, kommt man auf etwa 20 Prozent der gesamten Erwerbsbevölkerung, die allein an der Hochschulbildung beteiligt ist. Und wir schaffen ständig neue Aufgaben. Vor sechs Jahren gab es den Wirtschaftszweig für Apps noch nicht, der heute einen bedeutenden Anteil der Wirtschaft darstellt. Wir werden uns immer smarter machen.
Bei den Überlegungen zu dieser Frage muss noch etwas ganz anderes berücksichtigt werden, nämlich die vorhin erwähnte These, dass wir vor einem Zeitalter des Überflusses stehen. Beim jährlichen Treffen des Internationalen Währungsfonds habe ich an einer Podiumsdiskussion mit der geschäftsführenden Direktorin Christine Lagarde teilgenommen, bei der sie fragte: »Woher soll hier das Wirtschaftswachstum kommen? Die Digitalwirtschaft bietet all diese fantastischen Dinge, aber man kann Informationstechnologie nicht essen, nicht anziehen und nicht darin wohnen«. Ich habe geantwortet: »All das wird sich ändern. Alle Arten von nominell physischen Produkten werden zu einer Informationstechnologie werden. Wir werden in KI-gesteuerten Gebäuden in vertikalen Hydrokulturen Obst und Gemüse anbauen und die In-vitro-Kultivierung von Muskelgewebe zur Fleischproduktion betreiben. Das wird uns ohne den Einsatz von Chemie und ohne leidende Tiere sehr hochwertige Nahrungsmittel zu geringen Kosten liefern. Die Deflationsrate von Informationstechnologie beträgt 50 Prozent. Die Rechenleistung, die Kommunikationsmöglichkeiten und die genetischen Sequenzierungen, die man vor einem Jahr kaufen konnte, kosten heute nur noch die Hälfte, und diese ausgeprägte Deflation wird sich auf die herkömmlichen physischen Produkte auswirken.«
Martin Ford: Sie glauben also, dass Technologien wie 3D-Druck, Fabrikroboter und KI-gestützte Agrarwirtschaft die Kosten für nahezu alle Produkte senken können?
Ray Kurzweil: Genau. In den 2020er-Jahren werden 3D-Drucker Kleidung drucken. Wir sind aus verschiedenen Gründen noch nicht ganz so weit, aber alles bewegt sich in die richtige Richtung. Wir werden mit 3D-Druckern auch modulare Bauteile herstellen, die sich in wenigen Tagen zu einem Gebäude zusammensetzen lassen. Die KI-gesteuerten Informationstechnologien werden letztendlich die Herstellung aller physischen Objekte ermöglichen, die wir benötigen.
Die Nutzung von Sonnenenergie wird erleichtert, indem durch Deep-Learning-Verfahren verbesserte Materialien entwickelt werden, wodurch die Kosten für Energiegewinnung und ‑speicherung schnell sinken. Die Gesamtmenge der gewonnenen Sonnenenergie verdoppelt sich alle zwei Jahre, und bei Windenergie gibt es den gleichen Trend. Die Nutzung von erneuerbaren Energiequellen muss sich nur noch fünf Mal alle zwei Jahre verdoppeln, um 100 Prozent unseres Energiebedarfs zu decken. Wir werden dann ein Tausendstel der Energie nutzen, die Sonne und Wind liefern können.
Christine Lagarde hat gesagt: »Okay, aber es gibt eine Ressource, die niemals zu einer Informationstechnologie werden kann, und das ist Land. Wir leben schon zusammengedrängt.« Ich habe geantwortet: »Das liegt nur daran, dass wir beschlossen haben, so zu leben und Städte gebaut haben, um Beruf und Freizeit -verbinden zu können«. Die Menschen haben schon damit angefangen, sich weiträumiger zu verteilen, weil unsere virtuelle Kommunikation stabiler geworden ist. Unternehmen Sie irgendwo auf der Welt eine Reise mit der Bahn, und Sie werden feststellen, dass 95 Prozent der Landfläche nicht genutzt wird.
Wenn wir die 2030er-Jahre erreichen, werden wir in der Lage sein, der gesamten menschlichen Bevölkerung eine sehr hohe Lebensqualität zu bieten, die über das hinausgeht, was wir heutzutage als hohen Lebensstandard betrachten. In einem TED-Talk habe ich die Vorhersage getroffen, dass es ein bedingungsloses Grundeinkommen geben wird, wenn wir die 2030er-Jahre erreichen, das tatsächlich gar nicht besonders hoch sein muss, um einen sehr hohen Lebensstandard zu ermöglichen.
Martin Ford: Sie sind also ein Befürworter des Grundeinkommens? Glauben Sie, dass nicht jeder einen Job finden oder vielleicht gar keinen Job brauchen wird, und dass es andere Einkommensquellen wie ein bedingungsloses Grundeinkommen geben wird?
Ray Kurzweil: Wir nehmen immer an, dass ein Job ein Weg zum Glück ist. Ich denke, dass hier Bedeutung und Zweck entscheidend sind. Die Menschen werden weiter miteinander wetteifern, um sich einbringen zu können und um Erfüllung zu finden.
Martin Ford: Aber man wird nicht unbedingt dafür bezahlt, dass man das tut, was man für sinnvoll hält?
Ray Kurzweil: Ich denke, wir werden das Wirtschaftsmodell verändern und dass wir damit bereits angefangen haben. Student in einem College zu sein, wird als erstrebenswert betrachtet. Das ist zwar keine Arbeit, wird aber dennoch als lohnende Tätigkeit betrachtet. Man wird kein Arbeitseinkommen benötigen, um in Bezug auf die physischen Bedürfnisse des Lebens einen sehr hohen Lebensstandard zu erreichen, und wir werden uns in Maslows Bedürfnishierarchie weiterhin nach oben bewegen. Das haben wir schon getan, Sie brauchen nur heute mit dem Jahr 1900 zu vergleichen.
Martin Ford: Was denken Sie über den vermeintlichen Wettbewerb mit China, eine fortgeschrittene KI zu erreichen? China ist im Vorteil, weil es dort weniger Regulierung beispielsweise hinsichtlich der Privatsphäre gibt. Zudem ist die Bevölkerung erheblich größer, wodurch mehr Daten erzeugt werden, und es bedeutet auch, dass China potenziell mehr junge Turings oder von Neumanns hervorbringen könnte.
Ray Kurzweil: Ich glaube nicht, dass es sich hier um ein Nullsummenspiel handelt. Wenn einem Forscher in China ein Durchbruch bei der Sonnenenergie oder beim Deep Learning gelingt, ist das für uns alle von Nutzen. China veröffentlicht, wie auch die USA, sehr viel, und die Informationen werden tatsächlich ziemlich freizügig geteilt. Denken Sie nur an Google, das TensorFlow, ein Deep-Learning-Framework, zu einem Public-Domain-Projekt gemacht hat. Und die Technologie, die Talk to Books und Smart Reply zugrunde liegt, haben wir als Open Source veröffentlicht.
Ich persönlich begrüße es, dass China Wert auf wirtschaftliche Entwicklung und Unternehmertum legt. Als ich kürzlich in China war, konnte man den enormen Unternehmergeist überall spüren. Ich kann China nur empfehlen, sich weiter in Richtung freier Informationsaustausch zu bewegen. Ich glaube, das ist für diese Art Fortschritt von grundlegender Bedeutung. Auf der ganzen Welt wird das Silicon Valley als motivierendes Vorbild betrachtet. Tatsächlich ist Silicon Valley nur eine Metapher für einen Unternehmergeist, der Experimentieren feiert und Fehlschläge als Erfahrung bezeichnet. Ich halte das für eine gute Sache und betrachte das Ganze nicht als internationalen Wettbewerb.
Martin Ford: Machen Sie sich Sorgen darüber, dass China ein autoritärer Staat ist, und dass es für diese Technologien beispielsweise auch militärische Anwendungen gibt? Unternehmen wie Google und natürlich DeepMind in London haben sehr deutlich gemacht, dass sie nicht wollen, dass ihre Technologie für etwas eingesetzt wird, das auch nur im Entferntesten mit Militär zu tun hat. Unternehmen wie Tencent und Baidu in China haben hier eigentlich keine Wahl. Sollten wir uns darüber Sorgen machen, dass es hier eine weiterhin bestehende Asymmetrie gibt?
Ray Kurzweil: Militärische Anwendung ist ein anderes Problem als die autoritäre Regierung. Die autoritäre Haltung der chinesischen Regierung macht mir Sorgen, und ich kann nur dazu raten, mehr Informationsfreiheit zuzulassen und demokratischer zu regieren. Ich denke, damit wäre China und allen anderen wirtschaftlich geholfen.
Ich denke, die politischen, sozialen und philosophischen Fragen bleiben sehr wichtig. Meine Befürchtung ist nicht, dass die KI verrücktspielt und eigenständig handelt, weil ich den Eindruck habe, dass sie umfassend mit uns verbunden ist. Ich mache mir Sorgen um die Zukunft der menschlichen Bevölkerung, die schon eine technologische Zivilisation ist. Wir werden damit fortfahren, uns selbst durch Technologie voranzubringen, deshalb ist es am vernünftigsten, die Sicherheit der KI dadurch zu gewährleisten, dass wir darauf achten, wie wir Menschen über uns selbst herrschen.
[1] Anm. des Übersetzers: Unabomber (university and airline bomber) nannte das FBI Ted Kaczynski, bevor seine Identität bekannt wurde. Er verschickte insgesamt 16 Briefbomben innerhalb der USA, hauptsächlich an Universitätsprofessoren und Vorstandsmitglieder von Fluggesellschaften.