Stuart J. Russell ist durch seine besonders bedeutsamen Beiträge im Fachgebiet der KI weltweit bekannt. Er ist Informatikprofessor und Leiter des Center for Human-Compat-ible Artificial Intelligence an der University of California, Berkeley. Russell ist Koautor des führenden KI-Lehrbuchs Artificial Intelligence: A Modern Approach (deutscher Titel: Künstliche Intelligenz: Ein moderner Ansatz), das weltweit in mehr als 1.300 Bildungseinrichtungen verwendet wird.
Sobald eine AGI das Leseniveau des Kindergartens überschritten hat, wird sie alles hinter sich lassen, was irgendein Mensch jemals erreicht hat und über ein sehr viel größeres Wissen verfügen als irgendein Mensch zuvor.
Martin Ford: In Anbetracht der Tatsache, dass Sie an einem der Standardlehrbücher über KI mitgewirkt haben, wäre es interessant, wenn Sie einige Schlüsselbegriffe der KI definieren. Wie definieren Sie KI? Was umfasst sie? Welche Art von Problemen in der Informatik würden Sie diesem Bereich zuordnen? Könnten Sie KI mit Machine Learning vergleichen oder davon abgrenzen?
Stuart J. Russell: Ich kann Ihnen die Standarddefinition von KI nennen, die derjenigen im Buch entspricht, die mittlerweile weitgehend akzeptiert worden ist: Ein System oder ein Wesen ist intelligent, wenn es das Richtige tut, also wenn seine Handlungen dazu führen, dass seine Ziele erreicht werden. Diese Definition ist sowohl auf Menschen als auch auf Maschinen anwendbar. Die Vorstellung, das Richtige zu tun, ist das entscheidende vereinheitlichende Prinzip der KI. Wenn wir dieses Prinzip aufschlüsseln und uns genauer ansehen, was erforderlich ist, um in der realen Welt das Richtige zu tun, stellen wir fest, dass ein funktionierendes KI-System über bestimmte grundlegende Fähigkeiten verfügen muss. Dazu gehören Dinge wie sinnliche Wahrnehmung, Sehen, Spracherkennung und Handlungsfähigkeit.
Diese Fähigkeiten sind bei der Definition von KI hilfreich. Hier geht es um die Fähigkeit, Robotergreifarme und alles andere in der Robotik anzusteuern, um die Fähigkeit, Entscheidungen zu treffen, zu planen und Probleme zu lösen und um die Fähigkeit, zu kommunizieren. Das Verstehen natürlicher Sprache wird deshalb für KI extrem wichtig.
Es geht aber auch um das interne Wissen. Es ist sehr schwierig, in der realen Welt Aufgaben erfolgreich zu lösen, wenn man nicht auf ein grundlegendes Wissen zurückgreifen kann. Um zu verstehen, wie wir Dinge wissen können, müssen wir uns mit einem wissenschaftlichen Gebiet befassen, das wir als Wissensrepräsentation bezeichnen. Hier untersuchen wir, wie Wissen intern gespeichert werden kann, das anschließend von schlussfolgernden Algorithmen verarbeitet wird, wie beispielsweise automatisierter logischer Deduktion oder probabilistischen Inferenz-Algorithmen.
Und dann gibt es noch das Lernen. In der modernen KI ist das Lernen eine entscheidende Fähigkeit. Machine Learning war schon immer ein Teilgebiet der KI und bedeutet einfach nur, anhand der Ergebnisse von Experimenten die Fähigkeit zu verbessern, das Richtige zu tun. Dabei könnte es sich etwa darum handeln, zu lernen, wie sich Buchstaben besser erkennen lassen, indem gekennzeichnete Beispielobjekte betrachtet werden. Oder zu lernen, durch Erfahrung besser zu schlussfolgern – wie etwa zu entdecken, welche Schlussfolgerungen bei der Lösung einer Aufgabe nützlich und welche Schritte weniger nützlich sind.
AlphaGo beispielsweise ist ein modernes KI-gestütztes Go-Programm, das kürzlich den besten menschlichen Spieler der Weltmeisterschaft geschlagen hat und tatsächlich lernt. Es lernt aus Erfahrung, bessere Schlussfolgerungen zu ziehen. AlphaGo erlernt nicht nur, die Stellung des Spiels zu beurteilen, sondern auch, wie es die eigenen Überlegungen steuern muss, um mit weniger Berechnungen die besten Spielzüge zu finden.
Martin Ford: Könnten Sie auch neuronale Netze und Deep Learning definieren?
Stuart J. Russell: Ja, beim Machine Learning gibt es ein Standardverfahren, das als »überwachtes Lernen« bezeichnet wird, bei dem wir dem KI-System eine Reihe von Beispielen für ein Konzept zusammen mit einer Beschreibung und einer Kennzeichnung bereitstellen, beispielsweise ein Foto mit sämtlichen Pixeln des Bilds und einer Kennzeichnung, die besagt, dass es sich um ein Foto eines Boots, eines Dalmatiners oder einer Schüssel Kirschen handelt. Das überwachte Lernen hat bei dieser Aufgabe zum Ziel, eine Vorhersagevariable zu finden bzw. eine Hypothese aufzustellen, wie Bilder im Allgemeinen zu klassifizieren sind.
Durch die Trainingsbeispiele des überwachten Lernens versuchen wir, einer KI die Fähigkeit zu verleihen, Bilder zu erkennen, z. B. von einem Dalmatiner, und vorherzusagen, wie andere Bilder eines Dalmatiners aussehen könnten.
Ein neuronales Netz stellt eine Möglichkeit dar, die Hypothese oder die Vorhersagevariable zu repräsentieren. Dabei handelt es sich im Wesentlichen um eine komplizierte Zusammenschaltung von Neuronen mit vielen Schichten. Die Eingabe für diese Schaltung könnten die Pixelwerte von Dalmatiner-Bildern sein. Wenn diese Werte die Schaltung durchlaufen, werden in jeder Schicht neue Werte berechnet. Zum Schluss erhalten wir die Ausgabe des neuronalen Netzes, nämlich die Vorhersage, welche Art von Objekt erkannt wurde.
Wenn auf dem Eingabebild ein Dalmatiner zu sehen ist und alle Pixelwerte das neuronale Netz mit all seinen Schichten und Verknüpfungen durchlaufen haben, sollten die Ausgabeindikatoren für Dalmatiner hoffentlich hohe Werte und diejenigen für eine Schüssel Kirschen niedrige Werte besitzen. Wir sprechen in diesem Fall davon, dass unser neuronales Netz einen Dalmatiner richtig erkannt hat.
Martin Ford: Wie bringen Sie ein neuronales Netz dazu, Bilder zu erkennen?
Stuart J. Russell: Hier kommt der Lernvorgang ins Spiel. Die Stärke der Verknüpfungen in der Schaltung lässt sich ändern, und der Lernalgorithmus passt diese Stärke so an, dass das Netz tendenziell die richtigen Vorhersagen für die Trainingsbeispiele liefert. Wenn Sie Glück haben, liefert das Netz dann auch bei völlig unbekannten Bildern, die es noch nie gesehen hat, die richtige Vorhersage. Das ist ein neuronales Netz!
Wenn wir einen Schritt weitergehen, kommen wir zum Deep Learning, bei dem neuronale Netze mit vielen Schichten zum Einsatz kommen. Es gibt keinen Mindestwert für die Anzahl der Schichten eines neuronalen Netzes, um es als »tief« zu bezeichnen, aber für gewöhnlich würden wir bei einem Netz mit zwei oder drei Schichten nicht von einem Deep-Learning-Netz sprechen, bei vier oder mehr hingegen schon.
Manche Deep-Learning-Netze bestehen aus tausend oder mehr Schichten. Dank der großen Anzahl der Schichten können wir sehr komplexe Transformationen zwischen Ein- und Ausgabe repräsentieren, indem wir sehr viel einfachere Transformationen hintereinanderschalten, die jeweils durch eine der Schichten des Netzes repräsentiert werden.
Die Deep-Learning-Hypothese besagt, dass viele Schichten es dem Lernalgorithmus erleichtern, eine Vorhersagevariable zu finden, um alle Verknüpfungsstärken im Netz so anzupassen, dass es gut funktioniert.
Beim theoretischen Verständnis, wann und weshalb die Deep-Learning-Hypothese zutrifft, stehen wir noch ganz am Anfang, aber größtenteils ist es immer noch eine Art Zauberei, weil es tatsächlich gar nicht unbedingt auf diese Weise vor sich gehen muss. Offenbar besitzen Bilder, Töne und Sprachaufnahmen aus der realen Welt eine Eigenschaft, die dafür verantwortlich ist, dass es aus irgendeinem Grund relativ einfach ist, eine gute Vorhersagevariable zu erlernen, wenn die Daten in ein Deep-Learning-Netz eingespeist werden. Aber warum das so ist, kann niemand sagen.
Martin Ford: Deep Learning wird derzeit unglaublich viel Aufmerksamkeit geschenkt, und man kann leicht den Eindruck gewinnen, dass KI mit Deep Learning gleichbedeutend ist. Aber Deep Learning ist doch eigentlich nur ein relativ kleines Teilgebiet, oder?
Stuart J. Russell: Ja, es wäre ein großer Fehler zu glauben, dass Deep Learning dasselbe ist wie KI, denn die Fähigkeit, einen Dalmatiner von einer Schüssel Kirschen zu unterscheiden, mag zwar nützlich sein, stellt aber nur einen sehr kleinen Bruchteil der Fähigkeiten dar, die wir einer KI verleihen müssen, damit sie erfolgreich funktioniert. Sinnliche Wahrnehmung und Bilderkennung sind in der realen Welt zwar von großer Bedeutung, aber Deep Learning ist nur ein Teil des Gesamtbilds.
AlphaGo und der Nachfolger AlphaZero haben dank der erstaunlichen Fortschritte bei Go und Schach einen ziemlichen Medienrummel um Deep Learning verursacht, aber tatsächlich handelt es sich um Hybridsysteme aus einer klassischen, suchbasierten KI und einem Deep-Learning-Algorithmus, der die einzelnen Spielstellungen beurteilt, die von der klassischen KI durchsucht werden. Die Fähigkeit, zwischen guten und schlechten Spielstellungen zu unterscheiden, ist für AlphaGo zwar von zentraler Bedeutung, aber nur durch Deep Learning wäre das System nicht in der Lage, Go auf Weltklasseniveau zu spielen.
Selbstfahrende Autos verwenden ebenfalls aus einer klassischen suchbasierten KI und Deep Learning bestehende Hybridsysteme. Es sind also keine reinen Deep-Learning-Systeme, denn das funktioniert nicht besonders gut. Zur Bewältigung vieler Fahrsituationen sind die Regeln einer klassischen KI erforderlich. Wenn man sich beispielsweise auf der Mittelspur befindet und auf die rechte Spur wechseln möchte, während dort gerade jemand überholt, sollte man den Überholvorgang abwarten, bevor man die Spur wechselt. In Situationen, in denen vorausschauendes Fahren erforderlich ist, weil es keine zufriedenstellenden Regeln dafür gibt, könnte es notwendig sein, sich die verschiedenen möglichen Fahrweisen des eigenen Fahrzeugs und der anderen Fahrzeuge vorzustellen und zu entscheiden, ob das Ergebnis gut oder schlecht ist.
Die Wahrnehmung ist zwar sehr wichtig, und Deep Learning ist für entsprechende Aufgaben gut geeignet, es gibt jedoch viele verschiedene Arten von Fähigkeiten, die wir einem KI-System verleihen müssen. Das trifft insbesondere auf Aktivitäten zu, die sich über einen langen Zeitraum erstrecken, wie beispielsweise in den Urlaub zu fahren, oder auf sehr komplexe Aktionen, wie der Bau einer Fa-brik. Es ist nicht möglich, solche Aktivitäten mit Blackbox-Systemen durchzuführen, die reines Deep Learning verwenden.
Lassen Sie mich die Beschränkungen von Deep Learning anhand des Beispiels einer Fabrik veranschaulichen. Nehmen wir an, wir versuchen, Deep Learning zu verwenden, um eine Fabrik zu bauen. (Wir Menschen wissen immerhin, wie man eine Fabrik baut, oder?) Wir nutzen also Milliarden früherer Beispiele des Baus von Fabriken, um einen Deep-Learning-Algorithmus zu trainieren. Wir stellen ihm alle Möglichkeiten bereit, wie Menschen Fabriken gebaut haben. Wir nehmen die Daten, speisen sie in ein Deep-Learning-System ein, und anschließend weiß es, wie man Fabriken baut. Wäre das möglich? Nein, das ist eine reine Wunschvorstellung. Solche Daten gibt es nicht – und selbst wenn es sie gäbe, würde es keinen Sinn ergeben, zu versuchen, auf diese Weise eine Fabrik zu bauen.
Zum Bau von Fabriken ist Wissen erforderlich. Wir müssen Baupläne erstellen können. Wir müssen in der Lage sein, über physische Hindernisse und strukturelle Eigenschaften des Gebäudes nachzudenken. Wir können zwar KI-Systeme entwickeln, die solche Aufgaben lösen, mit Deep Learning lässt sich das jedoch nicht erreichen. Zum Bau einer Fabrik ist eine völlig andere Art von KI erforderlich.
Martin Ford: Gab es in jüngster Zeit Fortschritte in der KI, von denen Sie denken, dass sie mehr als nur inkrementell sind? Was steht Ihrer Ansicht nach derzeit an vorderster Front des Forschungsgebiets?
Stuart J. Russell: Das ist eine gute Frage, denn viele der Dinge, die gerade Schlagzeilen machen, sind nicht gerade konzeptuelle Durchbrüche, sondern lediglich Veranschaulichungen. Der Sieg von Deep Blue über Kasparow im Schach ist ein hervorragendes Beispiel. Deep Blue war im Wesentlichen eine Veranschaulichung für Algorithmen, die 30 Jahre früher entwickelt worden waren. Sie wurden sukzessive verbessert und konnten auf immer leistungsfähigere Hardware zurückgreifen, bis sie schließlich in der Lage waren, den Schachweltmeister zu schlagen. Der eigentliche konzeptuelle Durchbruch bei Deep Blue war das Design des Schachprogramms: Die Funktionsweise der Vorausberechnung von Zügen, die sogenannten Alpha-Beta-Algorithmen, die den erforderlichen Suchaufwand reduzierten und einige der Verfahren bei der Entwicklung der Bewertungsfunktionen. Die Medien haben den Sieg von Deep Blue als Durchbruch beschrieben, obwohl der wahre Durchbruch Jahrzehnte früher stattfand.
Das Gleiche geschieht auch heute noch. Viele der jüngsten KI-Berichte mit Schlagzeilen über Bild- und Spracherkennung, deren Trefferquote die von Menschen erreicht oder übertrifft, zeigen die beeindruckenden Ergebnisse praktischer Entwicklungen. Es handelt sich jedoch lediglich um Veranschaulichungen konzeptueller Durchbrüche, die sehr viel früher stattgefunden haben – nämlich bei der Entwicklung der ersten Deep-Learning-Systeme und Convolutional Neural Networks (CNNs) Ende der 1980er- und Anfang der 1990er-Jahre.
Es war etwas überraschend, dass uns die Tools für eine erfolgreiche Implementierung sinnlicher Wahrnehmung schon vor Jahrzehnten zur Verfügung standen – wir haben sie nur nicht richtig eingesetzt. Durch die Anwendung moderner Verfahren auf ältere Durchbrüche und durch das Sammeln und Verarbeiten großer Datenmengen auf der neuesten Hardware haben wir es geschafft, in jüngster Zeit viel Interesse für KI zu wecken, aber das ist nicht unbedingt die vorderste Front der KI.
Martin Ford: Denken Sie, dass AlphaZero von DeepMind ein gutes Beispiel für eine Technologie ist, die an vorderster Front der KI-Forschung steht?
Stuart J. Russell: Ich denke, AlphaZero war interessant. Für mich war es nicht besonders überraschend, dass man die Software, die Go spielt, auch dazu verwenden kann, Schach oder Shogi auf Weltklasseniveau zu spielen. So gesehen war das nicht der Vorreiter der KI.
Man kommt natürlich schon ins Grübeln, wenn man bedenkt, dass AlphaZero mit der gleichen Software in einem Zeitraum von weniger als 24 Stunden erlernt hat, drei verschiedene Spiele besser als Menschen zu spielen. Aber das ist eher eine Rechtfertigung für einen KI-Ansatz, der Folgendes behauptet: Wenn eine Klasse von Problemen gut verstanden ist – und das ist bei einem deterministischen Spiel für zwei Personen mit festen Regeln, das Zug um Zug gespielt wird und vollständig beobachtbar ist, zweifelsohne der Fall –, dann sind diese Probleme für eine vernünftig designte Klasse von KI-Algorithmen zugänglich. Und diese Algorithmen gibt es schon länger – Algorithmen, die gute Bewertungsfunktionen erlernen können und klassische Methoden zur Suche verwenden.
Wenn man diese Verfahren für andere Klassen von Problemen erweitern möchte, sollte klar sein, dass diese Algorithmen andere Strukturen besitzen müssen. Eingeschränkte Beobachtbarkeit – damit ist gemeint, dass man sozusagen das Spielbrett nicht sehen kann – erfordert beispielsweise eine andere Art von Algorithmen. AlphaZero kann also zum Beispiel nicht Poker spielen oder ein Auto steuern. Für diese Aufgaben ist ein KI-System erforderlich, das Dinge, die es nicht sehen kann, einschätzt. AlphaZero geht davon aus, dass die Figuren auf dem Spielbrett vollständig sind und das war’s.
Martin Ford: An der Carnegie Mellon University wurde doch auch einmal ein KI-System namens Libratus entwickelt, das Poker spielen konnte? Gab es dort einen echten KI-Durchbruch?
Stuart J. Russell: Die Poker-KI Libratus der Carnegie Mellon University war ein weiteres sehr beeindruckendes Beispiel für eine Hybrid-KI. Es handelte sich um eine Kombination aus mehreren verschiedenen zusammengeschalteten Algorithmen, die der Forschung der letzten 10 oder 15 Jahre entstammten. Beim Umgang mit Spielen wie Poker, bei denen Informationen nur partiell vorliegen, wurden große Fortschritte erzielt. Bei derartigen Spielen ist eine randomisierte Spielstra-tegie erforderlich, denn wenn man immer blufft, bemerken die Gegner das und reagieren entsprechend. Aber wenn man niemals blufft, wird man seinem Gegner auch niemals ein Spiel abnehmen, wenn man ein schlechtes Blatt hat. Deshalb ist schon lange bekannt, dass bei Kartenspielen dieser Art ein zufälliges Spielverhalten erforderlich ist, damit mit einer gewissen Wahrscheinlichkeit geblufft wird.
Um wirklich gut Poker zu spielen, ist es entscheidend, diese Wahrscheinlichkeiten an den Einsatz anzupassen, also wie oft man mehr einsetzt, als durch das Blatt gerechtfertigt ist und wie oft man weniger einsetzt. Die Berechnung dieser Wahrscheinlichkeiten ist für eine KI machbar und kann sehr genau ausgeführt werden, allerdings nur für »kleine« Poker-Versionen, bei denen der Stapel nur aus einigen wenigen Karten besteht. Diese Berechnungen für ein vollständiges Kartenspiel exakt auszuführen, ist für eine KI sehr schwierig. In den vielleicht 10 Jahren, in denen daran gearbeitet wurde, größere Kartenmengen zu verarbeiten, gab es allmählich Verbesserungen bei der Genauigkeit und der Effizienz der Berechnung dieser Wahrscheinlichkeiten für immer »größere« Poker-Versionen.
Also ja, Libratus ist eine weitere beeindruckende moderne KI-Anwendung. Aber in Anbetracht der Tatsache, dass es ein Jahrzehnt gedauert hat, eine nur unwesentlich »größere« Poker-Version zu verarbeiten, bin ich nicht davon überzeugt, dass die Verfahren überhaupt skalierbar sind. Ich denke auch, dass es eine berechtigte Frage ist, inwieweit diese spieltheoretischen Konzepte überhaupt auf die reale Welt anwendbar sind. Wir sind uns nicht bewusst, im alltäglichen Leben Zufall einzubringen, obwohl – so viel steht fest – die Welt voller Agenten ist. Es bleibt wohl Spieltheorie, und dennoch nehmen wir nicht wahr, dass wir im Alltag den Zufall einfließen lassen.
Martin Ford: Selbstfahrende Autos sind eine der bekanntesten Anwendungen der KI. Was glauben Sie, wann vollständig autonome Fahrzeuge zu einer wirklich praktikablen Technologie werden? Stellen Sie sich vor, Sie befinden sich irgendwo in Manhattan und rufen ein Uber-Fahrzeug. Wenn es eintrifft, befindet sich niemand darin, und es befördert sie anschließend zu einem beliebigen Ziel, das Sie angegeben haben. Wie lange wird es Ihrer Meinung nach realistischerweise noch dauern, bis es so weit ist?
Stuart J. Russell: Ja, der Zeitplan für selbstfahrende Autos ist eine konkrete Fragestellung, die auch wirtschaftlich von Bedeutung ist, weil Unternehmen viel Geld in diese Projekte investieren.
Hier ist erwähnenswert, dass es das erste selbstfahrende Auto, das auf einer öffentlichen Straße betrieben wurde, schon vor 30 Jahren gab! Ernst Dickmann führte damals in Deutschland ein Auto vor, das auf der Autobahn fuhr, Spuren wechselte und andere Fahrzeuge überholte. Das eigentliche Problem ist natürlich Vertrauen: Eine kurze erfolgreiche Vorführung ist problemlos möglich, aber ein KI-System muss jahrzehntelang ohne nennenswerte Fehler funktionieren, damit ein Fahrzeug als sicher gilt.
Die Herausforderung besteht also darin, ein KI-System zu entwickeln, dem Menschen ihr Leben und das Leben ihrer Kinder anvertrauen, und ich denke, dass wir noch nicht so weit sind.
Derzeit in Kalifornien durchgeführte Tests deuten darauf hin, dass die Menschen noch immer das Gefühl haben, dass sie eingreifen müssen, manchmal sogar nach jedem gefahrenen Kilometer. Es gibt weitere erfolgreiche KI-Projekte, die Autos steuern, wie etwa Waymo, Googles Tochterunternehmen, das sich damit befasst und respektable Ergebnisse erzielt hat. Dennoch glaube ich, dass sie noch einige Jahre brauchen werden, bis sie in der Lage sind, das System unter vielfältigen Bedingungen einzusetzen.
Die meisten dieser Tests wurden unter guten Bedingungen auf gut gekennzeichneten Straßen durchgeführt. Aber wie Sie wissen, ist man dann doch im Dunkeln unterwegs, dann regnet es Bindfäden, die Scheinwerfer werden von der nassen Straße reflektiert, und womöglich wurde auch noch die Fahrbahnmarkierung wegen Straßenbauarbeiten geändert. Wenn Sie der Markierung der alten Spur folgen, fahren Sie direkt gegen eine Wand. Unter solchen Umständen haben KI-Systeme es wirklich schwer. Deshalb glaube ich, dass wir uns glücklich schätzen können, wenn das Problem selbstfahrender Autos in den nächsten fünf Jahren zufriedenstellend gelöst wird.
Ich weiß natürlich nicht, wie viel Geduld die großen Autohersteller haben. Ich denke, dass sich alle der Idee verpflichtet fühlen, dass selbstfahrende Autos kommen werden. Und natürlich sind die großen Hersteller der Meinung, dass sie von Anfang an mit dabei sein müssen, weil ihnen sonst eine große Gelegenheit entgeht.
Martin Ford: Wenn ich gefragt werde, wann selbstfahrende Autos kommen, sage ich den Leuten, dass sie mit einem Zeitrahmen von 10 bis 15 Jahren rechnen müssen. Ihre Schätzung von fünf Jahren erscheint sehr optimistisch.
Stuart J. Russell: Ja, fünf Jahre sind optimistisch. Aber wie ich gesagt habe, können wir uns glücklich schätzen, wenn es in fünf Jahren selbstfahrende Autos gibt und es kann leicht länger dauern. Es steht jedoch fest, dass viele Ideen der ersten ziemlich einfachen Architekturen für selbstfahrende Autos jetzt, da wir mehr Erfahrung haben, verworfen werden.
In den ersten Versionen von Googles Auto gab es ein chipbasiertes visuelles System, das andere Fahrzeuge, Fahrbahnmarkierungen, Hindernisse und Fußgänger ziemlich gut erkennen konnte. Diese Systeme übergaben diese Informationen mithilfe einer Art Logikformular, und der Controller wendete Logikregeln an und erteilte dem Auto Fahranweisungen. Das Problem war, dass Google jeden Tag neue Regeln hinzufügen musste. Wenn sich etwa ein Auto in einen Kreisverkehr befand, in dem ein kleines Mädchen auf einem Fahrrad in der falschen Richtung fuhr, dann gab es dafür keine Regel. Also mussten sie eine neue anlegen und so weiter und so fort. Ich glaube nicht, dass eine derartige Architektur langfristig funktionieren kann, weil ständig neue Regeln hinzukommen, die kodiert werden müssen, und es eine Frage von Leben und Tod sein kann, wenn eine bestimmte Regel fehlt.
Wenn wir Schach oder Go spielen, gibt es schließlich auch nicht haufenweise Regeln für verschiedene Spielstellungen – sodass beispielweise ein bestimmter Zug ausgeführt wird, wenn sich König, Dame und Turm eines Spielers an bestimmten Positionen befinden. So funktionieren Schachprogramme nicht. Wir kennen die Spielregeln und überprüfen, welche Folgen verschiedene mögliche Züge haben.
Die KI eines selbstfahrenden Autos muss auf die gleiche Weise mit unerwarteten Umständen auf der Straße zurechtkommen, nicht durch Anwendung spezieller Regeln. Sie sollte diese Form einer vorausschauenden Entscheidungsfindung nutzen, wenn es für die gegebenen Umstände keine vorgefertigten Fahranweisungen gibt. Wenn eine KI nicht auf einen solchen Ansatz zurückgreifen kann, wird sie in einigen Situationen Fehler begehen und nicht sicher fahren. Für den praktischen Einsatz reicht das natürlich nicht aus.
Martin Ford: Sie haben auf die Beschränkungen der aktuellen spezialisierten KI-Technologie hingewiesen. Sprechen wir über die Aussichten für eine AGI, die verspricht, diese Probleme eines Tages zu lösen. Können Sie erklären, was Artificial General Intelligence eigentlich ist? Was genau bedeutet AGI, und was sind die größten Hindernisse, die wir überwinden müssen, um eine AGI zu erreichen?
Stuart J. Russell: Artificial General Intelligence ist ein vor Kurzem geprägter Begriff und im Grunde genommen lediglich eine Gedächtnisstütze, die uns an das eigentliche Ziel der KI erinnert – eine Allzweck-Intelligenz, die unserer eigenen ähnelt. So gesehen ist AGI eigentlich das, was wir schon immer als KI bezeichnet haben. Wir sind nur noch nicht fertig und haben bislang keine AGI erschaffen können.
Die KI hatte immer zum Ziel, intelligente Allzweck-Maschinen zu entwickeln. Der Begriff AGI erinnert uns auch daran, dass wir den »Allzweck«-Teil unserer KI-Ziele zugunsten bestimmter Teilaufgaben und Anwendungsfälle oft vernachlässigt haben. Das liegt daran, dass es in der Praxis bislang einfacher war, solche Teil-aufgaben zu lösen, wie etwa Schach zu spielen. Wenn wir noch einmal kurz AlphaZero betrachten: Das System funktioniert für eine bestimme Klasse von Problemen, nämlich deterministische, vollständig beobachtbare Brettspiele für zwei Spieler. Es ist jedoch kein allgemeiner Algorithmus, der für alle Klassen von Pro-blemen geeignet ist. AlphaZero kommt mit eingeschränkter Beobachtbarkeit nicht zurecht, auch nicht mit Unvorhersehbarkeit; es geht davon aus, dass die Regeln bekannt sind. AlphaZero kann sozusagen nicht mit unbekannten Gegebenheiten umgehen.
Wenn wir die Beschränkungen, denen AlphaZero unterliegt, allmählich beseitigen könnten, hätten wir schließlich ein KI-System, das praktisch unter allen möglichen Umständen funktionieren würde. Wir könnten es anweisen, ein Schnellboot zu entwickeln oder den Tisch fürs Abendessen zu decken. Wir könnten es anweisen, herauszufinden, was dem Hund fehlt, und es wäre in der Lage, diese Aufgabe zu erledigen – vielleicht sogar, indem es alles über Tiermedizin liest, was je veröffentlicht wurde und diese Informationen nutzt, um herauszufinden, worunter der Hund leidet.
Wir glauben, dass diese Art Fähigkeit die allgemeine Intelligenz widerspiegelt, die Menschen besitzen. Im Prinzip könnte ein Mensch, genügend Zeit vorausgesetzt, all dies ebenfalls erledigen – und sogar noch viel mehr. Das ist die Vorstellung der Allgemeingültigkeit, die wir im Sinn haben, wenn wir von einer AGI sprechen: eine wirklich allgemeine Allzweck-KI.
Es gibt natürlich auch Dinge, die Menschen nicht können, eine AGI aber sehr wohl. Wir sind nicht in der Lage, im Kopf millionenstellige Zahlen miteinander zu multiplizieren, aber für einen Computer ist das relativ einfach. Wir nehmen also an, dass Computer tatsächlich in der Lage sein könnten, umfassendere Allgemeingültigkeit zu zeigen als Menschen.
Hier muss aber darauf hingewiesen werden, dass es sehr unwahrscheinlich ist, dass Maschinen und Menschen irgendwann einmal im folgenden Sinn vergleichbar sind. Wenn eine Maschine erst einmal in der Lage ist, zu lesen, kann sie grundsätzlich alle Bücher lesen, die jemals geschrieben worden sind. Kein Mensch könnte auch nur einen winzigen Bruchteil aller jemals geschriebenen Bücher lesen. Sobald eine AGI das Leseniveau des Kindergartens überschritten hat, wird sie alles hinter sich lassen, was irgendein Mensch jemals erreicht hat und über ein sehr viel größeres Wissen verfügen als irgendein Mensch zuvor.
In diesem Sinn – und in vielen anderen – wird vermutlich Folgendes geschehen: Maschinen werden die menschlichen Fähigkeiten in vielen wichtigen Bereichen weit übertreffen. Es wird womöglich auch Bereiche geben, in denen sie ziemlich unterentwickelt bleiben und so gesehen nicht besonders menschenähnlich sind. Das heißt aber nicht, dass ein Vergleich von Menschen und AGI-Maschinen bedeutungslos ist. Langfristig wird unser Verhältnis zu Maschinen entscheidend sein und die Fähigkeit der AGI-Maschinen, in der Praxis zu funktionieren.
Es gibt Bereiche der Intelligenz (wie z. B. das Kurzzeitgedächtnis), in denen Affen Menschen übertreffen. Dessen ungeachtet gibt es keinen Zweifel daran, welche Spezies dominiert. Das Schicksal eines Gorillas oder eines Schimpansen liegt vollständig in der Hand von Menschen. Das liegt daran, dass wir – trotz unseres im Vergleich zu Gorillas oder Schimpansen ziemlich armseligen Kurzzeitgedächtnisses – in der Lage sind, diese Tiere aufgrund unserer Fähigkeit, in der realen Welt Entscheidungen zu treffen, zu dominieren.
Wir werden zweifelsohne dem gleichen Problem gegenüberstehen, wenn wir eine AGI erschaffen: Wie können wir vermeiden, das gleiche Schicksal zu erleiden wie Gorillas und Schimpansen und die Kontrolle über unsere Zukunft nicht der AGI überlassen?
Martin Ford: Das ist eine beängstigende Frage. Sie haben vorhin davon gesprochen, dass konzeptuelle Durchbrüche der Realität oft Jahrzehnte voraus sind. Können Sie irgendwelche Hinweise darauf erkennen, dass es schon konzeptuelle Durchbrüche für das Erschaffen einer AGI gegeben hat, oder liegt eine AGI noch in ferner Zukunft?
Stuart J. Russell: Ich habe den Eindruck, dass es viele der konzeptuellen Bausteine für eine AGI schon gibt, ja. Wir können damit anfangen, diese Frage erkunden, indem wir uns die Frage stellen: »Weshalb können Deep-Learning-Systeme nicht die Grundlage für AGI bilden, was stimmt mit ihnen nicht?«.
Viele Leute würden darauf antworten: »Deep-Learning-Systeme sind schön und gut, aber wir wissen nicht, wie wir Wissen speichern, Schlussfolgerungen ziehen oder aussagekräftigere Modelle entwickeln können, weil Deep-Learning-Systeme einfach nur neuronale Verknüpfungen sind, die kaum Ausdrucksfähigkeit besitzen«.
Und weil diese neuronalen Verknüpfungen nun einmal nicht sehr aussagekräftig sind, kommt auch niemand auf den Gedanken, für die Gehaltsabrechnungssoftware solche neuronalen Verknüpfungen zu verwenden. Stattdessen verwenden wir dafür Programmiersprachen. Eine mit neuronalen Verknüpfungen programmierte Gehaltsabrechnungssoftware wäre Milliarden Seiten lang, ziemlich nutzlos und unflexibel. Im Gegensatz dazu sind Programmiersprachen sehr aussagekräftig und leistungsstark. Tatsächlich sind sie bezüglich der Formulierung algorithmischer Vorgänge am leistungsfähigsten.
Eigentlich wissen wir bereits, wie man Wissen repräsentiert und Schlussfolgerungen zieht: Wir haben seit geraumer Zeit Berechnungslogik entwickelt. Schon bevor es Computer gab, wurden für logische Schlussfolgerungen algorithmische Verfahren eingesetzt.
Einige der konzeptuellen Bausteine für eine AGI sind also wohl schon seit Jahrzehnten verfügbar. Wir haben nur noch nicht herausgefunden, wie wir sie mit den sehr beeindruckenden Lernfähigkeiten des Deep Learnings kombinieren können.
Die Menschheit hat bereits eine Technologie entwickelt, die als probabilistische Programmierung bezeichnet wird und Lernfähigkeiten mit der Aussagekraft von logischen Formulierungen und Programmiersprachen kombiniert. Mathematisch betrachtet stellen solche probabilistischen Programmiersysteme eine Möglichkeit dar, Wahrscheinlichkeitsmodelle zu repräsentieren, die dann mit den gegebenen Tatsachen kombiniert werden, um mithilfe probabilistischer Inferenz Vorhersagen zu treffen.
In meiner Forschungsgruppe verwenden wir eine Programmiersprache namens BLOG, eine Abkürzung für Baysian Logic. BLOG ist eine probabilistische Modellierungssprache, mit der man das Wissen in Form eines BLOG-Modells erfassen kann. Dann kombiniert man dieses Wissen mit Daten und lässt Schlussfolgerungen ziehen, die wiederum Vorhersagen liefern.
Ein praktisches Beispiel hierfür ist das Überwachungssystem für den Kernwaffenteststopp-Vertrag. Es funktioniert folgendermaßen: Wir erfassen das Wissen über die Geophysik der Erde, unter anderem wie sich seismische Wellen in der Erde ausbreiten, wie diese gemessen werden, wie sich das Vorhandensein von Rauschen bemerkbar macht, wo sich die Messstationen befinden und so weiter. Das ist das Modell – das in einer formalen Sprache ausgedrückt wird und auch alle Unwägbarkeiten berücksichtigt, beispielsweise die Unsicherheit bei der Vorhersage der Ausbreitungsgeschwindigkeit eines seismischen Signals in der Erde. Die Rohdaten sind die seismischen Informationen, die von den auf der ganzen Welt verstreuten Messstationen geliefert werden. Nun kommen wir zur Vorhersage: Welche seismischen Ereignisse haben heute stattgefunden? Wo und in welcher Tiefe haben sie stattgefunden? Wie stark waren sie? Und vielleicht auch: Welche wurden wahrscheinlich durch eine Nuklearwaffe verursacht? Dieses System wird heutzutage zur aktiven Überwachung des Atomteststoppabkommens eingesetzt und scheint ziemlich gut zu funktionieren.
Ich fasse zusammen: Ich denke, dass viele der für eine AGI oder eine KI auf menschlichem Niveau erforderlichen konzeptuellen Bausteine schon vorhanden sind, es fehlen aber noch einige. Wir brauchen etwa einen klaren Ansatz für das Verstehen natürlicher Sprache, um Wissensstrukturen zu erstellen, die von schlussfolgernden Prozessen verarbeitet werden. Das bekannteste Beispiel dürfte das Folgende sein: Wie kann es gelingen, dass eine AGI ein Lehrbuch für Chemie liest und anschließend eine Reihe von Prüfungsaufgaben löst? Wohlgemerkt kein Auswählen aus einer Reihe von Antwortvorgaben, sondern richtige Aufgaben einer Chemieprüfung, deren Lösung begründet werden muss, inklusive ihrer Herleitung und der Argumente, die zu ihr geführt haben. Wenn das grundsätzlich und auf elegante Weise möglich ist, sollte die AGI in der Lage sein, auch Lehrbücher für Physik, Biologie, Werkstoffkunde usw. zu lesen.
Martin Ford: Vorstellbar ist auch ein AGI-System, das einem Geschichtsbuch Wissen entnimmt und das Gelernte anwendet, um die zeitgenössische Geopolitik zu simulieren, oder etwas Ähnliches in dieser Art, wobei jedenfalls das Wissen auf einen völlig anderen Bereich angewendet wird.
Stuart J. Russell: Ja, das ist ein gutes Beispiel, weil es die Fähigkeit eines KI-Systems betrifft, die reale Welt in geopolitischer oder auch finanzieller Hinsicht zu beeinflussen.
Wenn beispielsweise eine KI einen Geschäftsführer bei der Unternehmensstrategie berät, könnte sie in der Lage sein, alle anderen Unternehmen auszustechen, indem sie eine verblüffende Vermarktungsstrategie entwickelt und so weiter.
Ich würde sagen, dass die Fähigkeit, Sprache zu verstehen und aufgrund dieses Verstehens zu handeln, ein wichtiger Durchbruch auf dem Weg zu einer AGI ist, der noch stattfinden muss.
Die Fähigkeit, über längere Zeiträume tätig zu sein, ist ein weiterer notwendiger Durchbruch, der noch nicht stattgefunden hat. AlphaZero ist zwar ein System, das Aufgaben erstaunlich gut lösen kann und dabei 20, manchmal 30 Schritte vorausdenkt, aber das ist so gut wie nichts im Vergleich zu dem, was das menschliche Gehirn in jedem Augenblick leistet. Wir Menschen senden als einfache Schritte Steuersignale an unsere Muskeln. Schon das Eingeben eines Textabsatzes erfordert zig Millionen Muskelsteuerungssignale. Die 20 oder 30 Schritte von AlphaZero würden eine AGI gerade einmal ein paar Millisekunden voranbringen. Wie wir vorhin schon festgestellt haben, wäre AlphaZero für die Planung der Aktivitäten eines Roboters völlig nutzlos.
Martin Ford: Wie lösen Menschen dieses Problem so vieler Berechnungen und Entscheidungen, wenn sie sich durch die Welt bewegen?
Stuart J. Russell: Menschen und Roboter können sich in der realen Welt nur mithilfe mehrerer Abstraktionsebenen unterschiedlicher Größe bewegen. Wir planen unser Leben ja nicht, indem wir exakt festlegen, welche Aktionen wir in einer genauen Reihenfolge ausführen. Stattdessen denken wir uns »Okay, heute Nachmittag werde ich versuchen, das nächste Kapitel meines Buchs zu schreiben« und anschließend: »Es geht um dieses und jenes«. Oder vielleicht »Morgen steige ich ins Flugzeug und fliege zurück nach Paris«.
Das sind abstrakte Handlungen. Und wenn wir anfangen, sie ausführlicher zu planen, unterteilen wir sie in kleinere Schritte. Das ist der gesunde Menschenverstand. Wir handeln ständig so, verstehen aber tatsächlich nicht besonders gut, wie wir KI-Systeme dazu bringen können. Wir verstehen insbesondere noch nicht, wie wir KI-Systeme dazu bringen können, diese abstrakten Handlungen überhaupt zusammenzustellen. Das Verhalten ist zweifelsohne durch die verschiedenen Abstraktionsebenen hierarchisch organisiert, aber woher kommt diese Hierarchie? Wie können wir sie erzeugen und anschließend verwenden?
Wenn wir dieses Problem der KI lösen können und Maschinen ihre eigene Verhaltenshierarchien erzeugen, die es ihnen ermöglichen, in komplexen Umgebungen über längere Zeiträume zu funktionieren, wird das auf dem Weg zu einer AGI ein großer Durchbruch sein, der uns einer KI auf menschlichem Niveau in der realen Welt ein gutes Stück näher bringt.
Martin Ford: Wie lautet ihre Vorhersage dafür, wann wir eine AGI erreichen könnten?
Stuart J. Russell: Diese Arten von Durchbrüchen haben nichts mit größeren Datenmengen oder schnelleren Computern zu tun, deshalb können wir keine quantitativen Vorhersagen treffen, wann sie eintreten werden.
Ich erzähle immer gern die Geschichte, die sich in der Kernphysik abgespielt hat. Die übereinstimmende Meinung war damals, wie Ernest Rutherford es am 11. September 1933 in einer Rede formuliert hat, dass es niemals möglich sein wird, aus Atomen Energie zu gewinnen. Seine Vorhersage lautete also »niemals«, aber wie sich herausstellen sollte, las Leo Szilard am nächsten Morgen Rutherfords Rede, war darüber erbost und erfand prompt eine durch freigesetzte Neutronen induzierte nukleare Kettenreaktion! Rutherfords Vorhersage war »niemals«, und die Wahrheit war »in etwa 16 Stunden«. Auf ähnliche Weise habe ich den Eindruck, dass es unsinnig wäre, wenn ich eine quantitative Vorhersage treffe, wann diese Durchbrüche auf dem Weg zu einer AGI stattfinden werden, aber die Geschichte über Rutherford ist schon gut.
Martin Ford: Erwarten Sie, dass Sie eine AGI noch erleben?
Stuart J. Russell: Wenn man mich bedrängt, sage ich manchmal ja, ich erwarte, dass meine Kinder sie erleben werden. Ich weiche dieser Frage ein wenig aus, denn bis es so weit ist, könnte es lebensverlängernde Technologien geben, die das Zeitfenster etwas vergrößern.
Aber die Tatsache, dass wir genug über diese Durchbrüche wissen, um sie zumindest beschreiben zu können, und dass einige Forscher andeutungsweise wissen, wie die Lösungen aussehen könnten, erweckt bei mir den Eindruck, dass wir auf eine Eingebung warten.
Darüber hinaus arbeiten viele sehr kluge Köpfe an diesen Problemen, vermutlich mehr als je zuvor, vor allem wegen Google, Facebook, Baidu und so weiter. Derzeit werden enorme Ressourcen in die KI-Forschung gesteckt. Und auch bei den Studenten steht KI hoch im Kurs, weil das Fachgebiet gerade so spannend ist.
All dies lässt mich glauben, dass die Anzahl der Durchbrüche wahrscheinlich relativ hoch sein wird. Diese Durchbrüche sind von ihrer Bedeutung her sicherlich mit einem Dutzend der konzeptuellen Durchbrüche vergleichbar, die in den letzten 60 Jahren in der KI stattgefunden haben.
Deshalb haben die meisten KI-Forscher das Gefühl, dass es in einer nicht allzu fernen Zukunft eine AGI geben wird. Sie ist jedenfalls keine tausend Jahre entfernt, vermutlich sogar nicht einmal hundert.
Martin Ford: Was glauben Sie wird geschehen, wenn es die erste AGI gibt?
Stuart J. Russell: Wenn es so weit ist, wird es sich nicht um eine eindeutige abschließenden Linie handeln, die wir überschreiten. Viele Bereiche werden davon betroffen sein. Wir werden Maschinen erleben, die menschliche Fähigkeiten in den Schatten stellen, so wie bei Berechnungen und jetzt beim Schach, beim Go und bei Videospielen. Wir werden weitere Formen der Intelligenz erleben, und bestimmte Klassen von Problemen werden lösbar sein, eine nach der anderen, und das wird Auswirkungen darauf haben, wie KI-Systeme in der realen Welt eingesetzt werden. AGI-Systeme könnten beispielsweise strategische Tools zum Schlussfolgern mit übermenschlichen Fähigkeiten bieten, die wir für militärische und unternehmerische Zwecke einsetzen und so weiter. Solche Tools werden vermutlich eher verfügbar sein als die Fähigkeit, komplexen Text zu lesen und zu verstehen.
Ein frühes AGI-System wird allein noch nicht in der Lage sein, alles über die Funktionsweise der Welt zu lernen oder die Kontrolle über diese Welt zu übernehmen.
Wir werden den ersten AGI-Systemen immer noch sehr viel Wissen bereitstellen müssen. Diese AGIs werden allerdings nicht von menschlicher Gestalt sein und auch nicht annähernd ein so breites Spektrum an Fähigkeiten abdecken wie Menschen. Diese AGI-Systeme werden in manchen Bereichen noch sehr empfindlich und störanfällig sein.
Martin Ford: Ich würde gern über die mit KI und AGI einhergehenden Risiken sprechen. Mir ist bekannt, dass dies ein wichtiger Teil Ihrer jüngsten Arbeiten ist.
Fangen wir mit den wirtschaftlichen Risiken an, über die ich in meinem vorherigen Buch Rise of the Robots (Aufstieg der Roboter) geschrieben habe. Viele Menschen glauben, dass wir kurz vor einer Umwälzung vom Ausmaß einer neuen indus-triellen Revolution stehen, die den Arbeitsmarkt, die Wirtschaft usw. verändern wird. Was halten Sie davon? Ist das übertrieben, oder stimmen Sie dieser Be-urteilung zu?
Stuart J. Russell: Wir haben darüber gesprochen, dass der zeitliche Verlauf von Durchbrüchen in der KI und auf dem Weg zu einer AGI sich nur schwer vorhersagen lässt. Diese Durchbrüche werden es einer KI ermöglichen, viele der Aufgaben zu übernehmen, die heute noch von Menschen erledigt werden. Die Reihenfolge und die Zeitpunkte zu prognostizieren, in der bestimmte Berufsgruppen Gefahr laufen, durch Maschinen ersetzt zu werden, ist auch ziemlich schwierig.
In Diskussionen und Präsentationen von Leuten, die sich mit diesem Thema befassen, ist häufig davon die Rede, dass vermutlich überschätzt wird, was aktuelle KI-Technologien leisten können und außerdem, dass es schwierig ist, wohlbekannte Aufgaben in die extrem komplexe Arbeitsweise von Staat und Wirtschaft zu integrieren usw.
Ich stimme zu, dass viele der in den letzten paar hundert Jahren vorhandenen Jobs monotone Tätigkeiten sind und dass die Menschen, die sie erledigen, grundsätzlich austauschbar sind. Wenn es sich um einen Job handelt, bei denen hunderte oder tausende Leute angestellt werden und feststeht, worin die Aufgabe besteht, die immer wieder erledigt werden muss, dann ist ein solcher Job gefährdet. Das liegt daran, dass man hier davon sprechen kann, dass Menschen wie Roboter eingesetzt werden. Deshalb ist es auch nicht überraschend, dass echte Roboter diese Jobs erledigen können.
Ich glaube auch, dass die Einstellung von Regierungen derzeit lautet: »Na ja, dann müssen wir wohl damit anfangen, Leute als Data Scientists oder als Roboterentwickler auszubilden, denn das sind die Jobs der Zukunft«. Das ist natürlich keine Lösung, denn wir brauchen keine Milliarde Data Scientists und Roboterentwickler, sondern nur ein paar Millionen. Für ein kleines Land wie Singapur könnte diese Strategie geeignet sein, oder für Dubai, wo ich gerade bin, könnte das auch eine brauchbare Strategie sein. Für alle größeren Länder ist diese Strategie jedoch unbrauchbar, weil es einfach nicht genügend Jobs in diesen Bereichen geben wird. Das soll nicht heißen, dass es derzeit keine Arbeitsplätze gibt. Die gibt es natürlich, und mehr Leute auszubilden, die sie besetzen können, ist durchaus sinnvoll. Aber dadurch wird schlicht und einfach das langfristige Problem nicht gelöst.
Ich kann mir langfristig nur zwei Entwicklungen der Wirtschaft vorstellen.
Bei der ersten werden die meisten Menschen letztendlich nichts tun, was man als wirtschaftlich produktiv bezeichnen könnte. Sie sind am Austausch von Arbeitskraft gegen Lohn in keiner Form beteiligt. Hierbei handelt es sich um die Vorstellung eines bedingungslosen Grundeinkommens: Es gibt einen Wirtschaftssektor, der weitgehend automatisiert und unglaublich produktiv ist. Diese Produktivität erzeugt Wohlstand in Form von Waren und Dienstleistungen, der auf die eine oder andere Weise letztlich das wirtschaftliche Überleben aller anderen subventioniert. Mir erscheint diese Welt nicht besonders lebenswert, zumindest nicht für sich genommen, ohne all die anderen Dinge, die das Leben lebenswert machen und den Menschen Anreize bieten, all das zu tun, was wir jetzt auch tun. Beispielsweise zur Schule gehen, lernen und eine Ausbildung absolvieren oder Experte auf verschiedenen Fachgebieten werden. Das Interesse, eine gute Ausbildung zu erhalten, dürfte kaum noch vorhanden sein, wenn sie keine wirtschaftliche Funktion mehr besitzt.
Bei der zweiten Entwicklung, die ich mir langfristig vorstellen kann, werden Maschinen zwar viele Waren herstellen und grundlegende Dienstleistungen beispielweise im Verkehrswesen erbringen, es gibt jedoch noch viele Dinge, die Menschen erledigen können, um ihre eigene Lebensqualität und die aller anderen zu verbessern. Es gibt Menschen, die unterrichten oder andere Menschen dazu anregen, ein interessanteres, abwechslungsreicheres und erfüllteres Leben zu führen, etwa indem sie ihnen beibringen, Literatur oder Musik wertzuschätzen, Dinge zu basteln oder vielleicht sogar, in der Wildnis zu überleben.
Martin Ford: Glauben Sie, dass wir als Individuen und als Spezies auf eine positive Zukunft zusteuern können, nachdem die KI unsere Wirtschaft verändert hat?
Stuart J. Russell: Ja, das glaube ich tatsächlich, aber um eine positive Zukunft zu erreichen, werden menschliche Interventionen notwendig sein, um anderen Menschen dabei zu helfen, ein positives Leben zu führen. Wir müssen schon jetzt damit anfangen, auf eine Zukunft zuzusteuern, die konstruktive Herausforderungen und hochinteressante Erfahrungen bietet. Auf eine Welt, die emotionale Resilienz aufbaut und allgemein eine konstruktive und positive Einstellung zum eigenen Leben fördert – und zum Leben der anderen. Momentan machen wir das ziemlich miserabel, und deshalb müssen wir jetzt damit anfangen, das zu ändern.
Ich glaube auch, dass wir unsere Einstellung gegenüber der Wissenschaft und dem, was sie für uns leisten kann, grundsätzlich ändern müssen. Ich habe ein Smartphone in meiner Tasche. Die Menschheit hat vermutlich einen Betrag in der Größenordnung von einer Billion Dollar für die Forschung und Entwicklung ausgegeben, die es letztendlich ermöglicht hat, Dinge wie mein Smartphone herzustellen. Und dennoch geben wir so gut wie nichts dafür aus, zu erforschen, wie die Menschen ein interessanteres und erfüllteres Leben führen können und wie wir anderen Menschen dabei helfen können, das zu tun. Ich denke, dass wir als Spezies Folgendes zur Kenntnis nehmen müssen: Wenn wir anderen Menschen auf die richtige Weise helfen, entsteht dadurch für den Rest ihres Lebens ein enormer Mehrwert für sie. Momentan haben wir so gut wie keine wissenschaftliche Grundlage dafür, wie das anzustellen ist. Wir haben keine Studiengänge, die sich damit befassen, es gibt nur sehr wenige wissenschaftliche Veröffentlichungen, und diejenigen Forscher, die sich um dieses Thema bemühen, werden kaum ernst genommen.
Es kann in der Zukunft eine perfekt funktionierende Wirtschaft geben, in der Menschen, die Experten für gute Lebensführung sind, anderen Menschen helfen und derartige Dienstleistungen anbieten. Diese Dienstleistungen könnten beratenden, lehrenden oder vielleicht sogar tröstenden Charakter haben und zu besserer Zusammenarbeit beitragen, sodass wir alle eine wirklich schöne Zukunft vor uns haben.
Diese Zukunft ist kein bisschen düster: Sie ist viel besser als das, was wir derzeit haben, aber sie macht es erforderlich, unser Ausbildungssystem, unsere wissenschaftlichen Grundlagen und unsere wirtschaftlichen Strukturen zu überdenken. Wir müssen jetzt verstehen, wie das Ganze aus wirtschaftlicher Sicht bezüglich der Einkommensverteilung funktionieren wird. Wir wollen Verhältnisse vermeiden, in denen es Superreiche gibt, denen die Produktionsmittel – Roboter und KI-Systeme – gehören und ihre Bediensteten und alle anderen nichts tun. Aus wirtschaftlicher Sicht wäre das so ziemlich das Schlimmste, was passieren könnte.
Ich denke also, dass es eine positive Zukunft geben wird, die Sinn ergibt, nachdem die KI die Wirtschaft verändert hat, wir müssen jedoch noch besser verstehen, wie genau das aussehen wird, damit wir einen Plan schmieden können, um dorthin zu gelangen.
Martin Ford: Sie haben sowohl in Berkeley als auch in der nahegelegenen UCSF an der Anwendung von Machine Learning auf medizinische Daten gearbeitet. Glauben Sie, dass KI durch Fortschritte im Gesundheitswesen und der Medizin zu einer positiveren Zukunft beitragen kann?
Stuart J. Russell: Das glaube ich, ja, aber ich denke auch, dass Medizin ein Bereich ist, in dem wir schon sehr viel über die Physiologie des Menschen wissen – und deshalb glaube ich, dass wissensbasierte oder modellbasierte Ansätze eher erfolgreich sein werden als datengetriebene Machine-Learning-Systeme.
Ich denke, dass Deep Learning für viele wichtige medizinische Anwendungen ungeeignet ist. Die Vorstellung, dass wir heute einfach Terabytes an Daten von Millionen Patienten sammeln und diese an einen Blackbox-Lernalgorithmus übergeben, ergibt für mich keinen Sinn. Es mag natürlich Bereiche der Medizin geben, in denen datengetriebenes Machine Learning gut funktioniert, etwa bei genomischen Daten oder der Vorhersage der Anfälligkeit für verschiedene genetisch bedingte Krankheiten. Außerdem denke ich, dass Deep Learning bei der Vorhersage der Wirksamkeit von bestimmten Medikamenten gute Leistungen erzielen wird.
Aber diese Beispiele sind noch weit von einer KI entfernt, die in der Lage ist, wie ein Arzt zu handeln und vielleicht feststellen kann, dass bei einem Patienten ein Ventrikel im Gehirn verstopft ist, der die Zirkulation der Rückenmarksflüssigkeit behindert. Das ähnelt eher der Aufgabe, festzustellen, welches Bauteil eines Autos defekt ist. Wenn man keine Ahnung von der Funktionsweise eines Autos hat, ist es sehr, sehr schwierig herauszufinden, dass der Keilriemen kaputt ist.
Ein Automechaniker hingegen, der die Funktionsweise genau kennt und sogar Symptome bemerkt, wie ein klapperndes Geräusch oder eine Überhitzung, wird das defekte Bauteil im Allgemeinen schnell finden. Bei der menschlichen Physiologie wird es sich genauso verhalten, nur mit dem Unterschied, dass beträcht-licher Aufwand erforderlich ist, diese Modelle der menschlichen Physiologie zu entwickeln.
In den 1960er- und 1970er-Jahren wurden bereits erhebliche Anstrengungen unternommen, diese Modelle zu entwickeln, die auch in gewissem Maße zum Fortschritt medizinischer KI-Systeme beigetragen haben. Aber heute verfügen wir über eine Technologie, die es insbesondere ermöglicht, die in diesen Modellen vorhandenen Unsicherheiten zu repräsentieren. Modelle mechanischer Systeme sind deterministisch und besitzen bestimmte Parameterwerte, die genau einen vollständig vorhersagbaren fiktiven Menschen repräsentieren.
Die heutigen probabilistischen Modelle hingegen können die gesamte Bevölkerung repräsentieren und genau widerspiegeln, mit welchem Maß an Unsicherheit wir bei Vorhersagen rechnen müssen, beispielsweise wann genau jemand einen Herzinfarkt erleidet. Die Vorhersage von Vorfällen wie einem Herzinfarkt ist für einzelne Personen sehr schwierig, wir können jedoch vorhersagen, dass es pro Person eine bestimmte Wahrscheinlichkeit gibt, die sich durch extreme Anstrengungen oder durch Stress womöglich erhöht und dass diese Wahrscheinlichkeit von verschiedenen Eigenschaften einer Person abhängt.
Dieser modernere probabilistische Ansatz verhält sich sehr viel vernünftiger als frühere Systeme. Probabilistische Systeme ermöglichen es, die klassischen Modelle menschlicher Physiologie mit Beobachtungen und Echtzeitdaten zu kombinieren, um zuverlässige Diagnosen zu erstellen und Behandlungen zu planen.
Martin Ford: Sie haben sich sehr auf die potenziellen Risiken bewaffneter KI konzentriert. Können Sie mehr dazu sagen?
Stuart J. Russell: Ja, ich glaube, dass autonome Waffen für die Aussicht auf -einen neuen Rüstungswettlauf verantwortlich sind. Dieser Rüstungswettlauf könnte womöglich schon zur Entwicklung tödlicher autonomer Waffen führen. Diesen autonomen Waffen können Einsatzbeschreibungen übergeben werden, die das Waffensystem eigenständig ausführt, wie z. B. Identifizierung, Auswahl und Angriff menschlicher Ziele.
Es gibt moralische Argumente, dass damit eine fundamentale Grenze der KI überschritten wird, nämlich dass wir die Entscheidung über Leben und Tod einer Maschine überlassen und somit den Wert und die Würde menschlichen Lebens drastisch herabsetzen.
Ich halte es für ein pragmatischeres Argument, dass die logische Folge der Autonomie Skalierbarkeit ist. Da die einzelnen autonomen Waffen nicht durch Menschen überwacht werden müssen, könnten beliebig viele Waffen gleichzeitig eingesetzt werden. Jemand könnte einen Angriff durchführen, bei dem fünf Personen in einem Leitstand 10.000.000 Waffen starten und alle männlichen Einwohner eines Landes im Alter zwischen 12 und 60 Jahren töten. Sie sind also als Massenvernichtungswaffen einsetzbar, weil sie die Eigenschaft haben, skalierbar zu sein: Ein Angriff könnte mit 10, 1.000, 1.000.000 oder 10.000.000 Waffen durchgeführt werden.
Mit Nuklearwaffen, wenn sie denn zum Einsatz kommen, wäre eine wesentliche Schwelle überschritten, was wir als Spezies bislang vermeiden konnten. Wir sind noch einmal davongekommen, denn wir haben es geschafft, seit 1945 darauf zu verzichten. Bei autonomen Waffen gibt es eine solche Schwelle nicht, deshalb können Konflikte viel leichter eskalieren. Sie lassen sich auch leicht herstellen, und sobald sie in großen Stückzahlen produziert werden, ist es ziemlich wahrscheinlich, dass sie auf dem internationalen Waffenmarkt erhältlich sind und Leuten zur Verfügung stehen, die weniger Skrupel haben als etwa die westlichen Großmächte.
Martin Ford: Zwischen kommerziellen und potenziellen militärischen Anwendungen findet ein reger Technologietransfer statt. Bei Amazon können Sie eine Drohne kaufen, die sich potenziell bewaffnen ließe ...
Stuart J. Russell: Sie können derzeit Drohnen kaufen, die ferngesteuert werden, vielleicht mit einer Anzeige, die der Perspektive des Piloten entspricht. Sie könnten sicherlich eine kleine Bombe an der Drohne befestigen und damit jemanden töten, aber dabei handelt es sich immer noch um ein ferngesteuertes Luftfahrzeug und das ist ein Unterschied. Hier gibt es keine Skalierbarkeit, denn man kann keine 10.000.000 Drohnen starten, wenn es nicht auch 10.000.000 Piloten gibt. Man würde die Bevölkerung eines ganzen Landes benötigen, die dafür ausgebildet ist, um das durchzuführen. Dann könnte man diesen 10.000.000 Leuten aber auch ein Maschinengewehr geben und sie entsenden, um zu töten. Glücklicherweise gibt es ein internationales Überwachungssystem, Sanktionen, militärische Vorbereitungen und dergleichen, um so etwas zu verhindern. Ein internationales Überwachungssystem, das gegen autonome Waffen wirksam wäre, gibt es jedoch nicht.
Martin Ford: Aber wäre es nicht dennoch möglich, dass ein paar Leute in irgendeinem Keller ihr eigenes autonomes Steuerungssystem entwickeln und in kommerziell verfügbare Drohnen einbauen? Wie können wir solche selbst gebauten KI-Waffen kontrollieren?
Stuart J. Russell: Ja, es ist durchaus vorstellbar, ein System, das der Software zur Steuerung eines selbstfahrenden Autos ähnelt, in einen Quadcopter mit einer Bombe einzubauen. Das wäre dann eine Art selbst gebaute autonome Waffe. Es könnte Abkommen geben, die vorschreiben, dass Drohnenhersteller und die Hersteller der Chips für selbstfahrende Autos zusammenarbeiten und Überprüfungen durchführen, sodass jeder, der größere Mengen bestellt, auffallen würde. So wie jemand nicht damit davonkommt, wenn er größere Mengen von Chemikalien bestellt, die für die Produktion von Chemiewaffen benötigt werden. Händler müssen aufgrund des Chemiewaffenabkommens ihre Kunden kennen und Bericht -erstatten, wenn diese versuchen, ungewöhnlich große Mengen bestimmter gefährlicher Produkte zu kaufen.
Ich denke, es wird möglich sein, vergleichsweise wirksame Regelungen zu finden, die verhindern, dass zivile Technologie in großem Umfang zur Herstellung autonomer Waffen genutzt wird. Trotzdem werden schlimme Dinge passieren, aber das halte ich für unvermeidbar, weil es immer machbar sein wird, autonome Waffen in kleinen Stückzahlen selbst zu bauen. In kleinen Stückzahlen wiederum bieten autonome Waffen gegenüber ferngesteuerten Waffen jedoch kaum Vorteile. Wenn man vorhat, einen Angriff mit zehn oder zwanzig Waffen durchzuführen, wird man sie auch fernsteuern können, weil es vermutlich gelingen wird, zehn oder zwanzig Personen zu finden, die sie steuern würden.
Natürlich gibt es bei Kriegsführung und KI weitere Risiken, beispielsweise wenn ein KI-System einen Konflikt versehentlich eskalieren lässt, weil Maschinen ein Signal fehlinterpretieren und sich dann gegenseitig angreifen. Und das zukünftige Risiko einer Cyberinfiltration bedeutet, dass man vielleicht glaubt, eine auf autonomen Waffen beruhende stabile Abwehr zu haben, diese Waffen aber ausnahmslos kompromittiert wurden und sich im Fall eines Konflikts gegen einen selbst richten. Das alles trägt zur strategischen Unsicherheit bei, was natürlich alles andere als erfreulich ist.
Martin Ford: Das sind beängstigende Szenarien. Sie haben auch einen Kurzfilm mit dem Titel Slaughterbots produziert, ein ziemlich erschreckendes Video.
Stuart J. Russell: Wir haben das Video eigentlich produziert, um diese Konzepte zu veranschaulichen, denn ich hatte den Eindruck, dass trotz all unserer Bemühungen, darüber zu schreiben und Vorträge zu halten, die Botschaft irgendwie nicht richtig ankam. Die Leute meinten nach wie vor: »Ach, autonome Waffen sind Science Fiction«. Sie stellten sich das Ganze immer noch wie Skynet und Terminator vor, also als eine Technologie, die es nicht gibt. Deshalb haben wir versucht, darauf hinzuweisen, dass es nicht um Waffensysteme geht, die plötzlich böse werden und auch nicht darum, die Weltherrschaft zu übernehmen – wir sprechen hier nicht mehr über Science Fiction.
Diese KI-Technologien zur Kriegsführung sind heutzutage realisierbar und bringen einige neue Arten extremer Risiken mit sich. Es geht hier um skalierbare Massenvernichtungswaffen, die in die falschen Hände gelangen. Diese Waffen können der menschlichen Bevölkerung enormen Schaden zufügen. So viel zu autonomen Waffen.
Martin Ford: 2014 haben Sie zusammen mit Stephen Hawking und den Physikern Max Tegmark und Frank Wilczek einen offenen Brief verfasst, in dem davor gewarnt wird, dass wir die mit einer fortgeschrittenen KI einhergehenden Risiken nicht ernst genug nehmen. Bemerkenswert ist, dass Sie der einzige Informatiker unter den Autoren sind. Können Sie erzählen, was es mit diesem Brief auf sich hat und was dazu geführt hat, dass Sie ihn geschrieben haben? (Der Brief ist unter https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence-but-are-we-taking-9313474.html online verfügbar.)
Stuart J. Russell: Ja, das ist eine interessante Geschichte. Ich erhielt einen Anruf vom National Public Radio, die mich zu dem Film Transcendence befragen wollten. Ich lebte damals in Paris, und dort war der Film noch nicht angelaufen, ich hatte ihn also noch gar nicht gesehen.
Kurz darauf nahm ich an einer Konferenz auf Island teil, und auf der Rückreise hatte ich zufälligerweise einen längeren Zwischenaufenthalt in Boston. Also verließ ich das Flugzeug und ging dort ins Kino, um mir den Film anzusehen. Ich saß also dort im Kino und wusste nicht so recht, was mich erwartet. Und plötzlich: »Sieh doch! Das Gebäude des Berkeley Computer Science Departments. Ist ja lustig«. Johnny Depp spielt den KI-Professor, »Oh, interessant«. Er hält einen Vortrag über KI und wird dann von irgendeinem Anti-KI-Terroristen erschossen. Als ich das sehe, sacke ich auf meinem Sitz unwillkürlich in mich zusammen, denn damals hätte das tatsächlich ich sein können. Die Handlung des Films besteht darin, dass es, bevor er erschossen wird, gelingt, sein Gehirn auf einen riesigen Quantencomputer hochzuladen. Durch diese Kombination von Gehirn und Computer entsteht ein superintelligentes Wesen, das droht, die Weltherrschaft zu übernehmen, weil es in hohem Tempo alle möglichen verblüffenden neuen Technologien entwickelt.
Wie dem auch sei, wir schrieben dann einen Artikel, der – zumindest oberflächlich – eine Filmrezension war, tatsächlich aber besagte: »Das ist zwar nur ein Spielfilm, aber die eigentliche Botschaft ist real: Wenn wir Maschinen entwickeln, die dominierenden Einfluss auf die reale Welt ausüben können, dann kann das ein schwerwiegendes Problem für uns darstellen, nämlich dass wir tatsächlich die Kontrolle über unsere Zukunft anderen Wesen als Menschen überlassen«.
Die Sache ist nicht weiter kompliziert: Unsere Intelligenz verleiht uns die Fähigkeit, die Welt zu beherrschen; Intelligenz repräsentiert also Macht. Und wenn irgendetwas über mehr Intelligenz verfügt, besitzt es mehr Macht.
Wir sind bereits auf dem Weg, Dinge zu erschaffen, die weitaus leistungsfähiger sind als wir, aber irgendwie müssen wir gewährleisten, dass sie niemals Macht erhalten. Wenn wir die Situation der KI auf diese Weise beschreiben, dann sagen die Leute: »Oh, ich verstehe. Hier gibt es ein Problem«.
Martin Ford: Und dennoch stehen viele bekannte KI-Forscher diesen Bedenken ziemlich ablehnend gegenüber ...
Stuart J. Russell: Ich möchte mich zu dieser ablehnenden Haltung äußern. Es gibt eine Vielzahl von Argumenten, die vorgebracht werden, um zu begründen, warum wir dem KI-Problem keine Beachtung schenken sollten. Tatsächlich sind es zu viele, um sie zu zählen. Ich habe irgendwo einmal 25 oder 30 verschiedene Argumente zusammengestellt, denen allerdings eine Eigenschaft gemeinsam ist, nämlich dass sie einfach keinen Sinn ergeben. Um nur ein Beispiel zu nennen: Es heißt oft, »das ist doch überhaupt kein Problem, wir können sie doch einfach ausschalten«. Das ist das Gleiche, wie zu behaupten, dass es überhaupt kein Problem sei, AlphaZero im Go zu schlagen. Man muss doch nur die weißen Spielsteine an der richtigen Stelle platzieren. Das Argument hält einer kritischen Betrachtung keine fünf Sekunden stand.
Ich glaube, dass viele dieser Argumente eine reflexartige Abwehrreaktion widerspiegeln. Manche Leute denken vielleicht, »Ich bin KI-Forscher. Ich fühle mich durch diese Vorstellung bedroht und werde sie deshalb aus meinem Kopf fernhalten und Gründe finden, sie weiterhin fernzuhalten«. Das ist eine meiner Theorien darüber, weshalb ansonsten sehr kenntnisreiche Leute versuchen zu leugnen, dass KI für Menschen zu einem Problem werden wird.
Das betrifft sogar einige zum Mainstream der KI-Community zugehörige Leute, die leugnen, dass KI jemals erfolgreich sein wird. Das ist schon paradox, weil wir 60 Jahre damit verbracht haben, Philosophen abzuwehren, die leugnen, dass das Fachgebiet KI jemals Erfolg haben wird. Wir haben 60 Jahre lang auch immer wieder gezeigt und bewiesen, dass Dinge, die Philosophen für unmöglich erklärt haben, tatsächlich doch möglich sind – wie bespielweise den Schachweltmeister zu schlagen.
Nun behaupten plötzlich einige zum Fachgebiet zugehörige Leute, dass KI niemals erfolgreich sein wird und dass es deshalb nichts gibt, über das man sich Sorgen machen müsste.
Wenn Sie mich fragen, ist das eine fast schon krankhafte Reaktion. Es erscheint – wie bei der Kernenergie und bei Atomwaffen – vernünftig anzunehmen, dass der menschliche Einfallsreichtum diese Hindernisse tatsächlich überwinden kann und wir eine Intelligenz entwickeln werden, die zumindest potenziell die Gefahr mit sich bringt, dass wir ihr die Kontrolle überlassen. Es erscheint ebenfalls vernünftig, sich darauf vorzubereiten und zu versuchen herauszufinden, wie wir Systeme so entwickeln können, dass das nicht geschehen kann. Mein Ziel ist also, uns auf die Bedrohung durch KI vorzubereiten.
Martin Ford: Wie können wir diese Bedrohung in Angriff nehmen?
Stuart J. Russell: Für das Problem ist entscheidend, dass wir bei der Definition von KI einen geringfügigen Fehler begangen haben. Ich habe deshalb die nachfolgende neue Definition entwickelt.
Wenn wir eine KI entwickeln wollen, müssen wir zunächst einmal herausfinden, was es bedeutet, intelligent zu sein. Dabei müssen wir mehrere tausend Jahre einbeziehen, in denen es Tradition, Philosophie, Wirtschaft und andere Wissenszweige gegeben hat. Die Vorstellung von Intelligenz besagt, dass zu erwarten ist, dass die Handlungen eines intelligenten Menschen dazu führen, dass er seine Ziele erreicht. Diese Vorstellung wird manchmal als auch rationales Verhalten bezeichnet, das verschiedene Unterarten der Intelligenz umfasst, wie die Fähigkeit, Schlussfolgerungen zu ziehen, Pläne zu schmieden, die Fähigkeiten der sinnlichen Wahrnehmung und so weiter. All diese Fähigkeiten sind erforderlich, um in der realen Welt intelligent handeln zu können.
Hier gibt es folgendes Problem: Wenn wir bei der Entwicklung einer KI und einer Maschine mit den genannten Fähigkeiten erfolgreich sind und deren Ziele nicht perfekt mit den menschlichen Interessen übereinstimmen, dann haben wir etwas extrem Intelligentes geschaffen, dessen Ziele sich von unseren unterscheiden. Und wenn diese KI intelligenter ist als wir, wird sie ihre Ziele auch erreichen – und wir vermutlich nicht!
Die negativen Folgen für Menschen sind unbegrenzt. Wir begehen jedoch bei der Art und Weise, wie wir die Vorstellung von Intelligenz, einem für Menschen sinnvollen Konzept, auf Maschinen übertragen, einen Fehler.
Wir wollen keine Maschinen, die unsere Art von Intelligenz besitzen. Tatsächlich wollen wir Maschinen, bei denen zu erwarten ist, dass ihre Handlungen dazu führen, dass unsere Ziele erreicht werden, nicht die Ziele der KI.
Der ursprüngliche Plan für eine KI sah vor, dass wir, um eine intelligente Maschine konstruieren zu können, sogenannte Optimierer entwickeln müssen: Algorithmen, die richtig gut agieren, wenn wir ihnen ein Ziel vorgeben. Dann legen sie los, und schon sind unsere Ziele erreicht. Das ist womöglich ein Fehler. Es hat zwar bis jetzt funktioniert – aber nur, weil wir noch keine sehr intelligenten Maschinen entwickelt haben, und diejenigen, die wir entwickelt haben, wurden nur in Miniaturwelten platziert, wie dem simulierten Schachbrett, dem simulierten Go-Brett und so weiter.
Wenn die bislang von Menschen geschaffene KI auf die reale Welt trifft, kann das schiefgehen, wie wir am Beispiel des Flash Crash gesehen haben. Beim Flash Crash geht es um eine Reihe von Handelsalgorithmen, einige davon waren ziemlich schlicht, andere ziemlich komplizierte KI-gestützte Entscheidungsfindungs- und Lernsysteme. In der realen Welt ging das Ganze beim Flash Crash katastrophal schief, und die Maschinen verursachten einen Zusammenbruch des Aktienmarkts. Innerhalb von wenigen Minuten vernichteten sie Börsenwerte in Höhe von mehr als einer Billionen Dollar. Der Flash Crash war ein Warnsignal für unsere KI.
Die richtige Denkweise über KI ist die Folgende: Wir sollten Maschinen entwickeln, die so handeln, dass wir mit ihrer Hilfe unsere Ziele erreichen, dabei dürfen wir unsere Ziele der Maschine jedoch keinesfalls direkt vorgeben!
Ich habe die Vorstellung, dass eine KI immer so designt werden sollte, dass sie versucht, uns dabei zu helfen, unsere Ziele zu erreichen, man darf dabei aber nicht annehmen, dass KI-Systeme wissen, was diese Ziele sind.
Wenn wir KI auf diese Weise entwickeln, wird es immer eine bestimmte Unsicherheit über den Charakter der Ziele geben, die eine KI zu erreichen versucht. Wie sich zeigt, ist diese Unsicherheit tatsächlich der Sicherheitsspielraum, den wir verlangen.
Ich gebe Ihnen ein Beispiel, um diesen Sicherheitsspielraum, den wir fordern, zu veranschaulichen. Betrachten wir noch einmal die alte Vorstellung, dass wir – falls es jemals nötig sein sollte – die Maschine einfach ausschalten können, wenn wir in Schwierigkeiten geraten. Wenn die Maschine ein Ziel wie »besorge Kaffee« verfolgt und intelligent genug ist, wird sie natürlich bemerken, dass sie keinen Kaffee besorgen kann, wenn sie ausgeschaltet ist. Wenn ihr Daseinszweck, ihr wichtigstes Ziel darin besteht, Kaffee zu besorgen, wird sie logischerweise versuchen zu verhindern, dass sie abgeschaltet wird. Sie wird den Ausschalter deaktivieren und wahrscheinlich jeden kaltstellen, der versuchen könnte, sie auszuschalten. Sie können sich sicherlich all diese unerwarteten Folgen vorstellen, die ein einfaches Ziel wie »besorge Kaffee« nach sich zieht, wenn die Maschine nur hinreichend intelligent ist.
In meiner Vorstellung der KI entwickeln wir die Maschine so, dass sie zwar nach wie vor »Kaffee besorgen« will, aber versteht, dass es viele andere Dinge gibt, die für Menschen von Bedeutung sind, obwohl sie gar nicht weiß, welche das sind! Unter diesen Umständen versteht die Maschine, dass sie etwas tun könnte, was Menschen nicht gefällt – und dass ein Mensch, der sie abschaltet, verhindern will, dass sie den Menschen unglücklich macht. In dieser Vorstellung ist das Ziel der Maschine, zu verhindern, dass der Mensch unglücklich gemacht wird. Obwohl die Maschine gar nicht weiß, was das eigentlich bedeutet, hat sie einen Anreiz, zu erlauben, dass sie ausgeschaltet wird.
Wir können diese spezielle Vorstellung einer KI mathematisch formulieren und zeigen, dass dieser Sicherheitsspielraum (in diesem Fall der Anreiz, dass die Maschine erlaubt, dass sie ausgeschaltet wird) unmittelbar von der Unsicherheit abhängt, die sie bezüglich der menschlichen Ziele hat. Wenn wir diese Unsicherheit eliminieren und die Maschine anfängt zu glauben, dass sie mit Sicherheit weiß, was das wahre Ziel ist, dann wird der Sicherheitsspielraum wieder verschwinden, und die Maschine wird uns letztlich daran hindern, sie auszuschalten.
Auf diese Weise können wir zeigen, zumindest in einem vereinfachten mathematischen Modell, dass so designte Maschinen – mit expliziter Unsicherheit bezüglich der Ziele, die sie verfolgen sollen – nachweislich von Vorteil sind, das heißt, dass die Maschine nachweislich mehr Vorteile bringt als ein Verzicht auf sie.
Ich möchte damit sagen, dass es eine Möglichkeit geben könnte, eine KI zu entwickeln, die sich ein wenig von der bisherigen Herangehensweise unterscheidet, und dass es Wege gibt, ein KI-System zu entwickeln, das bezüglich Sicherheit und Kontrolle sehr viel bessere Eigenschaften besitzt.
Martin Ford: Im Zusammenhang mit diesen Problemen der Sicherheit und der Kontrolle machen sich viele Leute Sorgen, dass es zu einem Rüstungswettlauf kommt, insbesondere mit China. Müssen wir das ernst nehmen, sollten wir uns hier Gedanken machen?
Stuart J. Russell: Nick Bostrom und andere haben folgende Bedenken geäußert: Wenn eine Seite glaubt, dass strategische Dominanz in der KI ein wichtiger Bestandteil der nationalen Sicherheit und der wirtschaftlichen Führung ist, dann wird sie versuchen, die Fähigkeiten ihrer KI-Systeme weiterzuentwickeln – so schnell wie möglich und ja, ohne sich allzu große Sorgen um die Kontrollierbarkeit zu machen.
Allgemein betrachtet, erscheint das zunächst plausibel. Wenn wir andererseits jedoch KI-Produkte herstellen, die in der realen Welt funktionieren, wird es einen klaren wirtschaftlichen Anreiz geben, zu gewährleisten, dass sie unter Kontrolle bleiben.
Bei der Untersuchung derartiger Szenarien muss ein Produkt berücksichtigt werden, das schon ziemlich bald verfügbar sein könnte: ein intelligenter persönlicher Assistent, der ihre Aktivitäten, Gespräche, Beziehungen usw. überwacht und ihr Leben gewissermaßen so steuert, wie es ein guter menschlicher Assistent tun würde. Wenn ein solches System die menschlichen Vorlieben nicht gut versteht und auf die schon erwähnte Weise unsicher handelt, dann werden die Menschen es schlicht und einfach nicht kaufen. Wenn es die Aufgaben missversteht, könnte es Ihnen ein Hotelzimmer für 20.000 Dollar pro Nacht reservieren oder ein Treffen mit dem Vizepräsidenten absagen, weil Sie einen Zahnarzttermin haben.
In solchen Situationen missversteht die KI Ihre Vorlieben, und anstatt das kleinlaut einzugestehen, glaubt sie, zu wissen, was Sie möchten, obwohl sie total da-neben liegt. In anderen Foren habe ich das Beispiel eines Haushaltsroboters angeführt, der nicht versteht, dass der Nährwert einer Katze sehr viel geringer ist als ihr Gefühlswert und deshalb den Entschluss fasst, die Katze zum Abendessen zuzubereiten. Ein solcher Vorfall würde das Ende der Haushaltsroboterbranche bedeuten. Niemand will einen Roboter im Haus haben, der solche Fehler begeht.
Heutzutage müssen KI-Unternehmen, die immer intelligentere Produkte herstellen, zumindest eine Version dieses Problems lösen, damit ihre Produkte gute KI-Systeme sind.
Die KI-Community muss verstehen, dass eine unkontrollierbare und unsichere KI schlicht und einfach keine gute KI ist.
Eine Brücke, die einstürzt, ist schlicht und einfach keine gute Brücke. Genauso müssen wir erkennen, dass eine unkontrollierbare und unsichere KI schlicht und einfach keine gute KI ist. Bauingenieure laufen ja auch nicht herum und sagen: »Ich entwerfe Brücken, die nicht zusammenbrechen, im Gegensatz zu ihm hier, er entwirft Brücken, die einstürzen«. Das Wort »Brücke« bedeutet schließlich, dass man nicht erwartet, dass sie einstürzt.
Das Gleiche sollte auch für die Bedeutung des Begriffs KI gelten. Wir müssen KI so definieren, dass sie stets unter der Kontrolle der Menschen bleibt, denen sie dient – und zwar weltweit. Außerdem muss aus der Definition hervorgehen, dass sie heute und zukünftig Eigenschaften besitzt, die wir als Fügsamkeit bezeichnen: dass sie ausgeschaltet werden kann und dass sie korrigiert werden kann, wenn sie Handlungen ausführt, die uns nicht gefallen.
Wenn alle KI-Forscher rund um den Globus begreifen, dass es sich hierbei um Eigenschaften handelt, die für eine gute KI unverzichtbar sind, bedeutet das einen großen Schritt nach vorn, und die Zukunftsaussichten des Fachgebiets KI sehen schon viel besser aus.
Nichts würde dem Fachgebiet KI mehr schaden, als ein schwerwiegendes Versagen bei der Kontrolle. Denken Sie nur daran, wie sich die Atomindustrie durch die Vorfälle in Tschernobyl und Fukushima praktisch selbst erledigt hat. Wenn wir es nicht schaffen, das Problem der Kontrolle in Angriff zu nehmen, wird sich die KI ebenfalls selbst erledigen.
Martin Ford: Sind Sie unterm Strich also ein Optimist? Glauben Sie, dass sich alles zum Guten wenden wird?
Stuart J. Russell: Ja, ich denke, ich bin ein Optimist. Vor uns liegt noch ein langer Weg. Beim Problem, die Kontrolle in den Griff zu bekommen, haben wir gerade erst an der Oberfläche gekratzt. Aber die ersten Ansätze erscheinen Erfolg versprechend, deshalb bin ich einigermaßen optimistisch, dass wir bei der Weiterentwicklung der KI einen Weg finden werden, der uns zu dem führt, was man als »nachweislich vorteilhafte KI-Systeme« bezeichnen könnte.
Selbst wenn wir das Problem der Kontrolle lösen und nachweislich vorteilhafte KI-Systeme entwickeln können, bleibt das Risiko bestehen, dass sie nicht von allen verwendet werden. Hier besteht die Gefahr, dass der eine oder andere nur die Fähigkeiten der KI vergrößern will, ohne dabei den Sicherheitsaspekten Beachtung zu schenken.
Das könnte eine Art Dr. Evil sein, der Schurke aus der Austin-Powers-Filmreihe, der die Weltherrschaft übernehmen will und versehentlich ein KI-System freisetzt, das sich letztendlich für alle katastrophal auswirkt. Oder ein Risiko mit eher soziologischem Charakter: ein anfangs für die Gesellschaft nützliches, kontrollierbares KI-System, das wir später aber im Übermaß nutzen. In diesen Szenarien steuern wir auf eine geschwächte Gesellschaft zu, weil wir den Maschinen zu viel Wissen übergeben und zu viele Entscheidungen überlassen haben und sich das nicht mehr rückgängig machen lässt. Wenn die Gesellschaft diesen Weg einschlägt, könnten wir allmählich unsere gesamte Handlungsfähigkeit als Menschen einbüßen.
Im Spielfilm WALL-E werden die sozialen Verhältnisse so dargestellt: Die Menschheit hat die Erde verlassen und wird in Raumschiffen von Maschinen umsorgt. Die Menschen werden allmählich immer dicker, fauler und dümmer. Diese Thematik ist in der Science Fiction nicht neu, und sie wird in diesem Film sehr deutlich veranschaulicht. Das ist eine Zukunft, über die wir uns Sorgen machen sollten, vorausgesetzt, dass wir all die anderen genannten Risiken erfolgreich umschiffen können.
Als Optimist kann ich mir auch eine Zukunft vorstellen, in der KI-Systeme so weit entwickelt sind, dass sie den Menschen sagen: »Verwendet uns nicht. Seht zu, dass ihr selbst lernt. Bewahrt eure eigenen Fähigkeiten. Verbreitet die Zivilisation durch Menschen, nicht durch Maschinen«.
Natürlich könnten wir auch eine hilfreiche und hoch entwickelte KI ignorieren, wenn sich herausstellt, dass wir als Spezies zu faul und zu gierig sind, aber dafür werden wir einen Preis zahlen müssen. So gesehen könnte das Ganze eher zu einem soziokulturellem Problem werden, und ich glaube, dass wir als Menschheit insgesamt daran arbeiten müssen, uns vorzubereiten und sicherzustellen, dass es nicht so kommt.