Daphne Koller

Gründerin und Leiterin von insitro

Außerordentliche Professorin für Informatik in Stanford

Daphne Koller war Rajeev Motwani Professor of Computer Science an der Stanford University (wo sie derzeit außerordentliche Professorin ist) und gehört zu den Gründern von Coursera. Sie konzentriert sich auf die potenziellen Vorteile der KI im Gesundheitswesen und war als Chief Computing Officer bei Calico tätig, einem Tochterunternehmen von Alphabet, das sich mit der Erforschung der Langlebigkeit beschäftigt. Sie ist Gründerin und Leiterin von insitro, einem Biotech-Start-up, das Machine Learning verwendet, um Arzneimittel zu erforschen und zu entwickeln.

[Bild]

Den Fortschritt aufzuhalten, indem man die Weiterentwicklung der Technologie einstellt, ist der falsche Ansatz. [...] Wenn man selbst keine technologischen Fortschritte erzielt, wird es anderen gelingen, deren Absichten möglicherweise erheblich weniger vorteilhaft sind als die eigenen.

Martin Ford: Sie haben kürzlich insitro gegründet, ein Unternehmen, das sich darauf konzentriert, Machine Learning für die Entwicklung von Arzneimitteln zu verwenden. Können Sie näher darauf eingehen?

Daphne Koller: Wir benötigen neue Lösungen, um den Fortschritt in der Arzneimittelforschung voranzutreiben. Das Problem ist, dass es immer schwieriger wird, neue Arzneimittel zu entwickeln: Die Erfolgsquote klinischer Tests bewegt sich im mittleren einstelligen Bereich, und die Kosten für Forschung und Entwicklung (vor Steuern) betragen schätzungsweise 2,5 Milliarden Dollar. Die Kapitalrendite bei der Entwicklung von Arzneimitteln sinkt seit Jahren linear und wird Schätzungen zufolge noch vor 2020 null erreichen. Eine Erklärung dafür ist, dass die Arzneimittelentwicklung an sich schwieriger geworden ist. Viele (vielleicht die meisten) der leicht zu findenden Präparate, also krankheitsrelevante Medikamente, die bei den meisten Menschen wirken, wurden bereits entdeckt. Die nächste Phase der Arzneimittelentwicklung wird sich auf speziellere Medikamente konzentrieren müssen, deren Wirkung kontextabhängig ist und nur eine Teilmenge der Patienten betrifft. Eine geeignete Patientengruppe zu finden, ist oft schwierig, was wiederum die Entwicklung einer Therapie erschwert, und das führt dazu, dass es für viele Krankheiten keine wirkungsvolle Behandlung gibt und vielen Patienten nicht geholfen werden kann. Zudem muss die Amortisierung der hohen Entwicklungskosten aufgrund des kleineren Markts von einer kleineren Gruppe finanziert werden.

Wir bei insitro hoffen, dass die Anwendung von Big Data und Machine Learning auf die Arzneimittelentwicklung den Ablauf schneller, preiswerter und erfolgreicher macht. Zu diesem Zweck planen wir, sowohl aktuelle Machine-Learning-Verfahren als auch die neuesten Innovationen der Biowissenschaften einzusetzen, die es ermöglichen große, hochwertige Datenmengen zu erzeugen, damit die Fähigkeiten des Machine Learnings zum Tragen kommen. Als ich vor siebzehn Jahren im Bereich Biologie und Medizin erstmals Machine Learning verwendete, bestand eine »große« Datenmenge aus ein paar Dutzend Datensätzen. Noch vor fünf Jahren waren Datenmengen mit einigen Hundert Datensätzen eine seltene Ausnahme. Das sieht heute anders aus. Uns stehen Kohortendaten (wie die UK Biobank) zur Verfügung, die hochwertige molekularbiologische Messergebnisse und klinische Beobachtungen von mehreren Hunderttausend Individuen enthalten. Eine Reihe von bemerkenswerten Technologien erlaubt es uns, im Labor biologische Systeme mit beispielloser Genauigkeit und Geschwindigkeit zu erzeugen, zu verändern und zu beobachten. Mithilfe dieser Innovationen möchten wir verschiedene sehr große Datenmengen sammeln, um Machine-Learning-Modelle zu trainieren, mit denen wir entscheidende Probleme bei der Entdeckung und Entwicklung von Arzneimitteln in Angriff nehmen können.

Martin Ford: Das hört sich so an, als ob insitro Experimente im klassischen Labor und Machine Learning nach dem neuesten Stand der Technik vereinen möchte. In einem einzelnen Unternehmen ist das nicht häufig der Fall. Ergeben sich durch diese Integration neue Herausforderungen?

Daphne Koller: Auf jeden Fall. Ich denke, die größte Herausforderung ist tatsächlich kultureller Art, nämlich dass Wissenschaftler und Data Scientists als gleichwertige Partner auf Augenhöhe zusammenarbeiten müssen. In vielen Unternehmen gibt eine Gruppe die Richtung vor, und die andere folgt ihr. Bei insitro müssen wir eine Kultur entwickeln, in der Wissenschaftler, Ingenieure und Data Scientists eng miteinander zusammenarbeiten, um Aufgaben festzulegen, Experimente zu entwerfen, Daten zu analysieren und Erkenntnisse herzuleiten, die uns zu neuen Therapien führen. Wir sind davon überzeugt, dass der Aufbau dieses Teams und die Entwicklung dieser Kultur für unseren Erfolg genauso wichtig sind, wie die Qualität der wissenschaftlichen Arbeit und die Machine-Learning-Verfahren, die diese Gruppe entwickeln wird.

Martin Ford: Wie bedeutsam ist Machine Learning im Bereich Gesundheitswesen?

Daphne Koller: Wenn man sich ansieht, in welchen Bereichen Machine Learning für große Veränderungen gesorgt hat, stellt man fest, dass es vor allem solche sind, in denen große Datenmengen verfügbar sind und in denen es Menschen gibt, die sowohl Fachkenntnisse besitzen als auch wissen, wie sich Probleme durch Machine Learning lösen lassen.

Heutzutage stehen durch Ressourcen wie die UK Biobank oder All of Us große Datenmengen zur Verfügung, die jede Menge Informationen über Menschen gesammelt haben und es so ermöglichen, den Gesundheitsverlauf echter Menschen zu untersuchen. Es gibt jedoch auch erstaunliche Technologien, wie CRISPR, DNS-Synthese, neue Methoden der Gensequenzierung und viele andere Dinge, die allesamt dazu geeignet sind, große Datenmengen mit Informationen auf molekularer Ebene zu erstellen.

Wir haben einen Punkt erreicht, an dem wir damit anfangen können, das zu entwirren, was meiner Auffassung nach das komplexeste System ist, das wir kennen: die Biologie des Menschen und anderer Organismen. Für die Wissenschaft bietet sich hier eine unglaubliche Gelegenheit, allerdings werden aufseiten des Machine Learnings noch bedeutende Weiterentwicklungen erforderlich sein, um herauszufinden, welche Eingriffe wir vornehmen müssen, um ein längeres und gesünderes Leben führen zu können.

Martin Ford: Sprechen wir über Ihr Leben; wie sind Sie zur KI gekommen?

Daphne Koller: Ich habe als Doktorandin in Stanford an probabilistischen Modellen gearbeitet. Heutzutage würde man wohl von KI sprechen, aber dieser Begriff war noch nicht so geläufig. Tatsächlich waren probabilistische Modelle in der KI-Community damals geächtet, die sich eher auf logisches Schlussfolgern konzentrierte. Das hat sich allerdings geändert, und KI hat in vielen anderen Disziplinen Einzug gehalten. Ich habe mich also eigentlich nicht bewusst dazu entschlossen, mich mit KI zu beschäftigen, es war eher so, dass sich das Fachgebiet KI ausdehnte und auch meine Arbeit umfasste.

Ich ging dann als Postdoc nach Berkeley und machte mir darüber Gedanken, inwieweit meine Arbeit für Aufgaben aus der Praxis relevant war, anstatt lediglich mathematisch elegant zu sein. Zu diesem Zeitpunkt kam ich erstmals mit Machine Learning in Berührung. 1995 kehrte ich nach Stanford zurück und arbeitete daran, statistische Modelle und Machine Learning in Beziehung zu setzen. Ich untersuchte praktische Anwendungen, bei denen Machine Learning echte Verbesserungen bringen könnte.

Ich habe mich dann mit Computer Vision und Robotik befasst, und seit dem Jahr 2000 mit biologischen und medizinischen Daten. Ich habe ein ausgeprägtes Interesse an technologiegestützten Lernmethoden entwickelt, was zu einer Vielzahl von Experimenten in Stanford führte, um Möglichkeiten zu finden, ein besseres Lernerlebnis zu bieten.

Das Ganze führte schließlich zum Start der ersten drei Stanford-MOOCs (Massive Open Online Courses) im Jahr 2011. Das war für uns alle eine Überraschung, denn wir hatten eigentlich gar nicht versucht, die Werbetrommel dafür zu rühren. Es war wohl eher eine virale Verbreitung der Information, dass Stanford drei kostenlose Lehrgänge anbot. Die Reaktion darauf war überwältigend – für jeden der drei Kurse hatten sich 100.000 oder mehr Teilnehmer angemeldet. Das war ein echter Wendepunkt nach dem Motto »Wir müssen handeln, um die sich hier bietenden Möglichkeiten in die Tat umzusetzen«. Und das führte zur Gründung von Coursera.

Martin Ford: Bevor wir darauf zu sprechen kommen, möchte ich mehr über Ihre Forschungsarbeit erfahren. Sie haben sich auf Bayes-Netze und probabilistische Verfahren beim Machine Learning konzentriert. Lässt sich das mit neuronalen Deep-Learning-Netzen kombinieren, oder handelt es sich um völlig unterschiedliche oder konkurrierende Ansätze?

Daphne Koller: Die Frage erfordert eine differenzierte Antwort, die verschiedene Aspekte berücksichtigt. Zum einen gibt es Modelle, die versuchen, den Aufbau -eines Bereichs auf eine Weise interpretierbar zu machen, die für Menschen Sinn -ergibt, zum anderen gibt es Modelle, die einfach nur versuchen, die statistischen -Eigenschaften der Daten zu erfassen. Probabilistische Modelle sind irgendwo dazwischen einzuordnen. Die Deep-Learning-Modelle überschneiden sich mit den probabilistischen Modellen – manche können als codierte Verteilung betrachtet werden. Die meisten konzentrieren sich auf die Maximierung der Vorhersagegenauigkeit des Modells, oft zu Lasten der Interpretierbarkeit. Interpretierbarkeit und die Fähigkeit, eine Struktur zu enthalten, bieten viele Vorteile, wenn man wirklich verstehen muss, wie das Modell funktioniert, beispielsweise bei medizinischen Anwendungen. Auf diese Weise lassen sich auch Situationen besser handhaben, in denen nur wenige Trainingsdaten vorliegen und man das durch Vorwissen wettmachen möchte. Andererseits hat es auch viele Vorteile, auf Vorwissen zu verzichten und die Daten für sich selbst sprechen zu lassen. Es wäre schön, wenn man beides irgendwie kombinieren könnte.

Martin Ford: Sprechen wir über Coursera. Haben Sie sich, nachdem Sie gesehen hatten, wie erfolgreich die Online-Kurse waren, die Sie und andere in Stanford unterrichtet haben, entschlossen, ein Unternehmen zu gründen, um diese Arbeit fortzusetzen?

Daphne Koller: Wir hatten Schwierigkeiten, herauszufinden, welche Schritte wir als Nächstes unternehmen sollten. Sollten wir das Angebot in Stanford ausbauen? Oder eine gemeinnützige Organisation gründen? Oder ein Unternehmen? Wir haben ziemlich lange darüber nachgedacht und schließlich entschieden, dass die Gründung eines Unternehmens am besten wäre, um den maximalen Einfluss zu erzielen. Also haben wir im Januar 2017 das Unternehmen gegründet, das jetzt Coursera heißt.

Martin Ford: Anfangs gab es einen enormen Hype um MOOCs, und es hieß, dass Menschen rund um den Globus auf ihren Smartphones einen Abschluss in Stanford machen könnten. Inzwischen hat es sich offenbar eher dahin entwickelt, dass vor allem Menschen, die bereits über einen Abschluss verfügen, Coursera besuchen, um sich fortzubilden. Die von manchen Leuten vorhergesagten Umwälzungen der Studiengänge haben nicht stattgefunden. Erwarten Sie, dass sich das zukünftig ändert?

Daphne Koller: Ich halte es für wichtig, zur Kenntnis zu nehmen, dass wir niemals behauptet haben, dass Universitäten überflüssig werden. Andere haben das zwar behauptet, aber wir haben dem nie zugestimmt und halten es für keine gute Idee. Der typische Gartner-Hype-Zyklus hat sich bei MOOCs aus irgendeinem Grund verkürzt. 2012 hieß es noch: »MOOCs werden Universitäten überflüssig machen« und 12 Monate später: »Es gibt die Universitäten noch immer, also sind MOOCs gescheitert«. Diese beiden Kommentare sind die absurden Extreme des Hype-Zyklus.

Ich denke aber, dass wir für die Menschen, die normalerweise keinen Zugang zu einer Ausbildung auf diesem Niveau haben, eine Menge erreicht haben. Etwa 25 Prozent der Lernenden bei Coursera besitzen noch keinen Abschluss, und rund 40 Prozent kommen aus Entwicklungsländern. Wenn man sich den prozentualen Anteil der Lernenden ansieht, die sagen, dass sich ihr Leben durch dieses Angebot erheblich verändert hat, stellt man fest, dass es überproportional viele dieser Menschen sind, die einen niedrigem sozioökonomischen Status besitzen oder aus Entwicklungsländern kommen, die von diesen Vorteilen berichten.

Der Nutzen ist also vorhanden, aber ich denke, Sie haben recht, dass die große Mehrheit diejenigen sind, die über einen Internetzugang verfügen und denen das Angebot bekannt ist. Ich hoffe, dass der Bekanntheitsgrad im Lauf der Zeit zunimmt und dass es mehr Internetzugänge geben wird, damit mehr Menschen von diesen Kursen profitieren können.

Martin Ford: Es heißt, dass wir dazu neigen, kurzfristig eintretende Ereignisse zu überschätzen und langfristig auftretende zu unterschätzen. Das scheint ein klassisches Beispiel dafür zu sein.

Daphne Koller: Ganz genau. Die Menschen dachten, wir würden das höhere Bildungswesen in zwei Jahren völlig umstellen. Universitäten gibt es seit 500 Jahren, und sie verändern sich nur langsam. Ich glaube aber, dass sich in den fünf Jahren, seit es Coursera gibt, schon etwas bewegt hat.

Viele Universitäten stellen inzwischen sehr solide Online-Angebote bereit, die oft deutlich preiswerter sind als vor Ort stattfindende Kurse. Als wir anfingen, war allein die Vorstellung, dass eine Spitzenuniversität Online-Kurse anbietet, ein Novum. Heutzutage gehört digitales Lernen für viele Spitzenuniversitäten zum Alltag.

Martin Ford: Ich glaube nicht, dass sich in Stanford in den nächsten zehn Jahren viel ändern wird, aber eine Ausbildung an einer der rund 3.000 weniger wählerischen (und weniger bekannten) Universitäten in den USA ist noch immer sehr teuer. Wenn es eine preiswerte und effektive Lernplattform gäbe, die Zugang zu den in Stanford lehrenden Professoren gewährt, dann stellt sich die Frage, weshalb man sich überhaupt noch bei einem sehr viel weniger angesehenen College einschreiben sollte, wenn man Stanford online besuchen könnte.

Daphne Koller: Das sehe ich genauso. Ich denke, die Umstellungen werden zunächst im Bereich der Graduiertenausbildung erfolgen, insbesondere bei Masterstudiengängen. Das Grundstudium besitzt immer noch eine wichtige soziale Komponente. Man schließt dabei neue Freundschaften, zieht aus dem Elternhaus fort und lernt vielleicht seinen Lebenspartner kennen. In der Graduiertenausbildung sind die Studenten für gewöhnlich angestellte junge Erwachsene, die Verpflichtungen eingegangen sind: Sie haben einen Job, einen Ehepartner oder eine Familie. Für die meisten von ihnen wäre ein Vollzeitstudium an einem College tatsächlich von Nachteil, deshalb werden die Umstellungen zuerst in diesem Bereich stattfinden.

Ich denke, dass sich die Menschen, die diese kleineren Colleges besuchen, irgendwann fragen werden, ob sie ihre Zeit und ihr Geld nicht besser verwenden können, insbesondere die Teilzeitstudenten, die sich neben dem Studium ihren Lebensunterhalt verdienen müssen. Ich denke, dass sich in diesem Bereich in den nächsten zehn Jahren einige interessante Änderungen ergeben werden.

Martin Ford: Wie könnte sich die Technologie weiterentwickeln? Wenn diese Kurse von sehr vielen Teilnehmern belegt werden, fallen Unmengen von Daten an, und ich gehe davon aus, dass sich diese Daten durch Machine Learning und KI nutzen lassen. Wie lassen sich diese Technologien zukünftig in diese Kurse inte-grieren? Werden sie dynamischer, stärker personalisiert und so weiter?

Daphne Koller: Ja, ganz genau. Als wir Coursera starteten, war die Technologie für Innovationen der Pädagogik kaum geeignet. Im Wesentlich wurden die vorhandenen Lerninhalte modularisiert. Wir haben die Kurse durch in das Lehrmaterial eingebettete Übungsaufgaben interaktiver gestaltet, aber es gab kein grundsätzlich anderes Lernerlebnis. Wenn mehr Daten gesammelt werden und das Lernen anspruchsvoller wird, dann wird es zweifelsohne mehr Personalisierung geben. Ich denke, es wird eine Art personalisierten Tutor geben, der die Lernenden motiviert und an den schwierigen Stellen weiterhilft. All dies ist mit den jetzt schon verfügbaren Daten gar nicht so schwierig. Beim Start von Coursera gab es diese Daten noch nicht, wir mussten die Plattform aber irgendwie zum Laufen bringen.

Martin Ford: Es gibt derzeit einen enormen Hype, der sich auf Deep Learning konzentriert. und man könnte leicht den Eindruck gewinnen, dass KI nichts anderes als Deep Learning ist. In jüngster Zeit wurden Stimmen laut, dass der Fortschritt bald zu einem Stillstand kommen könnte und dass Deep Learning durch einen anderen Ansatz ersetzt werden muss. Wie denken Sie darüber?

Daphne Koller: Deep Learning ist nicht die eine Patentlösung, aber ich denke nicht, dass wir es aufgeben müssen. Es war ein entscheidender Schritt vorwärts, aber wird es uns eine KI auf menschlichem Niveau bescheren? Ich denke, wir müssen noch einige große Durchbrüche erzielen, um eine KI auf menschlichem Niveau zu erreichen.

Das liegt zum Teil am Ende-zu-Ende-Training, bei dem das gesamte Netz für eine bestimmte Aufgabe optimiert wird. Diese Aufgabe löst es wirklich gut, aber wenn man die Aufgabe ändert, muss das Netz anders trainiert werden. In vielen Fällen muss die gesamte Architektur verändert werden. Im Moment konzentrieren wir uns auf sehr tiefe und begrenzte vertikale Aufgaben. Das sind außerordentlich schwierige Aufgaben, und wir erzielen erhebliche Fortschritte, aber die jeweilige Aufgabe lässt sich nicht in die nachfolgende überführen. Das Besondere an Menschen ist, dass sie in der Lage sind, viele dieser Aufgaben sozusagen mit derselben »Software« zu erledigen. Ich glaube nicht, dass wir bald eine echte KI erreichen werden.

Dass wir von einer allgemeinen KI noch ziemlich weit entfernt sind, zeigt sich auch daran, dass für das Training eines dieser Modelle sehr, sehr große Datenmengen erforderlich sind. Ein paar Hundert Beispiele reichen für gewöhnlich nicht aus. Menschen können sehr gut anhand sehr kleiner Datenmengen lernen. Ich glaube, das liegt daran, dass es in unserem Gehirn eine Architektur gibt, die sich um alle Aufgaben kümmert, die wir erledigen müssen, und wir können allgemeine Fähigkeiten sehr gut von einem Bereich auf einen anderen übertragen. Es dauert beispielsweise nur etwa fünf Minuten, einem Menschen die Verwendung eines Geschirrspülers zu erklären, obwohl er ihn noch nie benutzt hat. Bei einem Roboter wird das erheblich länger dauern. Das liegt daran, dass Menschen diese allgemein übertragbaren Fähigkeiten besitzen und Lernmethoden beherrschen, die wir unseren KI-Agenten bislang noch nicht verleihen konnten.

Martin Ford: Welche anderen Hindernisse gibt es auf dem Weg zu einer AGI? Sie haben davon gesprochen, in verschiedenen Bereichen zu lernen und in der Lage zu sein, dieses Wissen auf andere Bereiche zu übertragen, aber was ist beispielsweise mit der Vorstellungskraft und der Fähigkeit, neue Ideen hervorzubringen? Wie lässt sich das erreichen?

Daphne Koller: Ich denke, die zuvor erwähnten Dinge sind von zentraler Bedeutung: in der Lage zu sein, Fähigkeiten von einem Bereich auf einen anderen zu übertragen und diese Fähigkeit zu nutzen, anhand sehr begrenzter Trainingsdatenmengen zu lernen und so weiter. Bei den Versuchen, eine Vorstellungskraft zu erreichen, gab es einige interessante Fortschritte, aber ich denke, wir sind davon noch ziemlich weit entfernt.

Denken Sie beispielsweise an GANs (Generative Adversarial Networks). Sie sind bestens dafür geeignet, anhand der zuvor bereitgestellten Bilder neue Bilder zu erzeugen, aber diese Bilder sind sozusagen »Mischungen« der Bilder, mit denen sie trainiert wurden. Der Computer wird keinen Impressionismus erfinden, denn das wäre etwas völlig anderes als das, was wir bislang getan haben.

Eine noch heiklere Frage betrifft das emotionale Verhältnis zu anderen Wesen. Ich bin mir nicht sicher, ob das überhaupt gut definiert ist, denn als Mensch kann man es fingieren. Es gibt Menschen, die vorgeben, eine emotionale Bindung zu anderen hergestellt zu haben. Die Frage lautet also: Wenn man einen Computer dazu bringen kann, sich gut genug zu verstellen, wie kann man dann wissen, ob die emotionale Bindung echt ist? Das erinnert an den Turing-Test für Bewusstsein. Wir können nie mit Sicherheit wissen, ob ein anderes Wesen tatsächlich ein Bewusstsein hat, oder was es eigentlich bedeutet, ein Bewusstsein zu haben. Aber wenn das Verhalten mit dem übereinstimmt, was wir als »bewusst« betrachten, glauben wir es einfach.

Martin Ford: Das ist ein wichtiger Punkt. Muss eine echte AGI ein Bewusstsein besitzen, oder könnte es auch einen superintelligenten Zombie geben? Könnte es eine unglaublich intelligente Maschine geben, die keinerlei innere Erfahrung besitzt?

Daphne Koller: Turings Hypothese, die zum Turing-Test geführt hat, besagt, dass Bewusstsein nicht erkennbar ist. Ich kann nicht mit Sicherheit wissen, ob Sie ein Bewusstsein haben, ich glaube es einfach, weil Sie so aussehen wie ich und weil ich glaube, ein Bewusstsein zu haben. Aufgrund dieser oberflächlichen Ähnlichkeit glaube ich, dass Sie ebenfalls ein Bewusstsein besitzen.

Turing argumentiert wie folgt: Wenn das Verhalten von einer gewissen Komplexität ist, können wir nicht wissen, ob ein Wesen ein Bewusstsein besitzt oder nicht. Wenn eine Hypothese nicht falsifizierbar ist, handelt es sich nicht um Wissenschaft, und man muss einfach daran glauben. Es gibt auch das Argument, dass wir niemals herausfinden werden, ob ein Wesen ein Bewusstsein besitzt, weil das jenseits menschlicher Erkenntnis liegt.

Martin Ford: Ich möchte Sie zur Zukunft der KI befragen. Was steht Ihrer Auffassung nach in der KI derzeit im Vordergrund?

Daphne Koller: Das gesamte Deep-Learning-Framework hat Erstaunliches dabei geleistet, eines der entscheidenden Probleme beim Machine Learning zu lösen, nämlich einen Merkmalsraum festzulegen, der genügend Informationen erfasst, um eine sehr gute Leistung zu erzielen, insbesondere in Kontexten, in denen man kein ausgeprägtes Gespür für den Bereich entwickelt hat. Bevor es Deep Learning gab, musste man monatelang oder sogar jahrelang die Repräsentation der zugrundeliegenden Daten optimieren, um eine bessere Leistung zu erzielen.

Durch die Kombination aus Deep Learning und den jetzt verfügbaren Datenmengen ist es möglich, dass die Maschine die Muster selbst auswählt, und das ist bemerkenswert leistungsfähig. Es ist allerdings wichtig, zu erkennen, dass für die Entwicklung dieser Modelle noch immer viele menschliche Erkenntnisse erforderlich sind. Sie sind nur in anderer Form vorhandenen: Man muss herausfinden, welche Architektur eines Modells in der Lage ist, die entscheidenden Aspekte eines Bereichs zu erfassen.

Wenn man beispielsweise die Art von Netzen betrachtet, die bei maschinellen Übersetzungen Anwendung finden, unterscheiden sie sich sehr von den Architekturen, die bei Computer Vision eingesetzt werden, in deren Design viel menschliche Intuition einfließt. Auch heute noch ist es wichtig, beim Design dieser Modelle Menschen zu beteiligen, denn die Versuche, Computer dazu zu bringen, diese Modelle so gut wie Menschen zu designen, überzeugen mich noch nicht. Man kann einen Computer natürlich dazu bringen, die Architektur zu modifizieren und bestimmte Parameter zu ändern, aber die Architektur insgesamt wird noch immer von einem Menschen entworfen. Davon abgesehen gibt es einige entscheidende Fortschritte, die das ändern. Zum einen können diese Modelle mit sehr großen Datenmengen trainiert werden. Zum anderen gibt es das vorhin erwähnte Ende-zu-Ende-Training, bei dem die Aufgabe vom Anfang bis zum Ende festgelegt ist und die gesamte Architektur darauf trainiert wird, dem erwünschten Ziel möglichst nahezukommen.

Das bedeutet eine Umwälzung, denn die Leistungsverbesserung erweist sich als enorm. AlphaGo und AlphaZero sind hierfür sehr gute Beispiele. Das Modell wurde darauf trainiert, ein Spiel zu gewinnen, und ich denke, dass die Kombination aus Ende-zu-Ende-Training und nahezu unendlich vielen Trainingsdaten (die in diesem Kontext verfügbar sind) für viele der erheblichen Leistungsverbesserungen dieser Anwendungen verantwortlich ist.

Martin Ford: Wie lange wird es in Anbetracht dieser Fortschritte noch dauern, bis wir eine AGI erreichen? Und wie können wir erkennen, dass wir fast so weit sind?

Daphne Koller: In der Technologie müssen noch einige Durchbrüche erzielt werden, bis wir so weit sind, und das sind zufällige Ereignisse, die sich nicht vorhersagen lassen. Vielleicht hat jemand nächsten Monat eine brillante Idee, vielleicht dauert es aber auch noch 150 Jahre. Eine Prognose zu treffen, wann ein zufälliges Ereignis eintritt, ist brotlose Kunst.

Martin Ford: Aber falls diese Durchbrüche gelingen, könnte es dann schon bald eine AGI geben?

Daphne Koller: Selbst, wenn die Durchbrüche gelingen, ist noch viel Arbeit erforderlich, um eine AGI zu verwirklichen. Denken Sie nur zurück an die Fortschritte beim Deep Learning und dem Ende-zu-Ende-Training. Die Grundlagen dafür wurden in den 1950er-Jahren geschaffen, und die Ideen sind seitdem in jedem Jahrzehnt wieder aufgetaucht. Wir haben im Laufe der Zeit kontinuierlich Fortschritte erzielt, aber es waren Jahre wissenschaftlicher Anstrengungen erforderlich, um dorthin zu gelangen, wo wir sind. Und eine AGI ist noch weit entfernt.

Ich denke, dass sich nicht vorhersagen lässt, wann der entscheidende Schritt voran gelingen wird. Möglicherweise erkennen wir ihn noch nicht einmal, wenn wir ihm das erste, zweite oder dritte Mal begegnen. Vielleicht ist er schon erfolgt, und wir wissen es einfach noch nicht. Aber auch nach dieser Entdeckung werden noch Jahrzehnte an Arbeit nötig sein, um das Ganze so zu gestalten, dass es richtig funktioniert.

Martin Ford: Sprechen wir über einige Risiken der KI, zunächst über die Wirtschaft. Es gibt die Vorstellung, dass wir kurz vor einer Art neuen industriellen Revolution stehen, aber viele Wirtschaftswissenschaftler widersprechen dem offenbar. Glauben Sie, dass wir vor einer großen Umwälzung stehen?

Daphne Koller: Ja, ich denke, dass wir in der Wirtschaft vor einer großen Umwälzung stehen. Das größte Risiko dieser Technologie ist, dass sie viele Jobs vernichten wird, die heute von Menschen erledigt werden und die in mehr oder weniger großem Ausmaß von Maschinen übernommen werden. In vielen Fällen wird die Anpassung daran auf soziale Hindernisse stoßen, aber wenn sich die verbesserte Leistung zeigt, wird sich der für eine Umwälzung typische Innovations-zyklus einstellen.

Bei Bürohilfskräften und Supermarktkassierern geschieht das schon, und bald werden auch die Angestellten betroffen sein, die Regale auffüllen. Ich denke, dass all diese Aufgaben in fünf oder zehn Jahren von Robotern oder intelligenten Agenten übernommen werden. Die Frage ist, inwieweit wir für Menschen sinnvolle Jobs erhalten können. In einigen Fällen lässt sich das eindeutig beantworten, in anderen ist es eher unklar.

Martin Ford: Zu den potenziell umwälzenden Technologien gehören selbstfahrende Autos und Lkws. Wann glauben Sie, werden Sie sich ein selbstfahrendes Taxi bestellen können, das Sie zu Ihrem Ziel befördert?

Daphne Koller: Ich denke, dass es hier einen allmählichen Übergang geben wird, bei dem zunächst noch ein Mensch per Fernsteuerung eingreifen kann. Dieses Ziel verfolgen viele der Unternehmen als einen Zwischenschritt auf dem Weg zur vollständigen Autonomie.

Der fernsteuernde Fahrer wird sich in einem Büro befinden und drei oder vier Fahrzeuge gleichzeitig überwachen. Die Fahrzeuge melden sich, wenn sie in eine Situation geraten, mit der sie schlicht und einfach nicht zurechtkommen. Wenn diese Schutzmaßnahme eingerichtet wird, könnte es in vielleicht fünf Jahren in bestimmten Gebieten selbstfahrende Autos geben. Vollständige Autonomie ist eher eine Frage der gesellschaftlichen als der technischen Entwicklung, und Erstere ist schwieriger vorherzusagen.

Martin Ford: Dem stimme ich zu, aber dennoch handelt es sich um eine Umwälzung, die bald viele Fahrer den Job kosten könnte. Glauben Sie, dass ein bedingungsloses Grundeinkommen eine Lösung für diese Jobverluste sein könnte?

Daphne Koller: Ich halte es für verfrüht, diese Entscheidung zu treffen. Wenn man auf die anderen Revolutionen in der Geschichte zurückblickt, dann gab es auch bei der landwirtschaftlichen und der industriellen Revolution die gleichen Vorhersagen, dass es große Umwälzungen geben wird und sehr viele Menschen ihren Job verlieren werden. Die Welt hatte sich verändert, und die betroffenen Menschen haben andere Jobs gefunden. Es ist noch zu früh, um zu beurteilen, ob es sich dieses Mal völlig anders verhalten wird, weil jede Umwälzung Überraschungen mit sich bringt.

Bevor wir uns auf das bedingungslose Grundeinkommen konzentrieren, müssen wir der Bildung sehr viel mehr Beachtung schenken. Von einigen wenigen Ausnahmen abgesehen, ist weltweit zu wenig darin investiert worden, die Menschen für diese neuen Gegebenheiten auszubilden, und ich halte es für äußerst wichtig, die Art der Fähigkeiten zu berücksichtigen, die Menschen benötigen werden, um sich erfolgreich weiterzuentwickeln. Wenn das erledigt ist und wir immer noch nicht wissen, wie wir die Mehrheit der Bevölkerung beschäftigen können, dann ist der Zeitpunkt gekommen, um über ein bedingungsloses Grundeinkommen nachzudenken.

Martin Ford: Fahren wir mit einigen der anderen Risiken fort, die mit KI verbunden sind. Es gibt zwei große Kategorien, die kurzfristigen Risiken, wie den Verlust der Privatsphäre, die Sicherheit und die Bewaffnung von Drohnen oder KI, und die langfristigen, wie eine AGI und deren Folgen.

Daphne Koller: Ich würde sagen, dass all diese kurzfristigen Risiken auch ohne KI schon vorhandenen sind. Es gibt beispielsweise schon jede Menge komplexe, kritische Systeme, in die sich Gegner einhacken könnten.

Unser Stromnetz ist zwar noch nicht mit künstlicher Intelligenz ausgestattet, stellt aber ein beträchtliches Sicherheitsrisiko dar, wenn sich jemand dort einhackt. Ein Herzschrittmacher kann schon jetzt gehackt werden – das ist zwar auch kein KI-System, aber ein elektronisches System, das sich hacken lässt. Und was Waffen betrifft: Kann man ausschließen, dass sich jemand in das Frühwarnsystem einer der Supermächte einhackt und einen Angriff mit Atomwaffen auslöst? KI-Systeme stellen tatsächlich ein Sicherheitsrisiko dar, aber ich weiß nicht, ob es sich qualitativ von den Risiken älterer Technologien unterscheidet.

Martin Ford: Aber nimmt das Risiko nicht zu, wenn sich die Technologie zunehmend verbreitet? Können Sie sich eine Zukunft vorstellen, in der alle Lebensmittel mit selbstfahrenden Lkws transportiert werden, in die sich jemand einhackt und alle zum Stillstand bringt?

Daphne Koller: Sicher, aber das ist kein qualitativer Unterschied. Es gibt ein Risiko, das zunimmt, wenn wir auf elektronische Lösungen zurückgreifen, die leichter komplett ausfallen können, weil sie größer und stärker miteinander vernetzt sind. Früher wurden die Waren durch einzelne Fahrer ausgeliefert. Wenn man einen Totalausfall verursachen wollte, hätte man sämtliche Fahrer von ihrer Arbeit abhalten müssen. Dann übernahmen große Transportunternehmen mit vielen Lieferfahrzeugen diese Aufgabe. Wenn man eines davon lahmlegt, kann ein Großteil der Lieferungen nicht mehr stattfinden. KI-gesteuerte selbstfahrende Fahrzeuge sind der nächste Schritt. Wenn man eine Zentralisierung vornimmt, erhöht man dadurch das Risiko für einen Totalausfall.

Ich will damit nicht sagen, dass es kein höheres Risiko gibt, sondern nur, dass KI in dieser Hinsicht meiner Meinung nach keinen qualitativen Unterschied bedeutet. Das ist die gleiche Zunahme des Risikos, die eintritt, wenn wir immer mehr auf komplexe Technologien zurückgreifen, die komplett ausfallen können.

Martin Ford: Ich möchte auf das Militär und die Bewaffnung von KI und Robotern zu sprechen kommen. Es gibt große Bedenken, dass fortschrittliche kommerzielle Technologien für üble Zwecke missbraucht werden. Ich habe auch mit Stuart Russell gesprochen, der zu diesem Thema ein Video mit dem Titel Slaughterbots produziert hat. Haben sie Bedenken, dass diese Technologie auf bedrohliche Weise eingesetzt wird?

Daphne Koller: Ja, ich halte es für möglich, dass diese Technologie in die falschen Hände gelangt, aber das trifft auch auf andere gefährliche Technologien zu. Im Lauf der Entwicklung des Menschen wurde es immer einfacher, eine große Zahl von Menschen zu töten. Anfangs benötigte man ein Messer und konnte nur jeweils eine Person töten. Dann gab es Pistolen, und man könnte fünf oder sechs Personen umbringen, und schließlich gab es Sturmgewehre, mit denen man 40 oder 50 Menschen töten konnte. Heutzutage gibt es die Möglichkeit, ohne besonders großes Knowhow eine »schmutzige Bombe« (eine radiologische Waffe) herzustellen. Oder denken Sie an biologische Waffen und die Fähigkeit, das Genom zu manipulieren und Viren zu erschaffen. Das sind weitere Möglichkeiten, mithilfe einer leicht zugänglichen modernen Technologie eine große Zahl von Menschen zu töten.

Also ja, die Risiken durch den Missbrauch von Technologie sind vorhanden, aber wir müssen dabei mehr als nur KI berücksichtigen. Ich würde nicht sagen, dass irgendwelche Geschichten über intelligente Killerdrohnen bedrohlicher wirken, als die Vorstellung, dass jemand ein Pockenvirus synthetisiert und es freisetzt. Ich denke, wir haben derzeit für beide Szenarien keine Lösung parat, aber in Letzterem werden sehr viel wahrscheinlicher in kurzer Zeit viele Menschen zu Tode kommen.

Martin Ford: Fahren wir mit den langfristigen Risiken fort, insbesondere mit der AGI. Es gibt die Vorstellung eines Kontrollproblems, bei dem eine Superintelligenz ihre eigenen Ziele verfolgen könnte oder die von uns vorgegebenen Ziele auf unerwartete oder für uns schädliche Weise umsetzt. Was halten Sie von diesen Bedenken?

Daphne Koller: Ich halte sie für verfrüht. Meiner Meinung nach sind noch mehrere Durchbrüche erforderlich, um so weit zu kommen, und es gibt noch zu viele Unbekannte, um zu einer Schlussfolgerung zu gelangen. Von welcher Art könnte eine solche Intelligenz sein? Wird sie Emotionen entwickeln? Was bestimmt ihre Ziele? Wird sie überhaupt den Kontakt zu uns Menschen suchen oder ihre eigenen Wege gehen?

Es gibt schlicht und einfach so viele Unbekannte, dass es verfrüht erscheint, jetzt schon Pläne zu schmieden. Eine AGI ist nicht in Sicht, und selbst wenn uns der Durchbruch gelingt, werden noch Jahre oder Jahrzehnte wissenschaftlicher Arbeit erforderlich sein. Hierbei handelt es sich nicht um ein Phänomen, das eines Tages auf einen Schlag auftritt, sondern um ein allmählich entwickeltes System, und sobald wir wissen, was die entscheidenden Komponenten sind, wäre das ein guter Zeitpunkt, darüber nachzudenken, wie wir sie aufeinander abstimmen und strukturieren, um die besten Ergebnisse zu erzielen. Derzeit ist das alles noch ziemlich kurzlebig.

Martin Ford: Einige der Denkfabriken stehen schon in den Startlöchern, wie etwa OpenAI. Glauben Sie, dass es verfrüht wäre, schon jetzt Ressourcen dafür einzusetzen, oder sollte man mit der produktiven Arbeit anfangen?

Daphne Koller: OpenAI unternimmt verschiedene Dinge. Vor allem entwickeln sie Open-Source-Tools, um den Zugang zu einer wirklich nützlichen Technologie zu demokratisieren. Das ist eine gute Sache. Diese Organisationen machen sich auch viele Gedanken über die anderen Risiken der KI. Auf einer Konferenz, die kürzlich stattgefunden hat (Neural Information Processing Systems 2017), gab es beispielsweise einen sehr interessanten Vortrag darüber, wie Machine Learning die implizit in den Trainingsdaten vorhandene Verzerrung übernimmt und sogar verstärkt. Es ist erschreckend, wie die übelsten Verhaltensweisen (wie Rassismus oder Sexismus) erfasst werden. Das sind wichtige Dinge, über die wir heute nachdenken müssen, denn sie stellen echte Risiken dar, und wir müssen Lösungen finden, um die Situation zu verbessern. Das gehört zu den Aufgaben dieser Denkfabriken.

Das ist etwas ganz anderes als bei Ihrer Frage, wie wir Schutzmaßnahmen in eine noch nicht vorhandene Technologie einbauen, um zu verhindern, dass sie versucht, aus jetzt noch unerfindlichen Gründen die Menschheit auszurotten. Warum sollte sie überhaupt daran interessiert sein, die Menschheit auszurotten? Es ist einfach noch zu früh, sich darüber Sorgen zu machen.

Martin Ford: Halten Sie eine staatliche Regulierung der KI für notwendig?

Daphne Koller: Ich möchte dazu nur sagen, dass meiner Meinung nach die Kenntnisse der Regierung über diese Technologie bestenfalls begrenzt sind, und es ist eine schlechte Idee, wenn Regierungen etwas regulieren, das sie nicht ver-stehen.

KI ist aber eine Technologie, die sich leicht verwenden lässt und auch anderen Regierungen zur Verfügung steht, die Zugang zu vielen Ressourcen haben und nicht unbedingt an die gleichen ethischen Regeln gebunden sind wie unsere Regierung. Ich glaube nicht, dass die Regulierung dieser Technologie die richtige Lösung ist.

Martin Ford: Insbesondere China steht im Mittelpunkt des Interesses. In einigen Bereichen sind die Chinesen im Vorteil: Sie verfügen aufgrund der großen Bevölkerung über riesige Datenmengen und müssen nicht so sehr auf die Privatsphäre achten. Laufen wir Gefahr, ins Hintertreffen zu geraten, und sollten wir uns Sorgen machen?

Daphne Koller: Ich denke, die Antwort lautet ja, und das halte ich für wichtig. Wenn man danach Ausschau hält, welche staatlichen Interventionen von Vorteil sein können, dann würde ich sagen, dass sie technologische Fortschritte ermöglichen sollten, die die Wettbewerbsfähigkeit steigern – nicht nur mit China, sondern auch mit anderen Ländern. Das umfasst auch Investitionen in die Wissenschaft, Investitionen in die Ausbildung und Zugriffsmöglichkeiten auf Daten, bei denen die Privatsphäre respektiert und dennoch Fortschritt ermöglicht werden. Im Bereich Gesundheitswesen, der mich interessiert, könnte es sehr erleichtert werden, Fortschritte zu machen. Wenn man beispielsweise Patienten befragt, stellt sich he-raus, dass die meisten damit einverstanden sind, dass ihre Daten für Forschungszwecke genutzt werden, die zu besseren Behandlungsmethoden führen. Selbst wenn sie sich selbst keine Vorteile davon versprechen, wissen sie, dass anderen dadurch später geholfen werden kann, und das liegt ihnen am Herzen. Die rechtlichen und technischen Schwierigkeiten, die überwunden werden müssen, um medizinische Daten weiterzugeben, sind derzeit so groß, dass die Daten nicht geteilt werden. Und das verlangsamt den Fortschritt sehr, den wir dabei erzielen, Daten von mehreren Patienten sammeln zu können, Behandlungsmethoden für bestimmte Untergruppen zu entwickeln und so weiter.

Hier wäre eine Änderung sowohl der Politik auf Regierungsebene als auch der gesellschaftlichen Normen von großer Bedeutung. Ich gebe Ihnen ein Beispiel für das, was ich meine: Betrachten Sie nur den Unterschied der Organspenderquote in Ländern, in denen man einer Organspende ausdrücklich widersprechen bzw. zustimmen muss. In beiden Fällen hat man die vollständige Kontrolle darüber, ob die Organe eines Menschen im Todesfall gespendet werden oder nicht, aber in den Ländern, in denen der Organspende ausdrücklich widersprochen werden muss, ist die Organspenderquote beträchtlich höher als in den Ländern, in denen man der Organspende ausdrücklich zustimmen muss. Man erzeugt die Erwartungshaltung, dass die Menschen normalerweise zustimmen würden, denn schließlich haben sie ja die Möglichkeit, zu widersprechen. Durch ein vergleichbares System für das Teilen von Daten wären mehr Daten verfügbar, und neue Forschungsergebnisse könnten erheblich schneller veröffentlicht werden.

Martin Ford: Glauben Sie, dass die Vorteile von KI, Machine Learning und all der anderen Technologien die Risiken wettmachen?

Daphne Koller: Ja. Den Fortschritt aufzuhalten, indem man die Weiterentwicklung der Technologie einstellt, ist der falsche Ansatz. Wenn man die Risiken verringern möchte, muss man sorgfältig darüber nachdenken, wie die gesellschaftlichen Normen geändert werden müssen und welche Sicherheitsmaßnahmen getroffen werden. Die Weiterentwicklung der Technologie einzustellen, ist schlicht und einfach kein brauchbarer Ansatz. Wenn man selbst keine technologischen Fortschritte erzielt, wird es anderen gelingen, deren Absichten möglicherweise erheblich weniger vorteilhaft sind als die eigenen. Die Technologie muss sich weiterentwickeln können, und wir müssen über die Mechanismen nachdenken, um sie in Richtung des Besseren zu lenken.


Daphne Koller war Rajeev Motwani Professor of Computer Science an der Stanford University. Koller leistete signifikante Beiträge zur KI, insbesondere auf den Gebieten des Bayes’schen (probabilistischen) Machine Learnings und der Wissensrepräsentation. 2004 erhielt sie für ihre Arbeit auf diesem Gebiet ein Forschungsstipendium der MacArthur Foundation.

2012 gründete Koller gemeinsam mit Andrew Ng, ihrem Kollegen aus Stanford, die Online-Bildungsplattform Coursera, wo sie als stellvertretende Geschäftsführerin und Vorstandsvorsitzende tätig war. Ihre aktuelle Forschungsarbeit konzentriert sich auf den Einsatz von Machine Learning und Data Science im Gesundheitswesen. Sie war als Chief Computing Officer bei Calico tätig, einem Tochterunternehmen von Alphabet, das daran arbeitet, die Lebensdauer des Menschen zu verlängern. Koller ist Gründerin und Leiterin von insitro, einem Biotech-Start-up, das Machine Learning verwendet, um Arzneimittel zu entwickeln.

Koller erhielt Bachelor- und Master-Abschlüsse von der Hebrew University of Jerusalem in Israel und 1993 ihren Doktortitel von der Stanford University. Sie wurde für ihre Forschungsarbeiten vielfach ausgezeichnet und ist Fellow der Association for the Advancement of Artificial Intelligence. 2011 wurde sie zum Mitglied der National Academy of Engineering ernannt. 2013 wurde sie vom Time Magazine in der Liste der 100 einflussreichsten Menschen aufgeführt.