Jeffrey Dean

Google Senior Fellow, Leiter KI und Google Brain

Jeff Dean kam 1999 zu Google und wirkte dort bei der Entwicklung von vielen der wichtigsten Systeme mit. Dabei war er in Bereichen wie Suche, Anzeigengeschäft, Nachrichten und Sprachübersetzungen tätig und darüber hinaus am Design der verteilten Rechner-architektur des Unternehmens beteiligt. In den letzten Jahren konzentrierte er sich auf KI und Machine Learning und arbeitete an der Entwicklung von TensorFlow, Googles weitverbreiteter Open-Source-Software für Deep Learning. Derzeit weist er Google als Leiter der KI und leitender Programmierer für Google Brain den Weg in die Zukunft.

[Bild]

Wir alle arbeiten gemeinsam daran, wirklich intelligente und anpassungsfähige KI-Systeme zu entwickeln. Diese Systeme sollen in der Lage sein, eine neue Aufgabe zu erfassen und Teile des beim Lösen vieler anderer Aufgaben erworbenen Wissens einzusetzen, um plötzlich in der Lage zu sein, diese neue Aufgabe auf flexible Weise lösen zu können, was ein wesentliches Kennzeichen menschlicher Intelligenz darstellt. Die eigentliche Frage ist, wie wir Computersystemen diese Fähigkeit verleihen können.

Martin Ford: Wie stellen Sie sich als Leiter der KI-Abteilung und des Projekts Google Brain die Zukunft der KI-Forschung bei Google vor?

Jeff Dean: Ganz allgemein betrachten wir es als unsere Aufgabe, den Stand der Technik beim Machine Learning voranzutreiben, durch die Entwicklung neuer Machine-Learning-Algorithmen und ‑Verfahren intelligentere Systeme hervorzubringen und eine Software- und Hardware-Infrastruktur aufzubauen, die bei diesen Ansätzen schnellere Fortschritte erlaubt und anderen Entwicklern die Möglichkeit bietet, diese Ansätze auf die Aufgaben anzuwenden, an denen sie interessiert sind. TensorFlow ist dafür ein gutes Beispiel.

Google Brain ist eins von mehreren Forschungsteams der KI-Abteilung von Google, und einige der anderen Teams konzentrieren sich auf andere Dinge. Es gibt beispielsweise ein großes Team, das sich auf Probleme der maschinellen Wahrnehmung konzentriert und ein weiteres, das sich mit dem Verstehen natürlicher Sprache befasst. Es gibt hier keine scharfen Grenzen, die Interessen der verschiedenen Teams überschneiden sich, und viele Teams arbeiten bei den verschiedenen Projekten, mit denen wir uns beschäftigen, ziemlich eng zusammen.

Wir arbeiten manchmal sehr eng mit den Produktteams von Google zusammen. Wir haben in der Vergangenheit mit dem für die Rangfolge der Suchergebnisse zuständigen Team zusammengearbeitet und versucht, Deep Learning auf die Probleme bei der Ermittlung der Rangfolge anzuwenden. Es gab auch eine Zusammenarbeit mit dem Übersetzungs- und dem Gmail-Team, sowie mit vielen anderen Teams bei Google. Ein weiterer Bereich ist die Erforschung neuer und interessanter Gebiete, von denen wir wissen, dass Machine Learning erheblich zur Lösung der dort anstehenden Aufgaben beitragen kann.

Wir investieren beispielsweise viel Arbeit in die Anwendung von KI und Machine Learning im Gesundheitswesen und in der Robotik. Das sind zwei Beispiele, aber wir untersuchen auch, ob es neue Einsatzmöglichkeiten gibt. Es gibt 20 verschiedene Gebiete, von denen wir glauben, dass sich Machine Learning, beziehungsweise unsere speziellen Fachkenntnisse, bei entscheidenden Aspekten der Aufgaben als wirklich nützlich erweisen könnten. Ich habe also im Wesentlichen die Aufgabe, dafür zu sorgen, dass wir bei all diesen Projekten so ambitioniert wie möglich sind und auch, das Unternehmen in neue, interessante Richtungen zu führen.

Martin Ford: DeepMind konzentriert sich sehr auf eine AGI. Ist die andere KI-Forschung bei Google also eher auf eingeschränktere und praxisorientierte Anwendungen ausgerichtet?

Jeff Dean: Dass DeepMind sich eher auf eine AGI konzentriert, ist richtig, und ich denke, sie verfügen über einen durchdachten Plan, der zu einer AGI führen könnte, wenn erst dies, dann das, dann jenes gelöst wird. Das soll nicht heißen, dass sich die übrige KI-Forschung bei Google nicht damit befasst. Viele der KI-Forscher konzentrieren sich auch darauf, neue Fähigkeiten für allgemeine intelligente Systeme zu entwickeln, eine AGI, wenn Sie es so nennen möchten. Ich würde sagen, unser Ansatz ist etwas natürlicher. Wir kümmern uns um Dinge, von denen wir wissen, dass sie wichtig sind, die wir aber noch nicht beherrschen, und sobald die Probleme gelöst sind, finden wir heraus, welche Aufgaben wir als Nächstes lösen wollen, um neue Fähigkeiten zu erlangen.

Der Ansatz unterscheidet sich ein wenig, aber letzten Endes arbeiten wir alle gemeinsam daran, wirklich intelligente und anpassungsfähige KI-Systeme zu entwickeln. Diese Systeme sollen in der Lage sein, eine neue Aufgabe zu erfassen und Teile des beim Lösen vieler anderer Aufgaben erworbenen Wissens einzusetzen, um plötzlich in der Lage zu sein, diese neue Aufgabe auf flexible Weise lösen zu können, was ein wesentliches Kennzeichen menschlicher Intelligenz darstellt. Die eigentliche Frage ist, wie wir Computersystemen diese Fähigkeit verleihen können.

Martin Ford: Wie ist Ihr Interesse an KI entstanden, und auf welchem Weg sind Sie zu der Rolle gelangt, die Sie jetzt bei Google einnehmen?

Jeff Dean: Als ich neun Jahre alt war, hat mein Vater sich einen Computer beschafft, einen Bausatz, den er selbst zusammengesetzt hat. Darauf habe ich während meiner Schulzeit programmieren gelernt. Anschließend erwarb ich an der University of Minnesota Abschlüsse in Informatik und Wirtschaftswissenschaft. In meiner Diplomarbeit ging es um paralleles Trainieren neuronaler Netze. Das war Ende der 1980er- und Anfang der 1990er-Jahre, als neuronale Netze neu und spannend waren. Mir gefiel die Abstraktion, die sie boten; das war schön.

Ich glaube, viele Leute sahen das damals ähnlich, aber uns stand einfach nicht genug Rechenleistung zur Verfügung. Ich dachte damals, dass wir tolle Sachen anstellen könnten, wenn die 60-fache Rechenleistung der Maschinen mit 64-Bit-Prozessoren verfügbar wäre. Wie sich zeigte, brauchten wir tatsächlich eher die millionenfache Rechenleistung, aber die steht heute zur Verfügung.

Dann arbeitete ich ein Jahr lang bei der Weltgesundheitsorganisation und entwickelte Statistiksoftware für die Beobachtung und Prognose von HIV- und AIDS-Erkrankungen. Anschließend besuchte ich die Graduiertenschule der University of Washington, wo ich für die Arbeiten über Compiler-Optimierung einen Doktortitel in Informatik erwarb. Danach war ich bei DEC in Palo Alto im industriellen Forschungslabor tätig, und dann trat ich einem Start-up bei – ich lebte im Silicon Valley, und das bot sich geradezu an!

Schließlich landete ich bei Google, das damals erst 25 Angestellte hatte, und dort bin ich bis heute geblieben. Ich habe bei Google an einer Reihe verschiedener Dinge gearbeitet. Zunächst einmal arbeitete ich an unserem ersten Anzeigen-system. Anschließend habe ich mich mehrere Jahre lang mit dem Suchsystem beschäftigt und an verschiedenen Features gearbeitet, wie dem Crawling-System, dem Suchanfragen-System, dem Indizierungs-System, den Funktionen für die Rangfolge der Suchergebnisse etc. Danach habe ich mich mit unserer Infrastruktur-Software befasst, mit Dingen wie MapReduce, Bigtable und Spanner und auch mit den Indizierungs-Systemen.

Seit 2011 habe ich mich stärker auf Machine-Learning-orientierte System konzen-triert, weil ich sehr daran interessiert war, wie wir die riesigen verfügbaren Datenmengen dafür einsetzen können, sehr große und leistungsfähige neuronale Netze zu trainieren.

Martin Ford: Sie sind Leiter und einer der Mitbegründer von Google Brain, einer der ersten echten Anwendungen von Deep Learning und neuronalen Netzen. Könnten Sie kurz umreißen, wie sich Google Brain entwickelt hat und welche Rolle es bei Google einnimmt?

Jeff Dean: Andrew Ng war bei Google X einen Tag pro Woche als Berater tätig. Eines Tages lief er mir in der Küche über den Weg, und ich fragte ihn: »Was haben Sie vor?«. Er antwortete mir: »Oh, ich muss mich hier erst noch zurechtfinden, aber meine Studenten in Stanford untersuchen, wie sich neuronale Netze auf verschiedene Aufgabenstellungen anwenden lassen, und das funktioniert jetzt offenbar«. Beim Schreiben meiner Diplomarbeit vor 20 Jahren hatte ich Erfahrungen mit neuronalen Netzen gesammelt, also sagte ich zu ihm: »Cool, neuronale Netze gefallen mir. Wie funktionieren sie?«. Wir kamen ins Gespräch und entwickelten den doch ziemlich ehrgeizigen Plan, für das Training neuronaler Netze so viele Daten wie irgend möglich zu verwenden.

Wir nahmen zwei Aufgaben in Angriff. Die erste war das unüberwachte Lernen aus Bilddaten. Wir haben versucht, einen unüberwachten Lernalgorithmus und 10 Millionen Bilder von zufällig ausgewählten YouTube-Videos zu verwenden, um zu überprüfen, was geschieht, wenn wir ein sehr großes Netz trainieren. Vielleicht kennen Sie die berühmte Visualisierung des Katzen-Neurons?

Martin Ford: Ja, ich erinnere mich, dass ihr seinerzeit viel Beachtung geschenkt wurde.

Jeff Dean: Das war ein Hinweis darauf, dass irgendetwas Interessantes vor sich geht, wenn man diese Modelle mit sehr großen Datenmengen trainiert.

Martin Ford: Der Deutlichkeit halber: Dabei handelt es sich um unüberwachtes Lernen in dem Sinn, dass das System das Konzept einer Katze eigenständig anhand von unstrukturierten und nicht gekennzeichneten Daten erkennt?

Jeff Dean: Richtig. Wir haben dem System die unbearbeiteten Bilder der YouTube-Videos bereitgestellt, und der unüberwachte Algorithmus versuchte, eine Repräsentation zu entwickeln, die es erlauben würde, die Bilder anhand dieser kompakten Repräsentation zu rekonstruieren. Das System erlernte beispielsweise, Muster zu entdecken, die feuern, wenn in der Mitte eines Bilds irgendeine Art Katze vorhanden war. Das kommt bei YouTube-Videos relativ häufig vor und war schon ziemlich cool.

Die zweite Sache, die wir in Angriff nahmen, war die Zusammenarbeit mit dem Spracherkennungsteam bei der Anwendung von Deep Learning und tiefen neuro-nalen Netzen auf die Aufgaben des Spracherkennungssystems. Zunächst arbeiteten wir an dem akustischen Modell. Man versucht dabei, den Audio-Wellenformen die Klänge bestimmter Wortbestandteile zuzuordnen, wie etwa »buh«, »fuh« oder »ss«, also den Klängen, die Worte bilden. Wie sich zeigte, waren neuronale Netze dafür sehr viel besser geeignet als die Systeme, die wir vorher verwendet hatten.

Die Fehlerrate des Spracherkennungssystems bei Wörtern sank beträchtlich. Wir sahen uns dann nach anderen Teams bei Google um, mit denen wir zusammenarbeiten könnten, die an interessanten Aufgaben der Wahrnehmung arbeiteten, etwa in den Bereichen Sprache, Bilderkennung oder Videoverarbeitung. Wir entwickelten Softwaresysteme, die es anderen erleichtern sollten, diese Ansätze auf neue Aufgaben anzuwenden. Die umfassenden Berechnungen konnten relativ einfach auf mehrere Computer verteilt werden, ohne dass ein Programmierer dafür ein Verfahren angeben musste. Man musste einfach nur sagen: »Hier ist ein großes Modell, das ich trainieren möchte, leg also los und verwende dafür 100 Computer«. Und das funktionierte. Das war die erste Generation von Software, die wir entwickelt hatten, um Aufgaben dieser Art in Angriff zu nehmen.

Dann entwickelten wir die zweite Generation, nämlich TensorFlow, und wir entschlossen uns, es als Open Source zu veröffentlichen. Wir hatten bei der Entwicklung drei Ziele im Auge. Erstens sollte es wirklich flexibel sein, damit wir viele verschiedene Forschungsideen im Bereich Machine Learning schnell ausprobieren können. Zweitens sollte es skalierbar sein, damit wir Probleme mit sehr großen Datenmengen in Angriff nehmen und Modelle mit hohem Rechenaufwand verwenden können. Und drittens wollten wir in der Lage sein, bei einem Modell, das in einem vergleichbaren Softwaresystem funktioniert, aus einer Forschungsidee ein Produktivsystem zu machen. Ende 2015 haben wir TensorFlow als Open-Source-Projekt veröffentlicht, und seitdem hat es auch extern eine ziemlich hohe Akzeptanz gefunden. Es gibt inzwischen eine große Community von TensorFlow-Usern, die in einem breiten Spektrum von Unternehmen und wissenschaftlichen Institutionen tätig sind, und es wird sowohl von Privatleuten als auch von öffentlichen Einrichtungen genutzt.

Martin Ford: Soll TensorFlow ein Feature der Cloud-Server werden, sodass Ihre Kunden Zugang zum Machine Learning erhalten?

Jeff Dean: Ja, aber hier gibt es einige Abstufungen. TensorFlow selbst ist ein Open-Source-Softwarepaket. Unsere Cloud soll die beste Umgebung für das Ausführen von TensorFlow-Programmen sein, aber man kann sie auch auf einem Laptop, einem Rechner mit GPU-Karte, einem Raspberry Pi oder einem Android-System ausführen.

Martin Ford: Richtig, aber in der Google Cloud werden Tensor-Prozessoren und speziell optimierte Hardware verfügbar sein?

Jeff Dean: Das ist richtig. Neben der Entwicklung von TensorFlow haben wir auch am Design von Prozessoren gearbeitet, die für diese Art von Machine-Learning-Anwendungen maßgeschneidert sind. Diese Prozessoren sind im Wesentlichen auf lineare Algebra geringer Präzision spezialisiert, die all den Deep-Learning-Anwendungen zugrunde liegt, die in den letzten sechs oder sieben Jahren entwickelt wurden.

Die Prozessoren können Modelle sehr schnell trainieren und sind dabei auch noch energiesparender. Sie sind auch für Schlussfolgerungen einsetzbar, wenn es also schon ein trainiertes Modell gibt, das man schnell mit hohem Datendurchsatz in einem Produktivsystem anwenden möchte, wie etwa bei Übersetzungen, bei unseren Spracherkennungssystemen oder sogar bei der Google-Suche.

Wir haben auch die zweite Generation der Tensor-Prozessoren (Tensor Processing Units, TPUs) fertiggestellt, die den Kunden auf verschiedene Weise zugänglich sind. Zum einen gehören sie zu einigen unserer Cloud-Produkte, zum anderen können die Kunden aber auch eine virtuelle Maschine verwenden, der eine Cloud-TPU zugeordnet ist, und dort ihre eigenen, in TensorFlow formulierten Machine-Learning-Berechnungen ausführen.

Martin Ford: Wenn all diese Technologien Bestandteil der Cloud sind, wird Machine Learning dann bald jedem zur Verfügung stehen, so wie ein Versorgungsgut wie Wasser oder Strom?

Jeff Dean: Wir bieten eine Auswahl von Cloud-Produkten an, die für verschiedene Kundenkreise in diesem Bereich gedacht sind. Wenn man schon einige Erfahrung mit Machine Learning hat, kann man eine virtuelle Maschine mit einer TPU verwenden und seine eigenen TensorFlow-Programme schreiben, um spezielle Aufgaben auf individuell anpassbare Weise zu lösen.

Wenn man noch kein Experte ist, gibt es eine Reihe anderer Möglichkeiten. Wir bieten vortrainierte Modelle an, die man ohne Machine-Learning-Kenntnisse verwenden kann. Man kann uns einfach ein Bild oder eine Audiodatei schicken, und wir stellen dann fest, was das Bild oder die Audiodatei enthält. Beispielsweise »Das ist ein Bild einer Katze« oder »Die Menschen auf dem Bild scheinen fröhlich zu sein« oder »Wir haben in dem Bild die folgenden Wörter gefunden«. Oder im Fall einer Audiodatei: »Die Personen, die in diesem Ausschnitt zur hören sind, haben Folgendes gesagt«.

Wir bieten auch eine AutoML-Produktreihe an, die für Kunden gedacht ist, die keine Machine-Learning-Experten sind, aber eine angepasste Lösung für eine bestimmte Aufgabe benötigen. Stellen Sie sich vor, dass auf einem Fließband 100 verschiedene Bauteile befördert werden. Sie haben Fotos von den Bauteilen und möchten die Bauteile anhand der Pixel der Bilder identifizieren. Wir können dann mit diesem Verfahren namens AutoML ein Modell für Sie trainieren, ohne dass Sie irgendwelche Machine-Learning-Kenntnisse benötigen. Im Wesentlichen werden wiederholt Machine-Learning-Experimente durchgeführt, so wie es auch ein menschlicher Machine-Learning-Experte machen würde, Sie benötigen jedoch keine Machine-Learning-Kenntnisse. Das Verfahren funktioniert automatisch, und schließlich erhalten Sie ein sehr genau arbeitendes Modell für die spezielle Aufgabe, ohne dass Sie ein Machine-Learning-Experte sein müssen.

Ich halte das für wirklich wichtig, denn heutzutage gibt es weltweit zwischen 10.000 und 20.000 Organisationen, die Machine-Learning-Kenntnisse eingekauft haben und Machine Learning produktiv einsetzen. Ich habe keine genauen Zahlen, aber die Größenordnung stimmt. Wenn man nun alle Organisationen auf der Erde berücksichtigt, die über Daten verfügen, die für Machine Learning genutzt werden könnten, dürften es eher 10 Millionen Organisationen sein, die Aufgaben mit Machine Learning lösen möchten

Unser Ziel ist es, dass sich dieser Ansatz sehr viel einfacher nutzen lässt, damit man nicht erst zum Machine-Learning-Experten werden muss, um ihn anzuwenden. Es ist eher mit dem Schreiben einer Datenbankabfrage vergleichbar. Wenn User mit diesem Kompetenzniveau ein funktionierendes Machine-Learning-Modell erstellen könnten, wäre das schon ziemlich beeindruckend. Jede Kleinstadt verfügt beispielsweise über jede Menge interessanter Daten, die zum Festlegen der Dauer von Ampelphasen genutzt werden könnten. Zu diesem Zweck setzen sie jedoch kein Machine Learning ein, obwohl sie das eigentlich sollten.

Martin Ford: Sie arbeiten also unter anderem auf eine Demokratisierung der KI hin. Was ist mit dem Weg zu einer allgemeinen KI, welche Hindernisse sehen Sie hier?

Jeff Dean: Eines der größten Probleme bei der heutigen Verwendung von Machine Learning ist, dass wir typischerweise nach einer Aufgabe suchen, die wir mit Machine Learning lösen wollen und dann die für überwachtes Lernen erforderlichen Daten sammeln. Anschließend nutzen wir diese Daten, um das Modell zu trainieren, das seine Aufgabe dann zwar sehr gut erledigt, aber überhaupt nichts anderes kann.

Wenn wir wirklich allgemein intelligente Systeme erreichen wollen, benötigen wir ein einziges Modell, dass 100.000 Aufgaben erledigen kann. Wenn dann die 100.001ste Aufgabe ansteht, kann es auf das Wissen zurückgreifen, das es beim Lösen der anderen Aufgaben erlangt hat und neue Verfahren entwickeln, die zum Lösen der neuen Aufgabe geeignet sind. Das hat mehrere Vorteile. Es gibt beispielsweise den enormen Nutzen, dass die Vielfalt der Erfahrungen verwendet werden kann, um neue Aufgaben schneller und besser zu lösen, weil viele Aufgaben etwas gemeinsam haben. Außerdem werden weniger Daten oder Beobachtungen benötigt, um zu erlernen, eine neue Aufgabe zu erledigen.

Das Abschrauben des Deckels von einem bestimmten Gefäß hat große Ähnlichkeit mit dem Abschrauben des Deckels von einem anderen Gefäß, selbst wenn sich die Drehmechanismen ein wenig unterscheiden. Das Lösen einer Matheaufgabe hat große Ähnlichkeit mit dem Lösen anderer Matheaufgaben, auch wenn es andere Zahlen sind. Ich denke, das ist der Ansatz, den wir hier verfolgen müssen, und das Durchführen von Experimenten ist ein großer Teil davon. Wie also kann ein System aus dem Vorführen von Handlungen lernen? Überwachtes Lernen funktioniert auf diese Weise, aber wir arbeiten in der Robotik ebenfalls in diesem Bereich. Ein Mensch führt eine Fähigkeit vor, und Roboter können aus Videoaufzeichnungen der Fähigkeit lernen. Beispielsweise können Roboter anhand von relativ wenigen Beispielen lernen, Getränke einzuschenken.

Ein weiteres Hindernis ist, dass wir sehr große Computersysteme benötigen, denn wenn wir wollen, dass ein einziges System alle Machine-Learning-Aufgaben löst, sind dazu wirklich eine Menge Berechnungen erforderlich. Und wenn wir außerdem verschiedene Ansätze ausprobieren wollen, dann müssen die Berechnungen bei dieser Art von Experimenten wirklich sehr schnell erfolgen. Einer der Gründe dafür, dass wir in die Entwicklung von Hardware zur Beschleunigung von Machine Learning investieren, wie unsere TPUs, ist der Folgende: Wenn man große, einzelne, leistungsfähige Modelle entwickeln will, davon sind wir überzeugt, ist es wirklich wichtig, dass sie über genügend Rechenleistung verfügen, um interessante Dinge zu tun und schnelle Fortschritte zu ermöglichen.

Martin Ford: Was ist mit den Risiken, die mit KI einhergehen? Worüber sollten wir uns wirklich Sorgen machen?

Jeff Dean: Die Änderungen in der Arbeitnehmerschaft werden beträchtlich sein, und Regierungen und politische Entscheidungsträger sollten dem wirklich Beachtung schenken. Auch wenn es keine weiteren nennenswerte Fortschritte geben sollte, die unsere Möglichkeiten erweitern, ist eindeutig klar, dass es eine große Veränderung darstellt, wenn Computer viele Aufgaben erledigen können, die vor vier oder fünf Jahren noch nicht automatisiert werden konnten. Das betrifft nicht nur einen Sektor, sondern die verschiedensten Jobs und Beschäftigungen.

Ich war an einem Ausschuss der Behörde für Wissenschafts- und Technologie-politik beteiligt, der am Ende der Obama-Regierung 2016 einberufen wurde, bei dem rund 20 Machine-Learning-Experten und etwa 20 Wirtschaftswissenschaftler zusammentrafen. Wir diskutierten über die Auswirkungen auf den Arbeitsmarkt. Hierbei handelt es sich eindeutig um etwas, worauf die Regierung achten muss. Sie muss den Menschen, deren Jobs sich ändern, Wege aufzeigen, wie sie sich fortbilden oder an Umschulungen teilnehmen können, damit sie in der Lage sind, Aufgaben zu übernehmen, die nicht von der Automatisierung bedroht sind. Dass Regierungen hier eine wesentliche und klare Rolle einnehmen müssen, ist ein wichtiger Punkt.

Martin Ford: Glauben Sie, dass wir eines Tages ein bedingungsloses Grundeinkommen benötigen werden?

Jeff Dean: Ich weiß es nicht. Das ist sehr schwer vorherzusagen, weil es bisher bei jeder technologischen Neuerung solche Änderungen gegeben hat; die Situation ist ja nicht völlig neu. Bei der industriellen und der landwirtschaftlichen Re-volution haben all diese Dinge zu einem Ungleichgewicht in der Gesellschaft geführt. Die Arbeit, die Menschen alltäglich verrichten, hat sich enorm verändert. Ich denke, es wird sich insofern ähnlich verhalten, als dass völlig neue Beschäftigungen entstehen, aber es ist schwierig vorherzusagen, wie diese Beschäftigungen genau aussehen werden.

Ich halte es für wichtig, dass Menschen flexibel bleiben und Zeit ihres Lebens Neues erlernen. Ich denke, das trifft schon heute zu. Vor 50 Jahren konnte man zur Schule gehen, anschließend einen Beruf wählen und ihn viele, viele Jahre ausüben. Heutzutage nimmt man ein paar Jahre eine bestimmte Rolle ein, erwirbt neue Fähigkeiten, und übt dann eine etwas andere Tätigkeit aus. Diese Art von Flexibilität halte ich für wichtig.

Was die anderen Risiken betrifft, bin ich nicht besonders besorgt, dass es die von Nick Bostrom befürchtete Superintelligenz geben wird. Ich denke, dass wir als -Informatiker und Machine-Learning-Forscher die Gelegenheit und die Fähigkeit -haben, mitzugestalten, wie Machine-Learning-Systeme in unserer Gesellschaft integriert und eingesetzt werden.

Wir können hier vernünftige Entscheidungen treffen, oder vielleicht auch nicht so vernünftige. Sofern wir die richtigen Entscheidungen treffen, die dafür sorgen, dass all diese Dinge für die Menschheit von Vorteil sind, dann wird es fantastisch sein. Wir werden eine bessere Gesundheitsversorgung haben und in der Lage sein, zusammen mit menschlichen Wissenschaftlern alle möglichen neuen Erkenntnisse zu entdecken, indem wir automatisch neue Hypothesen aufstellen. Selbstfahrende Autos werden unsere Gesellschaft auf sehr positive Weise beeinflussen, aber gleichzeitig wird das zu Umwälzungen auf dem Arbeitsmarkt führen. Bei vielen dieser Entwicklungen gibt es Abstufungen, die von Bedeutung sind.

Martin Ford: Eine überspitzte Sicht dieser Situation ist ein kleines Team – vielleicht bei Google –, das eine AGI entwickelt und nicht unbedingt in die umfassenderen Entscheidungen einbezogen wird. Und dann stellt sich heraus, dass diese kleine Gruppe tatsächlich für alle die Entscheidungen trifft. Glauben Sie, dass Teile der KI-Forschung oder bestimmte Anwendungen reguliert werden sollten?

Jeff Dean: Das ist durchaus möglich. Ich denke, Regulierung sollte eine Rolle spielen, aber die Regulatoren müssen durch Experten des Fachgebiets informiert werden. Ich habe den Eindruck, dass die Regulierung manchmal zur Verzögerung dient, damit die Regierungen und die politischen Entscheidungsträger Gelegenheit haben, in Erfahrung zu bringen, was inzwischen möglich ist. Reflexartige Reaktionen bei der Regulierung oder der Gestaltung der Vorschriften sind nicht hilfreich, aber ein sachkundiger Dialog mit Menschen, die im Fachgebiet tätig sind, ist wichtig, wenn die Regierung herausfinden will, welche Rolle sie bei der Festlegung der Regeln spielen sollte.

Was die Entwicklung einer AGI betrifft, halte ich es für wirklich wichtig, ethisch zu handeln und fundierte Entscheidungen zu treffen. Das ist einer der Gründe dafür, dass Google ein Dokument veröffentlicht hat, das die Prinzipien darlegt, an die wir uns bei der Inangriffnahme solcher Aufgaben halten (siehe https://www.blog.google/technology/ai/ai-principles/). Diese KI-Prinzipien sind ein gutes Beispiel dafür, dass wir uns nicht nur über die technische Entwicklung Gedanken machen, sondern auch, wovon wir uns bei der Inangriffnahme welcher Art von Problemen leiten lassen, wie wir sie angehen und was wir unterlassen.


Jeffrey Dean kam 1999 zu Google, ist derzeit Senior Fellow der Forschungsgruppe und leitet das Projekt Google Brain sowie die KI-Forschung des Unternehmens.

Dean erhielt 1996 einen Doktortitel in Informatik von der University of Washington, wo er gemeinsam mit Craig Chambers an Optimierungsverfahren für objektorientierte Programmiersprachen arbeitete. 1990 erhielt er von der University of Minnesota einen Bachelor-Abschluss (summa cum laude) in Informatik und Wirtschaftswissenschaft. Von 1996 bis 1999 war er in DECs Western Research Labs in Palo Alto tätig, wo er an Profiling-Tools, dem Design von Profiling-Hardware für Mikroprozessoren und webbasierter Informationsbeschaffung arbeitete. Von 1990 bis 1991 arbeitete Jeff beim AIDS-Programm der Weltgesundheitsorganisation und entwickelte Statistiksoftware für die Modellierung, Prognose und Beobachtung von HIV-Erkrankungen.

2009 wurde er in die National Academy of Engineering berufen und zum Fellow der Association for Computing Machinery (ACM) und der American Association for the Advancement of Sciences (AAAS) ernannt.

Er interessiert sich für groß angelegte verteilte Systeme, Leistungsüberwachung, Komprimierungsverfahren, Informationsbeschaffung, die Anwendung von Machine Learning auf Suchen und ähnliche Aufgaben, Mikroprozessorarchitektur, Compiler-Optimierung und die Entwicklung neuer Produkte, die vorhandene Informationen auf neue und inte-ressante Weise umorganisieren.