Kapitel 40
Künstliche Intelligenz

OpenAI, 2012 – 2015

image/7EE94C40388A4ECAAEA106E16F6E20A0.jpg

Mit Sam Altman

© YouTube.com

Peter Thiel , Mitgründer von PayPal und SpaceX-Investor, veranstaltet jedes Jahr eine Konferenz mit den Firmenchefs der Unternehmen, die sein Founders Fund unterstützen. Auf der Veranstaltung des Jahres 2012 traf Musk Demis Hassabis , einen Neurowissenschaftler, Videospielentwickler und Forscher im Bereich künstliche Intelligenz ; ein Mann, der sein Konkurrenzdenken hinter einem höflichen Auftreten zu verbergen wusste. Im Alter von vier Jahren war er ein Schach-Wunderkind, später gewann er fünfmal bei der Denksport-Olympiade, zu der die Disziplinen Schach, Poker, Mastermind und Backgammon gehören.

In seinem modernen Londoner Büro befindet sich ein Original von Alan Turing s bahnbrechendem Artikel aus dem Jahr 1950 »Computing Machinery and Intelligence« , (dt. Titel: »Kann eine Maschine denken?«,) in dem Turing ein »Imitation Game« vorschlug, bei dem ein Mensch gegen eine ChatGPT -ähnliche Maschine antreten sollte. Wären die Antworten der beiden ununterscheidbar, so seine These, sei es vertretbar, davon zu sprechen, dass die Maschine »denken« könne. Von Turings Argument beeinflusst, gründete Hassabis mit anderen die Firma DeepMind , deren Ziel es war, computerbasierte neuronale Netze zu entwickeln, die künstliche Intelligenz erlangen konnten. Oder anders ausgedrückt, sie wollten Maschinen entwickeln, die lernen könnten, wie Menschen zu denken.

»Elon und ich verstanden uns auf Anhieb, und ich besuchte ihn in seiner Raketenfabrik«, erzählt Hassabis . In der Kantine mit Blick auf die Montagestraßen erklärte Musk, warum er Raketen baute, die zum Mars fliegen können. Er hielt dies für eine Chance, das menschliche Bewusstsein im Falle eines Weltkriegs, eines Asteroideinschlags oder eines Zusammenbruchs der Zivilisation vor dem Untergang zu bewahren. Hassabis fügte eine weitere Bedrohung zu dieser Liste hinzu: künstliche Intelligenz. Superintelligente Maschinen könnten uns Normalsterbliche übertreffen und vielleicht sogar beschließen, uns zu beseitigen. Musk schwieg mindestens eine Minute lang, als er über diese Möglichkeit nachdachte. In solchen tranceartigen Phasen, erzählt er, liefen in ihm visuelle Simulationen ab, wie sich die verschiedenen Faktoren über Jahre hinweg auswirken könnten. Er kam zu dem Schluss, dass Hassabis mit seiner Einschätzung hinsichtlich der Gefahren von KI recht haben könnte, und stieg mit 5 Millionen Dollar bei DeepMind ein, um die dortigen Entwicklungen mitverfolgen zu können.

Wenige Wochen nach seiner Unterhaltung mit Hassabis skizzierte Musk gegenüber Googles Larry Page die Arbeit von DeepMind . Die beiden kannten sich seit gut zehn Jahren, und Musk wohnte häufig in Pages Haus in Palo Alto. Die potenziellen Gefahren von künstlicher Intelligenz wurden zu einem Thema, das Musk manchmal geradezu obsessiv während ihrer Gespräche zu vorgerückter Stunde aufgriff. Page wiegelte ab.

Bei Musks Geburtstagsfeier in Napa Valley 2013 gerieten die beiden vor allen anderen Gästen, darunter Luke Nosek und Reid Hoffman , in eine leidenschaftliche Debatte. Musk war der Meinung, dass KI -Systeme den Menschen ersetzen, unsere Spezies irrelevant machen oder gar auslöschen könnten, sofern wir keine Sicherheitsvorkehrungen in diese Systeme einbauten. Page konterte: Was sollte daran stören, fragte er, wenn Maschinen die menschliche Intelligenz, ja, selbst das menschliche Bewusstsein eines Tages überträfen? Es wäre einfach nur die nächste Stufe der Evolution.

Das menschliche Bewusstsein, entgegnete Musk, sei ein kostbares Flackern von Licht im Universum, und wir sollten nicht zulassen, dass es verlischt. Page hielt das für sentimentalen Unsinn. Wenn Bewusstsein in einer Maschine repliziert werden könne, warum sollte dies dann weniger wert sein? Vielleicht könnten wir eines Tages sogar unser eigenes Bewusstsein in einer Maschine hochladen. Er beschuldigte Musk, ein »Speziesist« zu sein, jemand, der zugunsten der eigenen Art voreingenommen ist. »Ja, absolut, ich bin pro Menschheit«, antwortete Musk. »Ich mag die Menschheit, verdammt noch mal.«

Musk war daher entsetzt, als er Ende 2013 erfuhr, dass Page und Google planten, DeepMind zu kaufen. Er und sein Freund Luke Nosek versuchten gemeinsam, eine Finanzierung auf die Beine zu stellen, um das Geschäft zu stoppen. Bei einer Party in Los Angeles zogen sie sich in ein Kämmerchen im Obergeschoss zurück und führten mit Hassabis ein einstündiges Telefonat über Skype. »Die Zukunft der KI sollte nicht von Larry kontrolliert werden«, beschied Musk. Doch der Versuch scheiterte.

Im Januar 2014 wurde die Übernahme von DeepMind durch Google bekannt gegeben. Page stimmte anfangs zu, einen »Sicherheitsbeirat« einzurichten, dem Musk angehören sollte. Das erste und einzige Treffen wurde bei SpaceX abgehalten. Neben der Google-Spitze, vertreten durch Page und Eric Schmidt , nahmen DeepMind-Gründer Hassabis, Reid Hoffman und einige andere daran teil. »Elons Hauptpunkt war, dass der Beirat im Grunde Mist war«, erzählt sein damaliger Stabschef Sam Teller . »Diese Google-Leute hatten überhaupt nicht die Absicht, sich auf die Sicherheit von KI zu konzentrieren oder irgendetwas zu tun, was deren Macht einschränken würde.«

Musk warnte immer wieder öffentlich vor der Gefahr. »Unsere größte existenzielle Bedrohung«, sagte er 2014 bei einem Symposium am MIT , »ist wahrscheinlich die künstliche Intelligenz .« Als Amazon noch im gleichen Jahr seinen digitalen Sprachassistenten Alexa ankündigte, dem bald ein ähnliches Produkt bei Google folgte, begann er davor zu warnen, dass solche Systeme eines Tages klüger sein könnten als Menschen. Sie könnten uns überflügeln und uns wie eine Art Haustiere behandeln. »Mir gefällt der Gedanke nicht, eine Hauskatze zu sein«, sagte er. Seiner Meinung nach war die beste Methode, um diesem Problem zu entgehen, dafür zu sorgen, dass KI eng an den Menschen gebunden und mit ihm verpartnert bleibt. »Die Gefahr entsteht, wenn künstliche Intelligenz vom menschlichen Willen entkoppelt wird.«

Musk initiierte daher eine Reihe von Dinner-Diskussionsrunden, zu denen auch seine alte PayPal-Mafia geladen wurde, darunter Thiel und Hoffman , um Google etwas entgegenzusetzen und für KI -Sicherheit zu werben. Er versuchte sogar, Präsident Obama zu gewinnen, der einem persönlichen Treffen im Mai zustimmte. Musk erklärte ihm die Risiken und forderte, KI zu regulieren. »Obama hat es verstanden«, erzählt Musk. »Aber mir war klar, dass er letztlich nichts unternehmen würde.«

Daraufhin wandte sich Musk an Sam Altman , ein eng getakteter Softwareunternehmer, begeisterter Sportwagenfan und Prepper, den hinter seiner polierten Fassade eine ähnlich intensive Fieberhaftigkeit antrieb. Altman hatte Musk einige Jahre zuvor getroffen und sich drei Stunden mit ihm unterhalten, als sie die SpaceX-Werkhallen besichtigten. »Es war lustig zu sehen, wie sich manche Ingenieure davonmachten oder wegschauten, wenn sie Elon auftauchen sahen«, erzählt Altman . »Sie hatten Angst vor ihm. Aber ich war beeindruckt, wie detailliert er über jedes Raketenbauteil Bescheid wusste.«

Bei einem kleinen Essen in Palo Alto entschieden sich Altman und Musk für die Finanzierung eines Non-Profit-Forschungslabors für künstliche Intelligenz, das sie OpenAI nannten. Es würde eine Open-Source-Software herstellen und versuchen, der wachsenden Marktdominanz von Google auf diesem Gebiet etwas entgegenzusetzen. Thiel und Hoffman schlossen sich an, um das nötige Geld aufzubringen. »Wir wollten so etwas wie eine Linux-Version von KI , die weder von einer Person noch von einem Unternehmen gesteuert wurde«, so Musk. »Das Ziel war, die Wahrscheinlichkeit zu erhöhen, dass die Entwicklung von künstlicher Intelligenz Sicherheitsfragen berücksichtigte und dem Wohl der Menschheit diente.«

Eine Frage, die sie bei jenem Essen diskutierten, war, was sicherer wäre: eine kleine Anzahl KI -Systeme, die von großen Unternehmen kontrolliert wurde, oder eine große Anzahl unterschiedlicher, unabhängiger Systeme. Sie kamen zu dem Schluss, dass eine große Anzahl konkurrierender Systeme, die sich gegenseitig kontrollierten, besser sei. So wie Menschen gemeinsam dafür sorgten, gefährliche Täter in ihrer Mitte aufzuhalten, so würde eine große Gruppe unabhängiger KI -Bots die gefährlichen stoppen. Für Musk war dies der Grund, OpenAI wirklich öffentlich zugänglich zu machen, sodass viele Menschen Programme erstellen konnten, die auf diesem Quellcode basierten. »Ich glaube, die beste Verteidigung gegen den Missbrauch von KI ist es, so viele Menschen wie möglich an ihr teilhaben zu lassen«, äußerte er damals gegenüber Steve Levy von Wired .

Ein Ziel, das Musk und Altman ausführlich besprachen und das 2023 zu einem heiß diskutierten Thema werden sollte, nachdem OpenAI den Chatbot ChatGPT an die Öffentlichkeit gebracht hatte, war das »AI -Alignement «, also die Ausrichtung der KI auf die vom Menschen erwünschten Ziele und Werte. Ähnlich wie die Regeln, die Isaac Asimov in seinen Büchern aufgestellt hat, um zu verhindern, dass die Roboter der Menschheit Schaden zufügen. Oder denken Sie an den Computer HAL 9000 aus dem Film 2001: Odyssee im Weltraum , der Amok läuft und gegen seine menschlichen Schöpfer kämpft. Welche Leitplanken und Notschalter können wir in die Systeme künstlicher Intelligenz einbauen, damit sie weiter unseren Interessen dienen, und wer von uns sollte darüber bestimmen, welche Interessen dies sind?

Eine Möglichkeit, AI -Alignement zu gewährleisten, bestand für Musk darin, die Bots eng an die Menschen zu binden. Sie sollten eine Ausprägung des Willens eines Menschen sein und nicht ein System, das sich verselbstständigen und eigene Ziele und Absichten entwickeln kann. Das würde eines der Prinzipien von Neuralink werden, der Firma, die er zur Herstellung von Chips gründen würde, mit deren Hilfe das menschliche Gehirn direkt mit Computern kommunizieren kann.

Er erkannte zudem, dass der Erfolg in Sachen künstlicher Intelligenz vom Zugang zu einer riesigen Menge an Daten aus der realen Welt abhing, von denen die Bots lernen konnten. Eine solche Daten-Goldmine, das wurde ihm damals bewusst, war Tesla , das täglich Millionen Videobilder über das menschliche Fahrverhalten in den verschiedensten Situationen sammelte. »Tesla wird wahrscheinlich über mehr Daten aus der realen Welt verfügen als jedes andere Unternehmen weltweit«, erklärte er. Eine weitere Fundgrube solcher Daten, das sollte er später begreifen, war Twitter , das 2023 pro Tag 500 Millionen Posts von Menschen verarbeitete.

Unter den Gästen von Musks und Altman s Diskussionsrunden war auch ein Entwicklungsingenieur von Google, Ilya Sutskever . Es gelang ihnen, ihn mit einem Gehalt von 1,9 Millionen Dollar und einem Startbonus zu ködern. Er sollte leitender Wissenschaftler des neuen Forschungslabors werden. Page war wütend. Nicht nur startete sein ehemaliger Freund und Gast in seinem Haus ein Konkurrenzlabor, er warb auch noch Googles Topwissenschaftler ab. Nach der Gründung von OpenAI Ende 2015 sprachen sie kaum noch miteinander. »Larry fühlte sich hintergangen und war wirklich sauer auf mich, weil ich es war, der Ilya angeworben hatte, und er weigerte sich, sich noch mit mir zu treffen«, erzählt Musk. »Und ich darauf nur: ›Wenn du nicht so leichtfertig mit KI -Sicherheit umgegangen wärst, wäre es auch nicht nötig gewesen, Gegenmaßnahmen zu treffen‹.«

Musks Interesse an künstlicher Intelligenz führte ihn noch zu einer ganzen Reihe damit zusammenhängender Projekte. Dazu gehören Neuralink , das zum Ziel hat, Mikrochips in menschliche Gehirne einzupflanzen; Optimus, ein humanoider Roboter; und Dojo , ein Supercomputer, der mittels Millionen Videos ein künstliches neuronales Netz trainieren kann, um das menschliche Gehirn zu simulieren. Es trieb ihn auch dazu, wie besessen auf autonom fahrende Autos bei Tesla zu drängen. Zu Beginn hatten all diese Unternehmungen kaum etwas miteinander zu tun, doch schließlich verknüpfte Musk sie alle miteinander und darüber hinaus noch mit seiner neuen Chatbot-Firma X.AI , die er gegründet hatte, um eine allgemeine künstliche Intelligenz zu kreieren.

Musks Entschluss, in seinen eigenen Unternehmen Funktionen mit künstlicher Intelligenz zu entwickeln, führte 2018 zum Bruch mit OpenAI . Er versuchte, Altman zu überzeugen, OpenAI , das seiner Meinung nach hinter Google zurückfiel, bei Tesla einzugliedern. Das Team von OpenAI lehnte diesen Vorstoß ab, Altman übernahm die Leitung des Forschungslabors und brachte einen gewinnorientierten Geschäftsbereich auf den Weg, mit dem er Eigenkapital beschaffen konnte.

Also trieb Musk den Aufbau eines eigenen, konkurrierenden KI -Teams voran. Obwohl er mit der Produktionshölle in Nevada und Fremont zu kämpfen hatte, warb er Andrej Karpathy , einen Experten für Deep Learning und computerbasiertes Sehen, genannt Computer Vision , von OpenAI ab. »Wir begriffen, dass Tesla zu einem KI -Unternehmen wurde und um dieselben Talente konkurrierte wie OpenAI «, erzählt Altman . »Das hat einige in unserem Team extrem verärgert, aber mir war vollkommen klar, was da vor sich ging.« 2023 sollte Altman den Spieß umdrehen. Er konnte Karpathy zurückgewinnen, der von der Arbeit für Musk ausgebrannt war.