Die Infokalypse bietet Betrügerinnen und Kriminellen bereits jetzt den idealen Nährboden. Den wachsenden Gefahren, die sich daraus entwickeln, sind sowohl Einzelne als auch Firmen ausgeliefert. Derartige Übergriffe gibt es zwar schon seit Menschengedenken, doch dank der Infokalypse sind sie flächendeckender und effektiver geworden und mittlerweile auch leichter zu realisieren. Auf der Suche nach neuen Waffen werden böswillige Akteure als Nächstes definitiv zu Deepfakes greifen.
Es war ein gewagter und bizarrer Plan. Indem sie sich als der damalige französische Verteidigungsminister Jean-Yves Le Drian ausgaben, gelang es einer Gruppe von Hochstaplern im Jahr 2016, über 50 Millionen Euro an sich zu bringen. Dabei vertrauten sie auf die Macht audiovisueller Kommunikation: Via Telefon- oder Videoanruf nahmen sie Kontakt zu wohlhabenden Menschen auf und baten sie um finanzielle Unterstützung für geheime Missionen der französischen Regierung. So verwegen der Plan auch war, die verwendeten technischen Mittel waren ziemlich simpel. Einer der Gauner stülpte sich eine Silikonmaske von Le Drians Gesicht über, setzte sich an einen offiziell aussehenden Schreibtisch – im Hintergrund die französische Flagge – und bat um Spenden in Millionenhöhe. Sucht man über die Google-Bildersuche nach »Le Drian Plot« oder »Le Drian Fake«, erhält man einen Eindruck von dem, was die Opfer der Videoanrufe wohl zu sehen bekamen. Vom Niveau der Deepfake-Beispiele, wie wir sie in den vorangegangenen Kapiteln besprochen haben, sind diese Bilder meilenweit entfernt. Der Mann mit der Silikonmaske sieht aus wie die Albtraum-Version von Le Drian, mit fahler Haut und grotesk wirkenden schwarzen Löchern anstelle seiner Augen. Und doch schluckten zahlreiche Personen – im wahren Leben alles angeblich versierte und erfolgreiche Wirtschaftsführer – den Köder. Darunter befanden sich Aga Khan, der religiöse Anführer der Ismailiten, der gleich fünfmal und damit einen Gesamtbetrag von 20 Millionen Euro auf Konten in Polen und China überwies, und İnan Kıraç, ein türkischer Tycoon, der über 47 Millionen aufbrachte – angeblich als Lösegeld für zwei Journalisten, die in Syrien als Geiseln genommen worden waren.
Der Erfolg dieses scheinbar lächerlichen Betrugsversuchs belegt die Macht der audiovisuellen Kommunikation. Wie im ersten Kapitel bereits erläutert, haben wir einfach nicht gelernt, Audio- und Videodateien als manipulierbare Medien wahrzunehmen. Ein ums andere Mal fallen wir auf Menschen herein, die vorgeben, jemand anderes zu sein (und das betrifft sogar die Reichsten und Abgeschirmtesten unter uns). Anfang 2020 führten zwei Witzbolde aus Russland Prinz Harry bei einem Telefonat hinters Licht, indem sie sich als die junge Umweltaktivistin Greta Thunberg und deren Vater ausgaben. Während dieses Telefonats unterlief Harry ein diplomatischer Fauxpas, als er sich zu der Aussage hinreißen ließ, dass US-Präsident Trump seiner Ansicht nach »Blut an den Händen« habe. Man brachte ihn sogar dazu, über eine der heißesten Storys jener Zeit zu sprechen, nämlich den Rücktritt Harrys und seiner Frau Meghan als hauptamtliche Mitglieder der britischen Königsfamilie – den sogenannten Megxit.1 Wenn eine zwielichtige Marionette und eine Videoschaltung schon ausreichen, um die reichsten Männer der Welt davon zu überzeugen, sich von Millionen von Euro zu trennen, und ein Paar Spaßvögel mit einer furchtbaren Verkörperung Greta Thunbergs Prinz Harry dazu bringen können, höchstprivate Angelegenheiten zu diskutieren, haben wir allen Grund zu der Annahme, dass wir auf Deepfakes absolut nicht vorbereitet sind. Wie in Kapitel 1 bereits erläutert, gehen Deepfakes über die einfache Manipulation von Mediendateien hinaus. Dass sie mithilfe maschineller Lernprogramme aus dem Nichts erschaffen werden können, ermöglicht es Kriminellen und Betrügerinnen, unsere biometrischen Daten zu stehlen und zu nutzen: Sie können unser Abbild und unsere Stimme Dinge tun und sagen lassen, die nie stattgefunden haben.
Gefälschte Tonaufnahmen sind ein extrem mächtiges Werkzeug, das von Betrügern auf der ganzen Welt genutzt wird; und die KI wird ihnen dabei eine zusätzliche Hilfe sein. Mithilfe von Künstlicher Intelligenz lassen sich schon jetzt sehr gute Audio-Deepfakes von menschlichen Stimmen generieren. Man muss nur einmal einen Blick auf den YouTube-Kanal »Vocal Synthesis« (VS) werfen. Der Kanal, der binnen kürzester Zeit sieben Millionen Aufrufe verzeichnen konnte, wurde im August 2019 von einem anonymen YouTuber erstellt. Mithilfe von Tacotron 2, einer von Google entwickelten, frei zugänglichen KI-Software2 generiert VS ausschließlich künstliche Audioclips von Berühmtheiten und Politikern. Natürlich will der Kanal damit niemandem schaden, sondern einfach nur unterhalten; da er sich dafür jedoch der Stimme einer anderen Person bemächtigt – und sogar Tote wieder auferstehen lässt –, werden die ethischen und legalen Auswirkungen schnell undurchsichtig.
Das meistgesehene Video auf VS’ YouTube-Kanal erweckt die Stimme von Präsident John F. Kennedy zu neuem Leben. Als ich zum ersten Mal auf den Titel »JFK reads the Navy Seals Copypasta« (»JFK liest die Navy Seals Copypasta«) stieß, ergab das Ganze für mich keinen Sinn. Copypasta? Ich klickte auf Play. Daraufhin spricht erstaunlicherweise JFKs unverwechselbare Stimme zu mir: »Was zur Hölle hast du gerade über mich gesagt, du kleine Schlampe?«, geht es los. »Du solltest wissen, dass ich Jahrgangsbester bei den Navy Seals war. Ich war bei zahlreichen geheimen Angriffen auf Al Quaida dabei und habe über 300 bestätigte Abschüsse zu verzeichnen.« Bitte was? Es klingt ein bisschen blechern, ein bisschen roboterhaft, aber es ist definitiv JFK. Es ist sein Akzent, sein Sprechrhythmus und sein Tonfall. Eine beinahe perfekte Nachahmung.
Der Begriff Copypasta leitet sich vom englischen »copy and paste« (»kopieren und einfügen«) ab und bezeichnet einen längeren Text, der immer wieder in den verschiedensten Internetforen gepostet wird. Die »Navy Seals Copypasta« ist ein bekanntes Meme, das sich über Leute lustig macht, die sich im Internet gern als »harte Kerle« aufspielen. Das Meme, das 2012 zum ersten Mal auftauchte, basiert auf einem viralen Post, dessen Verfasser eben genau das tat – er inszenierte sich selbst als »harter Kerl«. Neben den lächerlichen Behauptungen der Kampferfahrungen und Abschüsse sowie großspurigen Drohungen enthielt sein Text, mit dem er auf den Kommentar eines anderen Internetnutzers antwortete, auch jede Menge witzige Tippfehler und Übertreibungen, wie zum Beispiel das Wort »Gorillakriegsführung« oder den Satz »Ich könnte dich auf 700 verschiedene Arten umbringen, und zwar mit meinen bloßen Händen«.3 Dank KI ist diese legendäre Online-Schimpftirade nun mit JFKs Stimme festgehalten. Sein Akzent ist perfekt getroffen. »Ich beherrsche die Kunst der Gorillakriegsführung [sic] und bin der beste Scharfschütze der gesamten US-amerikanischen Armee«, sagt er in JFKs charakteristischem Bostoner Akzent. »Für mich bist du nur ein weiteres Opfer.« JFKs Navy-Seals-Copypasta-Ausraster dauert eine ganze Minute und 44 Sekunden.4
Bald schon wird die KI in der Lage sein, diese Stimme mit einer Videodatei zu unterlegen, sodass man JFK nicht nur reden hören, sondern auch tatsächlich sehen wird, wie sein Mund die Worte formt; wie er blinzelt, seinen Kopf bewegt, gestikuliert. Während die Fälscher, die im Auftrag Stalins Fotos manipulierten, jene sowjetischen Politiker, die in Ungnade gefallen waren, nur ausradieren konnten, haben künstlich generierte Medien es in der Hand, den historischen Verlauf komplett umzuschreiben. Auf dem VS-Kanal gibt es weitere beliebte Audioclips, unter anderem von Präsident George W. Bush, wie er mit seinem typisch texanischen Akzent den Text von 50 Cents sexuell unzweideutigem Hit »In da Club« rappt – einschließlich des Verses »I’m into having sex, I ain’t into making love« (»Ich steh nicht drauf, Liebe zu machen, sondern auf Sex«). Neben JFK lässt VS auch andere US-Präsidenten von den Toten auferstehen, so zum Beispiel Franklin D. Roosevelt und Ronald Reagan.5
Im April 2020 verklagte der Hip-Hop-Superstar Jay-Z den Kanal VS wegen Urheberrechtsverletzung. Dieser hatte einen Clip erstellt, in dem ein KI-generierter »Jay-Z« den berühmten Hamlet-Monolog »Sein oder nicht sein« sowie das biblische Buch Genesis rappt. Da seine Stimme darin ohne sein Einverständnis benutzt worden war, verlangte Jay-Z, dass der Clip entfernt würde. VS antwortete darauf, indem er die Stimmen von Donald Trump und Barack Obama klonte und sie ihre »Enttäuschung« über Jay-Zs Entscheidung, »einen kleinen YouTuber derart zu drangsalieren«6, zum Ausdruck bringen ließ. Diese Rangelei zwischen Jay-Z und VS ist ein erster Hinweis auf die Herausforderungen rund um die Themen Datenschutz, Sicherheit und Einwilligungserteilung, die mit der zunehmenden Verbreitung künstlich generierter Inhalte im Zuge der Infokalypse immer mehr zum Alltag gehören werden.
Zu den ersten Fällen zählt auch der von Dr. Jordan Peterson. Der berühmte und weithin bekannte Denker war nicht einverstanden mit der Webseite NotJordanPeterson.com, die es ihren Nutzern und Nutzerinnen erlaubte, Deepfakes von seiner Stimme zu generieren, und zog in Erwägung, rechtliche Schritte dagegen einzuleiten. Vor allem beunruhigte ihn, inwiefern diese Möglichkeit von seinen Kritikerinnen aufgegriffen wurde, um ihn lächerlich zu machen und in schlechtes Licht zu rücken. Ein Journalist nutzte die Website beispielsweise, um Petersons Stimme Teile des SCUM Manifestos7 lesen zu lassen. Geschrieben 1967 von der radikalen Feministin Valeria Solanas ist das SCUM Manifesto ein zutiefst verstörendes und brutales Werk. Solanas behauptet darin, dass Männer eine »biologische Katastrophe« seien, dass Frauen »sofort« beginnen sollten, sich »ohne männliche Hilfe« fortzupflanzen, und dass jeder Mann in seinem tiefsten Inneren wisse, dass er »ein wertloses Stück Scheiße« ist.8 Wegen der brutalen Ideologie, die Solanas vertritt, wehrte sich Peterson gegen diese Form der Verwendung seiner Stimme. Ein Jahr nachdem Solanas das Manifesto geschrieben hatte, schoss sie auf den Künstler Andy Warhol und verwundete diesen schwer. Obwohl Warhol den Angriff überlebte, war er gezwungen, für den Rest seines Lebens ein medizinisches Korsett zu tragen.9 Im August 2019 äußerte sich Peterson dazu, wie verstörend er Deepfakes finde:
Ich bin bereits in der Situation (in der sich viele von Ihnen ebenfalls bald befinden werden), dass jeder und jede eine glaubwürdige Ton- und vielleicht auch Videoaufnahme produzieren kann, in der man mich absolut alles sagen lassen kann, was einem gerade so einfällt. Wie soll man sich dagegen nur wehren? Wichtiger noch: Wie sollen wir in näherer Zukunft (zum Beispiel bei der nächsten Präsidentschaftswahl) jemals wieder auf elektronisch übermittelte Daten vertrauen? […] Wachen Sie auf! Die Unantastbarkeit Ihrer Stimme, Ihres Bildes ist ernsthaft in Gefahr. Eine größere Herausforderung für unser Verständnis von einer gemeinsamen Realität, der wir vertrauen können und die uns in verhältnismäßig friedlichen Umständen miteinander leben lässt, ist kaum vorstellbar. Die Deepfake-Betrüger müssen so bald wie möglich aufgehalten werden – mit allen legalen Mitteln, die dafür erforderlich sind.10
Peterson hat recht. Wir müssen endlich aufwachen. Es ist keine große Überraschung, dass sich die Deepfakes-Coups der Zukunft bereits abzeichnen. Im März 2019 berichtete The Wall Street Journal, dass ein britischer Stromversorger mithilfe von künstlich generierten Tonaufnahmen um 220 000 Euro gebracht worden sei. Der Name der Firma wurde nicht genannt; die zuständige Versicherungsgesellschaft informierte das Wall Street Journal über die Ereignisse: Die Betrüger hätten mithilfe Künstlicher Intelligenz die Stimme des deutschen CEOs der Firma imitiert und mit dieser einen langjährigen Angestellten im Zuge eines Telefongesprächs angewiesen, sofort 250 000 Euro auf das Konto eines angeblichen Energieversorgers zu überweisen.11 (Unabhängige Expertinnen haben die Audiodatei allerdings noch nicht als Deepfake verifiziert, weshalb nicht mit Sicherheit gesagt werden kann, ob es sich wirklich um ein solches handelt.) Der Angestellte hielt die Anweisung zwar für ungewöhnlich, kam ihr aber nach, da er natürlich der Meinung war, sie käme von seinem Chef. Erst als er gebeten wurde, weitere 250 000 Euro zu überweisen, schlug er Alarm. Doch bis die Banken und die Behörden in Kenntnis gesetzt worden waren, war das Geld bereits verschwunden und nicht mehr nachzuverfolgen.
Wenn die Stimme des CEOs tatsächlich mithilfe einer KI geklont wurde, wissen wir rein technisch gesehen natürlich, wie das möglich war. Die Betrüger hätten persönliche Daten sammeln und die Algorithmen ihrer KI mit diesen füttern müssen – in diesem Fall mit der Stimme des deutschen CEOs. Angesichts seiner führenden Position war diese vielleicht sogar öffentlich verfügbar und leicht zugänglich. Möglicherweise hat er irgendwann einmal eine Rede gehalten, die dann auf die Firmenwebsite, auf YouTube oder LinkedIn gestellt worden war. Oder er war in Video- oder Audiodateien (beispielsweise in einem Interview mit einem Nachrichtensender) in den sozialen Medien zu finden. Vielleicht tauchte er auch aus eigenem Antrieb irgendwo auf den sozialen Plattformen auf. Und selbst wenn der CEO nichts gepostet hat, könnte jemand anderes etwas hochgeladen haben.
Die Möglichkeit, Stimme und Aussehen eines anderen Menschen zu imitieren, eröffnet den uralten Betrugsmaschen, die sich falscher Identitäten bedienen, ungeahnte Dimensionen. Nachdem der Fall des deutschen CEOs im Mai 2019 bekannt geworden war, berichtete das Sicherheitsunternehmen Symantec binnen vier Monaten von drei weiteren Firmen, die ähnlichen Tricks zum Opfer gefallen seien. In allen Fällen hätte man Stimmen mithilfe von KI geklont und leitende Angestellte im Finanzwesen telefonisch mit dringenden Überweisungen beauftragt. Symantec hielt die Namen der Firmen geheim, bestätigte jedoch, dass sich der Verlust in Millionenhöhe bewege. Die effektiven Kosten für Betrug lassen sich nicht so einfach beziffern, werden aber auf Billionen von Dollar geschätzt. In ihrem jährlichen Bericht veranschlagte die Wirtschaftsprüfungsgesellschaft Crowe Clark Whitehill und das Centre for Counter Fraud Studies – das Zentrum für Antibetrugsforschung – der University of Portsmouth die weltweit durch Betrug verursachten Kosten im Jahr 2019 mit 5,127 Billionen Dollar, wobei die Verlustrate im letzten Jahrzehnt um 56 Prozent gestiegen sei.12 Dieser sprunghafte Anstieg fällt mit dem Beginn der Infokalypse zusammen – ein Trend, der sich sehr wahrscheinlich fortsetzen wird, je geläufiger Deepfakes werden. Ich habe mit Matthew F. Ferraro gesprochen, einem ehemaligen Mitglied des Geheimdienstes, der mittlerweile als Berater bei Wilmerhale angestellt ist. Die international tätige Kanzlei warnt unermüdlich vor den umfangreichen Risiken, welche Deepfakes und Desinformation für die Wirtschaft bedeuten. Während Maßnahmen gegen »Desinformation« derzeit unter allgemeine Risikominderung fallen, ist es laut Ferraro nur eine Frage der Zeit, bis Unternehmen mehr in Mittel und Strategien investieren müssen, die explizit auf die Bekämpfung dieser besonderen Risiken spezialisiert sind. Dasselbe sagt auch die Wirtschaftsauskunftei Experian. Zum Zeitpunkt, als ich dieses Buch schrieb, lautete ihre Prognose, dass die großen kommerziellen Firmen im Jahr 2020 vermehrt mit Deepfake-bedingten Störungen zu rechnen hätten. Selbst wenn sich Deepfakes jetzt noch nicht durchsetzen sollten, ist es nur eine Frage der Zeit. Früher oder später wird man Deepfakes auf jeden Fall für kriminelle Zwecke nutzen – weil sich das finanziell tatsächlich auszahlen könnte.
Und es sind nicht nur Unternehmen, die sich Sorgen machen müssen. Auch einzelne Menschen sind in Gefahr. Die KI-Programme, mit deren Hilfe derartige Medien erzeugt werden, entwickeln sich rasant, sodass immer weniger Daten nötig sind, um Deepfakes zu generieren. Diese Tatsache trifft sowohl auf Video- als auch auf Audiodateien zu. Die 2017 gegründete Firma Lyrebird behauptet beispielsweise, für die Generierung realistisch wirkender Audiodateien nur wenige Minuten Datenmaterial zu benötigen.13 In Zukunft wird man vielleicht sogar nur noch wenige Sekunden brauchen. (Lyrebird ist mittlerweile von Descript aufgekauft worden, einem Unternehmen, das eine Technologie entwickelt, mit deren Hilfe sich Audio- wie Textdateien bearbeiten lassen sollen.) Das bedeutet, dass nicht nur hochrangige Personen des öffentlichen Lebens (auf deren Datenmaterial meist leicht zugegriffen werden kann) in die Schusslinie geraten. Wir alle könnten zur Zielscheibe werden. Wer eine aktive Nutzerin sozialer Medien ist, deren Inhalte sind jederzeit verfügbar. Und auch wer selbst nicht auf den sozialen Plattformen vertreten ist, kann dennoch in von Freunden und Familie gepostetem Content auftauchen. Vielleicht wurde man irgendwann einmal im Rahmen einer beruflichen Situation gefilmt oder fotografiert. Vielleicht wurde aber auch das eigene Handy gehackt, wurden private Fotos und Videos gestohlen, mit denen sich Deepfakes generieren ließen.
Die Annahme, dass theoretisch alle Opfer eines Deepfake-Betrugs werden könnten, die schon einmal in irgendeiner Form audiovisueller Dokumentation festgehalten wurden – ganz gleich, ob auf einem Foto, in einem Video oder einer Tonaufnahme –, ist nicht übertrieben. Die Einsatzmöglichkeiten von Deepfakes, um Privatmenschen zu täuschen, sind vielfältig – von der Infiltration unseres Onlinebankings bis hin zu Betrügern, die sich als Familienmitglieder oder Freundinnen in Not ausgeben. Ältere oder in anderer Hinsicht anfälligere Menschen waren traditionell die Zielscheiben für solchen individuellen Betrug, da sie als leichter zu täuschen gelten. Mit der Verbreitung von Deepfakes könnten jedoch auch die Scharfsichtigsten und Versiertesten unter uns hereingelegt werden.
Im neuen Informationsökosystem laufen sowohl Organisationen als auch Einzelpersonen Gefahr, das Opfer von Betrug zu werden; und wir alle kommen als Zielscheibe von Fehl- und Desinformation infrage, was unseren Ruf, unsere Unternehmen und unser Leben zerstören könnte. Wie schon gesagt ist das Risiko einer Rufschädigung durch Falsch- und gezielte Desinformation zwar keine neue Bedrohung, ihre Wirkmächtigkeit ist im Zuge der Infokalypse jedoch beträchtlich gestiegen. Die Infokalypse kostet die Unternehmen bereits jetzt ein Vermögen. 2019 veröffentlichte das israelische Cybersicherheitsunternehmen CHEQ in Zusammenarbeit mit der University of Baltimore einen Bericht, der die zu Lasten der Wirtschaft gehenden Kosten für Desinformation im Internet mit jährlich 78 Milliarden Dollar veranschlagt.14
Im Jahr 2019 versuchte jemand mithilfe eines Deepfakes eine Gruppe von hochrangigen Tesla-Investorinnen zu infiltrieren. Der Elektroautohersteller Tesla ist eine der bekanntesten Marken der Welt, was er unter anderem der Biografie und der Dreistigkeit seines Gründers Elon Musk zu verdanken hat. Mit Musk und Tesla ist es wie mit Marmite, der in Großbritannien erfundenen Würzpaste – man liebt oder man hasst sie –, und im Hinblick auf die Zukunftsaussichten des Unternehmens haben die Investoren ganz klare Meinungen. Auf der einen Seite gibt es da die Optimistinnen, die glauben, dass Tesla die Zukunft des Beförderungswesens revolutionieren wird, und daher der Meinung sind, dass das Unternehmen unterschätzt wird. Ihnen gegenüber stehen die Pessimisten, deren Ansicht nach Tesla überschätzt und der Untergang vorprogrammiert ist. Es steht viel auf dem Spiel in diesem marktinternen Tauziehen, unter anderem jede Menge Geld.
Momentan haben die Optimisten noch die Oberhand. Seit Ende des Jahres 2019 ist Teslas Aktienkurs sprunghaft angestiegen. Während der Marktindex S&P 500 (ein Aktienindex der 500 größten börsennotierten Unternehmen Nordamerikas) bis Ende Januar 2020 eine Steigerung von drei Prozent verzeichnen konnte, stieg die Tesla-Aktie um 30 Prozent. Im selben Monat erreichte Tesla einen Marktwert von 100 Milliarden Dollar.15 Seit Beginn des Jahres haben Leerverkäuferinnen Milliarden Dollar verloren. Einer Schätzung zufolge lag ihr Verlust allein im Januar bei neun Milliarden.16 Wie die Financial Times berichtete, verursachte Tesla im Januar bei den Leerverkäufen »von allen S&P 500-Unternehmen […] die höchsten Verluste«. »Die Verluste waren mehr als viermal so hoch wie der Wertabfall bei Apples Leerverkäufen, der immerhin noch bei 1,3 Milliarden Dollar lag.«17
Als der Streit zwischen Tesla und seinen Leerverkäufern eskalierte, brachte Musk einmal mehr seine Geringschätzung gegenüber Letzteren in aller Öffentlichkeit zum Ausdruck. Auf Twitter (wo er im Mai 2021 52 Millionen Follower hat) sind diese seinen Schmähungen und Sticheleien regelmäßig ausgesetzt. Da für sie buchstäblich Summen in Milliardenhöhe auf dem Spiel stehen, haben Teslas Leerverkäufer und -verkäuferinnen allen Grund, im Hinblick auf ihre Stellung nervös zu werden, und das nicht zuletzt deshalb, weil Musk sie in ein öffentliches Wortgefecht verwickeln könnte. In dieser angespannten Atmosphäre vernetzte sich Maisy Kinsley, eine Journalistin des Nachrichtensenders Bloomberg, im März 2019 auf LinkedIn mit 195 Investoren und Investorinnen, die alle den Teslakurs verfolgten. Darüber hinaus folgte sie auf Twitter (Abbildung 5.1) Teslas bekannten Leerverkäufern, von denen sie mehrere sogar anschrieb und um persönliche sowie finanzielle Informationen bat.
Abbildung 5.1 »Maisy Kinsleys Twitter-Account«
Einer der Leerverkäufer sah sich Kinsley jedoch genauer an und wurde misstrauisch. Obwohl sie bei LinkedIn registriert war und ihre Website einen professionellen Eindruck machte, waren in den Online-Archiven von Bloomberg oder anderen vertrauenswürdigen Nachrichtenseiten keine Artikel von ihr zu finden. Es mutete etwas seltsam an, dass es für die Arbeit einer Journalistin keine öffentlich zugängigen Belege gab. Also schlug er Alarm und warnte nervöse Leerverkäufer, dass sich hinter Maisy jemand verbarg, der es unter Umständen auf marktbewegende Informationen abgesehen haben könnte. Wie sich herausstellte, war Maisy nicht einmal Journalistin, sondern jemand, der diese Figur für seine Zwecke erschaffen und mithilfe eines Generative Adversarial Networks (GAN) ein passendes Bild dazu generiert hatte. Das Bild könnte beispielsweise auf der Website www.thispersondoesnotexist.com kostenlos heruntergeladen worden sein. (Der Name der Website bedeutet »Diese Person existiert nicht«.) Wie Bloomberg später bestätigte, gab es unter den Mitarbeiterinnen tatsächlich keine Maisy Kinsley.
Auch wenn sich der Schaden, den »Maisy« angerichtet hat, in Grenzen hielt, so ist dieser Vorfall doch ein Warnschuss. Mit der Weiterentwicklung Künstlicher Intelligenz geraten Märkte und Investoren immer mehr in die Schusslinie. Deepfakes könnten unter anderem verwendet werden, um den Ruf eines privaten Investors oder einer privaten Investorin zu schädigen, beispielsweise, indem eine Tonaufnahme »veröffentlicht« wird, im Zuge derer sich der oder die Betreffende zu einem Fehlverhalten »bekennt«. Wie der Fall Maisy gezeigt hat, können Deepfakes aber auch genutzt werden, um jemandem sensible Investmentinformationen zu entlocken. Die Maisy von 2019 bediente sich eines Deepfake-Fotos, um das herum sie ihre Website, ein LinkedIn-Profil und einen Twitter-Account aufzog; die Maisy der Zukunft könnte sich als Figur noch um einiges glaubwürdiger inszenieren, indem sie auf ihrer Website und ihren Social-Media-Accounts gefälschtes Videomaterial einpflegt, das sie beispielsweise in einem Interview mit einer Koryphäe der Business- und Investmentwelt zeigt; damit würde es ihr noch leichter fallen, das Vertrauen ihrer Opfer zu gewinnen und sie so in eine Falle zu locken (»catfishing«). Indem sie mit echten Menschen interagiert, besteht die Möglichkeit, für eine mithilfe Künstlicher Intelligenz erschaffene Figur wie Maisy eine komplette Vergangenheit zu generieren.
Dank Elon Musks Sperenzchen gibt auch Tesla eine interessante Fallstudie ab. Am Beispiel eines so unberechenbaren CEOs zeigt sich, wie mithilfe von Deepfakes Marktveränderungen herbeigeführt werden könnten, nämlich beispielsweise durch ein »geleaktes« Video, in dem »Musk« finanzielle Informationen preisgibt. Sein Verhalten beeinflusst den Aktienkurs ohnehin schon. Im August 2018 kam es zu einem berüchtigten Zwischenfall, als er twitterte, dass er es in Erwägung ziehe, »Tesla für 420 Dollar pro Aktie zu privatisieren«; die Finanzierung sei gesichert, erklärte er. Wie sich herausstellte, handelte es sich hierbei jedoch um eine Falschmeldung, und The Wall Street Journal berichtete später, dass die Zahl 420 möglicherweise als Witz für Musks Freundin gedacht gewesen sei (da »420« in der Kifferszene für den regelmäßigen Konsum von Cannabis steht). Zum damaligen Zeitpunkt war dieser Tweet für Investoren und Investorinnen jedoch eine sachliche Information und löste in Bezug auf Teslas Aktienkurs eine Markterholung aus. Die US-Börsenaufsicht erklärte Musk der Irreführung von Investoren in einem marktbewegenden Ereignis für schuldig und verurteilte ihn und seine Firma zu einer Geldstrafe von jeweils 20 Millionen Dollar. In einem Abkommen mit der Börsenaufsicht stimmte Musk zu, als Vorsitzender der Firma zurückzutreten und Tesla betreffende Tweets vor der Veröffentlichung absegnen zu lassen. Letzterem kam er aber ganz offensichtlich nicht nach, denn am 1. Mai 2020 twitterte Musk Folgendes: »Tesla stock price is too high imo« (zu Deutsch: »Der Tesla-Kurs ist zu hoch, wenn ihr mich fragt«), was dazu führte, dass Teslas Wert um 14 Milliarden fiel. Gegenüber der Nachrichtenagentur Reuters äußerte einer der Wertpapieranalytiker später, dass Elon nun einmal so sei, dieses Verhalten »den Investoren Kopfzerbrechen« bereite und die Wall Street, was den »zentralen Streitpunkt« seiner Tweets betreffe, »definitiv frustriert« sei.18
Angesichts dessen, wie unberechenbar Musk sich in der Vergangenheit im Hinblick auf seine Firma und deren Wertstellung verhalten hat, kann man sich gut vorstellen, dass es marktverändernde Auswirkungen haben könnte, wenn er ins Visier von Deepfake-Bastlern geriete. Ob als Folge eines Verschwörungsmythos, der sich unkontrolliert verbreitet, oder einer gezielten Kampagne, mithilfe derer der Aktienkurs einer Firma oder der Ruf eines CEOs zerstört werden soll – sicher ist, dass es in Zukunft immer häufiger zu Angriffen auf private Firmen kommen wird. Diese Tatsache wird mittlerweile sogar systematisch als Geschäftsmodell genutzt, bei dem Unternehmen sogenannte »schwarze PR« anbieten – was bedeutet, dass sie die Glaubwürdigkeit von Feinden und Konkurrenten untergraben, indem sie als »Dienstleister für gezielte Desinformation« fungieren. Eine Untersuchung von BuzzFeed News ergab, dass jene Desinformationstaktiken, die man für gewöhnlich eher mit staatlichen Akteuren wie beispielsweise Russland in Verbindung bringt, zunehmend auch gegen Firmen des privaten Sektors eingesetzt werden. Bei seinen Nachforschungen stieß BuzzFeed auf eine Schwarze PR-Firma, die versprach, »alles in ihrer Macht Stehende zu tun und jeden Vorteil zu nutzen, um die Realität den Wünschen unserer Klienten anzupassen«.19 Dass Deepfakes eingesetzt werden, um Firmen zu attackieren und den Markt zu verfälschen, scheint unausweichlich, wenn sie erst einmal weitgehend für den kriminellen Gebrauch verfügbar sind.
Was derartige Angriffe auf Einzelpersonen angeht, so ist die älteste und heimtückischste Nutzungsform von Deepfakes bereits im Einsatz. Doch in ihrer Schusslinie stehen nicht nur Politikjournalistinnen wie Rana Ayyub oder berühmte Schauspielerinnen wie Scarlett Johansson (siehe Kapitel 1 und 4). Deepfake-Pornos richten sich gegen alle Frauen: unsere Ehefrauen und Töchter, Schwestern und Mütter. Sie sind die letzte Entwicklungsstufe nicht einvernehmlicher, gefakter Pornofilme, in denen ganz gewöhnliche Frauen zu sehen sind. Schon vor der Erfindung der Künstlichen Intelligenz hat dieses Phänomen Leben zerstört, und ganz gleich in welcher Gestalt es auch auftritt, die Bloßstellung, Demütigung und Angst, die mit solchen Übergriffen einhergehen, richten deren Opfer zugrunde. Sich in der virtuellen Welt zu bewegen oder einen Job zu finden beziehungsweise zu behalten, fällt ihnen schwer; ihr Sicherheitsgefühl nimmt dauerhaften Schaden. Schließlich handelt es sich um eine Verletzung ihrer intimsten Privatsphäre und ihres Rechts auf Sicherheit. Danielle Citron, eine führende Wissenschaftlerin im Bereich Datenschutz und Professorin an der Boston University Law School, hat sich sowohl zu Deepfakes im Allgemeinen als auch zu deren Nutzung in nicht einvernehmlichen Pornofilmen geäußert: Ihrer Meinung nach sind Deepfake-Pornos nur ein Vorbote dessen, was sich noch als sehr viel größeres Bürgerrechtsproblem herausstellen wird, wenn es erst einmal möglich ist, unser Aussehen und unsere Stimmen zu stehlen und infolgedessen unser Recht auf Privatsphäre und Sicherheit zu untergraben.
Die Erfahrung von Noelle Martin, einer jungen Frau aus Australien, bietet einen Einblick, welchen Schaden Non Consensual Fake Porn anrichten kann. Ihre Leidensgeschichte begann bereits, als sie noch ein Teenager war, im Alter von 17 Jahren. Eines Tages beschloss sie, etwas auszuprobieren, was wir alle wahrscheinlich schon einmal gemacht haben: Sie googelte sich über die Bildersuche mithilfe eines Fotos, das sie selbst auf einem ihrer Social-Media-Kanäle gepostet hatte. Worauf sie stieß, ließ ihr Herz einen Augenblick lang aussetzen. Später beschrieb sie diesen schrecklichen Moment folgendermaßen:
Im Bruchteil einer Sekunde fluteten dieses und Dutzend andere Fotos, die von meinen Social-Media-Accounts gestohlen worden waren und über Links zu den verschiedensten Pornoseiten führten, meinen Bildschirm. Wie die Raubtiere lauerten auf diesen Seiten namenlose, gesichtslose und sexgeile Männer mit sexuell absolut eindeutigen Kommentaren – über mich und darüber, was sie mit mir anstellen wollten. »Ihren Körper würden wir definitiv ficken – wenn man ihr Gesicht abdeckt«, schrieb eine Person. Außerdem veröffentlichten sie private Informationen über mich: wo ich lebte, was ich studierte, wer ich war.20
Da Noelle zur Zielscheibe wurde, bevor es Deepfakes gab, benutzte man für die Montage ihres Kopfes auf die Körper der Pornostars noch etwas rudimentärere Mittel wie zum Beispiel Photoshop. Ihre Geschichte ist jedoch absolut nicht ungewöhnlich. Sie ist nur eine von Tausenden Frauen, die online ausgebeutet werden. Schlimmer noch: Sie musste feststellen, dass ihr niemand helfen konnte. Als sie sich an die Polizei wandte, sagte man ihr, dass man eigentlich nichts für sie tun könne. Die Betreiber der Seiten säßen oft im Ausland, und die Täter blieben anonym. Voller Verzweiflung nahm sie zu jeder einzelnen Seite Kontakt auf und bat die Verantwortlichen darum, alles zu löschen. Doch Noelle war in eine absolut albtraumhafte Fake-Porno-Version von »Und täglich grüßt das Murmeltier« geschlittert. Es gelang ihr zwar, einige Videos löschen zu lassen, doch ständig tauchten neue Pornos auf. Der Verantwortliche einer Website erpresste sie sogar, indem er ihr sagte, dass er die Videos nur löschen würde, wenn sie ihm innerhalb von 24 Stunden Nacktfotos von sich schicken würde. Nach Jahren des Kampfes gegen diese Schikane beschloss Noelle 2016 schließlich, an die Öffentlichkeit zu gehen. Ihre Geschichte wurde zu einem wichtigen Schlüssel für die 2019 in Australien eingeführte Gesetzgebung, die die nicht einvernehmliche Verbreitung von intimen Bildern unter das Strafrecht stellte.
Unglücklicherweise entwickelt sich das Problem schneller als die Lösung dazu. Es gibt bereits eine ganze Reihe von Apps und sonstigen Diensten zur Erstellung von Deepfakes, die damit beschäftigt sind, das für die Entstehung gefakter Pornos verantwortliche Ökosystem zu kommerzialisieren. So kam im Sommer 2018 beispielsweise eine kostenlose App namens DeepNude auf den Markt, die mithilfe eines GANs »Strip«- oder Nacktfotos generierte, wenn man ein Bild von einer bekleideten Frau hochlud. Dafür brauchte die App gerade einmal 30 Sekunden. Außer der Fähigkeit, ein Foto hochzuladen, waren vonseiten des Nutzers keine weiteren Voraussetzungen nötig. Die von der App generierten Bilder wurden von einem großen Wasserzeichen verdeckt; wer dies entfernt haben wollte, musste sich für 50 Dollar die lizensierte Version der App kaufen. Bei dieser enthielt das Bild dann nur noch ein kleines Wasserzeichen, das es als »gefälscht« auswies. Da die DeepNude-App auf Basis von Frauenbildern entwickelt worden war, funktionierte sie für Fotos von Männern nicht. Lud man das Bild eines Mannes hoch, war es wahrscheinlicher, dass die App dessen Hose durch eine Vagina ersetzte als durch einen Penis.
Als Samantha Cole, eine Journalistin, die für das Online-Magazin Motherboard arbeitet, auf die App stieß, verfasste sie einen Beitrag mit dem Titel »This Horrifying App Undresses a Photo of Any Woman With a Single Click« (»Diese furchtbare App entkleidet Frauen auf Fotos mit nur einem einzigen Klick«).21 Mit ihrem Bericht, in dem sie scharfe Kritik an der Anwendung übt, machte sie jedoch bedauerlicherweise die falschen Leute auf das Problem aufmerksam, und so stieg das Interesse an der App direkt nach Erscheinen ihres Artikels sprunghaft an. Unter einer Flut von Downloads brach der Server von DeepNude schließlich zusammen und wurde vom Netz getrennt. Schätzungen der Entwickler zufolge lag die Nutzerzahl in den ersten 24 Stunden nach der Veröffentlichung von Coles Artikel bei 100 000. Letztendlich gerieten die Entwickler jedoch dermaßen unter Druck, dass sie die App mit der Erklärung, die Welt sei noch nicht bereit für eine Anwendung wie DeepNude, vom Netz nahmen. Allerdings war ihnen auch klar geworden, dass sie hier einen Jackpot geknackt hatten. Im darauffolgenden Monat stand DeepNude zum Verkauf und wurde schließlich im Zuge einer Online-Auktion von einem anonymen Käufer für 30 000 Dollar ersteigert. Jetzt wird die Software hinter der App umfunktioniert und weiterverbreitet. Wie Henry Adjer, der Leiter der Abteilung Threat Intelligence bei DeepTrace, mir berichtete, ist die Software nun auf verschiedenen Torrent-Websites als Download erhältlich. DeepTrace konnte außerdem »zwei weitere Serviceportale ausfindig machen, die angeblich verbesserte Versionen von DeepNude anboten« und dafür Zahlungen verlangten, die in einem Bereich von einem Dollar für ein Foto bis hin zu 20 Dollar für einen Monat unbegrenzten Zugang rangierten.
Sobald die App DeepNude als Download verfügbar war, »hatten die Entwickler keine Kontrolle mehr über sie, weshalb es jetzt extrem schwierig ist, sie aus dem Verkehr zu ziehen«. Die Software wird sich höchstwahrscheinlich weiterhin »wie ein Virus verbreiten und mutieren, womit der Zugriff auf ein beliebtes Tool zur Erstellung nicht einvernehmlicher, Deepfake-Pornografie erleichtert und jeder Gegenschlag erschwert wird«.22 Für die Generierung der Nacktbilder nutzte DeepNude die GAN-Technologie. Für die Erstellung von Fake-Pornos werden Face-Swap-Techniken, wie ich sie im ersten Kapitel bereits beschrieben habe, verwendet; sie verlangen jedoch ein gewisses Maß an Geschicklichkeit, wenn das Ergebnis gut werden soll. Doch mit der fortschreitenden Entwicklung künstlich generierter Medien wird es bald neue und bessere Wege geben, Deepfakes zu erstellen, und sie werden die Ergebnisse, die mithilfe von Face-Swap-Techniken oder Apps wie DeepNude erzielt wurden, rudimentär erscheinen lassen.
Sir Tim Berners-Lee, der Gründer des World Wide Web, hat mit Bedauern festgestellt, dass Frauen und Mädchen bei all den Gefahren, die online lauern, einer »wachsenden Krise« entgegenblicken; sexuelle Belästigung, Drohnachrichten und Diskriminierung machen das Internet zu einem zunehmend unsicheren Ort für sie. »Das Web«, sagt er, »funktioniert für Frauen und Mädchen nicht.«23 Doch die Realität ist, dass in der Infokalypse nicht nur Frauen und Mädchen mit einer solchen Krise konfrontiert sind; dasselbe gilt auch für Männer und Jungen. Auch wenn sich das Phänomen der Deepfake-Pornografie bisher fast ausschließlich gegen Frauen richtet, könnten gefakte Pornofilme, die beispielsweise homosexuelle Handlungen zeigen, in gewissen Teilen der Welt jemanden das Leben oder zumindest die Freiheit kosten. Und es wird nicht mehr lang dauern, bis Deepfakes auch auf diese Art eingesetzt werden.
Während die Infokalypse mit ihren Rahmenbedingungen dafür sorgt, dass Organisationen und Einzelpersonen sowohl für willkürliche als auch für gezielte Angriffe zunehmend anfälliger werden, laufen wir aufgrund des mit ihr einhergehenden Chaos Gefahr, als Kollateralschaden zu enden. Denn selbst wenn keine böse Absicht dahintersteht, kann die virale Verbreitung einer falschen Information einen Schneeballeffekt zur Folge haben, der Leben und Existenzen zerstört. Ein berüchtigter Fall aus jenen Tagen, als es noch keine Deepfakes gab, ist heute unter dem Namen »Pizzagate« bekannt und ein warnendes Beispiel dafür, wie schnell die Lage in unserem alarmierend oft als Waffe eingesetzten Informationssystem eskalieren kann.
Die Geschichte des Pizzagate-Falls begann 2016 während der Kampagne zur Präsidentschaftswahl und mündete beinahe in eine Katastrophe; damals verschaffte sich ein russischer Hacker Zugriff auf die E-Mails von Hillary Clintons Wahlkampfteam. Einen Monat vor der Wahl wurden die Mails von Clintons Wahlkampfleiter John Podesta gehackt; ein kompletter Cache wurde dabei auf der »Hacktivisten«-Website Wikileaks veröffentlicht (wo sie auch heute noch als Download verfügbar sind24). Podesta, ein eingefleischter Demokrat, der bereits für beide Clintons als Wahlkampfleiter tätig war, fiel »Guccifer 2.0« zum Opfer, einer Figur, die aus dem Umfeld des russischen Militärs und Geheimdienstes zu stammen schien und sich für den Hack verantwortlich erklärte. Die E-Mails dokumentierten alles, von ganz banalen Dingen – wie einem Risottorezept – bis hin zu politisch brisanten Themen, wie zum Beispiel die Transkripte der privaten Reden, die Hillary Clinton für horrende Summen an der Wall Street gehalten hatte.
Bald schon zerbrach sich das Internet über jedes einzelne Detail den Kopf, und auf Websites wie Reddit und 4Chan machte ein sehr seltsamer Verschwörungsmythos die Runde. Scheinbar gaben die E-Mails Grund zu der Annahme, dass John Podesta, Hillary Clinton und Barack Obama einer geheimen Verbindung von Pädophilen angehörten, deren Zentrale sich im Keller einer Pizzeria in Washington, D.C. befinden sollte. Wie man zu dieser Erkenntnis gelangt war? Nun ja, in den E-Mails ist die Rede von Zusammenkünften, bei denen »Pizza« eine Rolle spielte, und das englische Wort »Cheese Pizza« (Käsepizza) ist im Dark Web offensichtlich ein Code für Kinderpornografie.
Für die Verschwörungsideologen war der rote Faden nicht zu übersehen. Der Name der Pizzeria lautete beispielsweise Comet Ping Pong, und deren Initialen CP (dieselben wie bei »Cheese Pizza«) standen angeblich für den englischen Begriff »Child Pornography« – Kinderpornografie. Der Besitzer der Pizzeria ist ein Mann namens James Alefantis, der, wie es schien, gut vernetzt war mit dem liberalen Establishment in D.C. – ein weiterer »Beweis«. Laut ausgesprochen klingt James Alefantis mit etwas Fantasie ein bisschen wie J’aime les enfants, französisch für »Ich liebe Kinder« – noch ein »Zeichen«. Alefantis’ Instagram-Account goss zusätzlich Benzin ins Feuer des Verschwörungsnarrativs, da darauf Fotos von Kindern zu sehen waren, auf dem eines eine Pizza isst. Ein anderes Foto zeigte Präsident Obama, wie er mit einem kleinen Jungen im Weißen Haus Tischtennis spielt. Diese »Beweisstücke« wurden als Zeichen dafür gewertet, dass Alefantis der perverse, psychopatische Kopf eines Sexhandelsrings ist.
Wie die Pilze schossen Websites, Blogs und Foren aus dem Boden, die sich allesamt dem Thema Pizzagate widmeten. Eine anonym erstellte WordPress-Website mit dem Namen »dcpizzagate« legte fieberhaft und detailliert dar, warum dieser Mythos wahr sein müsse. In einem langen und weitschweifigen Blogartikel äußert sich die Website folgendermaßen zu den E-Mails: »Wenn das kein Code ist, dann macht es absolut keinen Sinn. Weder Podestas Rechtsabteilung noch die Mainstream-Medien hatten eine schlüssige Erklärung parat, was das alles bedeuten könnte, wenn [es hier] WIRKLICH um Pizza […] gehen würde.«25 Daran anschließend folgt eine Erklärung, wie pervers und krank Alefantis’ »ÖFFENTLICHER Instagram-Account« sei: »Lasst uns doch mal einen Blick auf einige seiner Instagram-Posts werfen, und bitte sagt mir nicht, dass euch da nicht die Haare zu Berge stehen«26, schreiben die Blogbetreiber. Dann machen sie sich daran, die Bilder von Alefantis Instagram-Seite bis ins kleinste Detail zu interpretieren und so den Mythos vom Kinderhandelsring zu begründen. Zu allem Überfluss handelt es sich dabei laut diesem Blogartikel auch nicht um einen gewöhnlichen Kinderhandelsring, sondern um einen, der tief im Morast satanischer okkulter Rituale steckt.
Das alles klingt verrückt – und das ist es natürlich auch. Es ist komplett durchgeknallt. Doch aus irgendeinem Grund zog Pizzagate immer mehr Aufmerksamkeit auf sich. Auf Reddit beschäftigten sich irgendwann 22 000 Nutzer und Nutzerinnen mit dieser schwachsinnigen Geschichte. Kleine Gruppen von Demonstrantinnen versammelten sich vor Comet Ping Pong und bedrängten Alefantis und andere, die ebenfalls beschuldigt wurden, Mitglieder des Sexhandelsrings zu sein. Alefantis beschrieb diese Übergriffe später folgendermaßen:
Nachrichten und Kommentare strömten nur so herein. An einem Tag bekam ich über meine Social-Media-Kanäle ungefähr 75 private Nachrichten. Meine Reaktion darauf war, alles stillzulegen – die Kommentare zu löschen und möglichst nicht darauf zu antworten. Ich dachte, dass all das ja auch irgendwann wieder ein Ende haben müsse. Aber es wurde immer schlimmer. Viele der Nachrichten waren brachial – »Ich habe eine Waffe. Ich will, dass du stirbst« – und blutrünstig – »Ich bete zu Gott, dass jemand mit einer Waffe ins Comet kommt und alle umbringt. Ich würde dir am liebsten den Bauch aufschlitzen und zusehen, wie deine Eingeweide auf den Boden fallen.« Bei so etwas schloss ich einfach meinen Laptop und ging meinem Tagesgeschäft nach. Beunruhigend wurde es, als Nutzer und Nutzerinnen anfingen – ich nenne es mal »Bürgerermittlungen« – durchzuführen. Diese Nutzer gingen meine Social-Media-Accounts durch und schrieben jede Person an, die jemals einen meiner Posts geliked oder kommentiert hatte. Ich bekam Anrufe von Freundinnen, Familienmitgliedern und Kunden, die mir berichteten, dass sie ebenfalls online belästigt wurden.27
Irgendwann erreichte das Ganze jedoch eine neue Eskalationsstufe. Podestas E-Mails wurden im Oktober und November 2016 auf WikiLeaks veröffentlicht. Alefantis ging davon aus, dass die Belästigungen aufhören würden, sobald Donald Trump gewählt war – doch weit gefehlt. Am 4. Dezember 2016 betrat ein Mann, bewaffnet mit einem AR-15-Sturmgewehr, das Comet Ping Pong und feuerte mehrere Schüsse ab. Zum Glück wurde niemand verletzt. Als der Schütze Edgar Maddison Welch feststellte, dass dort keine Kinder festgehalten wurden (tatsächlich hatte die Pizzeria noch nicht einmal einen Keller!), gab er sich zufrieden, verließ das Grundstück und stellte sich der Polizei. Seiner Aussage nach war er von seiner Heimat North Carolina nach D.C. gefahren, um »selbst zu ermitteln«, was an den Gerüchten über den Kinderhandelsring dran sei. Welch ist mittlerweile zu vier Jahren Haft verurteilt worden, doch in der Internetwelt lebt Pizzagate weiter: Die Verschwörungsideologen sahen in Welchs Angriff lediglich ein Ablenkungsmanöver, das sie davon abbringen sollte, die Wahrheit ans Licht zu bringen!
An diesem außergewöhnlichen Beispiel zeigt sich, wie leicht sich derartiger Unsinn dank der Infokalypse verbreiten und wie schnell er eskalieren kann. Wenn die Veröffentlichung von ein paar E-Mails, in denen das Wort »Pizza« vorkommt, ausreicht, einen Mann dazu zu bringen, dass er bewaffnet ein Gebäude stürmt, um Kinder aus den Fängen imaginärer Kinderhändler zu befreien, dann stelle man sich nur einmal vor, was Deepfakes anrichten könnten. Nicht auszudenken, was alles hätte passieren können, hätte es ein gefälschtes Video gegeben, das Clinton und Alefantis im Gespräch über den sadistischen Missbrauch von Minderjährigen zeigt. Das hätte eine Situation nach sich ziehen können, die um einiges gefährlicher gewesen wäre als ein einzelner Schütze. In Alefantis’ Leben ist nie wieder Ruhe eingekehrt. Einige Menschen glauben immer noch an den Verschwörungsmythos. Er wird nach wie vor belästigt. Wie er nach dem Vorfall berichtete, sei ihm ab diesem Zeitpunkt angst und bange gewesen: »Ich bekam immer noch Morddrohungen. Ohne Hut und Sonnenbrille ging ich nicht mehr aus dem Haus. Und von Seiten der Security hieß es: ›Ja. Du bist definitiv in Gefahr.‹«28
Pizzagate ist eine außergewöhnlich skurrile Geschichte, doch der Aufruhr, in dem sich Alefantis wiederfand, ist ein weiteres Beispiel dafür, wie sehr die Infokalypse unsere Realität formt. Je verseuchter und maroder unser Informationsumfeld wird, desto anfälliger werden Unternehmen, aber auch jeder und jede Einzelne dafür, zu potenziellen Zielscheiben zu werden oder als Kollateralschaden zu enden.