Am Anfang dieses Buches stand eine Zahl. «Ein Europol-Bericht aus dem Jahr 2022 schätzt, dass bis zum Jahr 2026 etwa 90 Prozent der Online-Inhalte durch KI generiert werden könnten.» So las ich im KI-Report «Ghost in the Machine» des Norwegian Consumer Council. Wow. Neun von zehn Inhalten. Bis 2026. Das war ja quasi morgen. Mein Interesse war geweckt. Denn ich habe als Medienmacher natürlich auch ein wirtschaftliches Interesse an der Frage, wie die Landschaft von Inhalten und Medien zukünftig geprägt ist. Auch als Buchautor beschäftige ich mich zudem schon lange mit digitalen Entwicklungen, besonders den Fähigkeiten, die wir KI zuschreiben.

Ich suchte nach ähnlichen Vorhersagen, und die Zahl begegnete mir immer wieder. Auch in der einflussreichen US-amerikanischen Tageszeitung New York Times, die sich ebenfalls auf die europäische Polizeibehörde Europol und deren Deepfake-Report bezog. Andere Medien griffen die 90 Prozent auf und gaben wahlweise Europol, die New York Times oder den Norwegian Consumer Council als Quellen an. Alle drei sind schließlich Institutionen mit einer hohen Vertrauenswürdigkeit, sprich: seriöse Quellen. Im Laufe der Recherche kamen weitere Medien hinzu. Die angesehene Fachzeitschrift Nature schrieb: «Wissenschaftler gehen davon aus, dass etwa 90 Prozent aller Internetinhalte innerhalb weniger Jahre synthetisch sein könnten»,

 

Viele Artikel, die sich letztlich auf eine einzige Quelle bezogen. Ich beschaffte mir den Europol-Report und fand dort als Quelle für die 90 Prozent das Sachbuch «Deepfakes: The Coming Infocalypse» von Nina Schick aus dem Jahr 2020. Tatsächlich gibt es darin ein Interview mit dem Gründer eines Start-ups für generative Medien, Synthesia. Schick schreibt über das Gespräch mit ihm: «He believes that synthetic video may account for up to 90 per cent of all video content in as little as three to five years.»

Ein einziger Mensch, noch dazu der Besitzer einer Firma, die mit synthetischen Medien ihr Geld verdient, mutmaßt also, dass 90 Prozent der Videos im Netz drei bis fünf Jahre nach dem Erscheinen des Buches in 2020 synthetisch sein könnten. Und das ist nun die Expertenquelle, auf die sich ein riesiges Zitate-Netzwerk, darunter Nature, Europol, Sicherheitsbehörden, die EU-Kommission, wissenschaftliche Papiere oder die New York Times berufen?

Nun werden Sie sich zu Recht fragen, warum ich

Der zweite Grund liegt in der Zahl 90 Prozent selbst. Es ist kein Wunder, dass alle diese Quellen bereitwillig auf sie hereingefallen sind. Bereits nach kurzen eigenen Recherchen erscheint sie mir womöglich sogar zu niedrig. Ein Experte des Copenhagen Institute for Future Studies wurde zitiert mit: «In einem Szenario, in dem GPT-3 ‹freikommt›, wäre das Internet nicht mehr wiederzuerkennen.» In diesem Szenario – das mit ChatGPT längst Realität geworden ist – würde er darauf wetten, dass «99 Prozent bis 99,9 Prozent von 2025 bis 2030 von KI generiert werden». Mein Interesse wurde immer größer. Es müsste doch möglich sein, die wirkliche Größenordnung besser einzuschätzen als nur

Als Belege fand ich viele unterschiedliche Quellen, die meine Vermutung stützen: Wir sehen in einigen Mediengattungen heute schon eine Flut an künstlichen Inhalten. Und wir alle werden in den kommenden Jahren Inhalten ausgesetzt sein, die zu 100 Prozent synthetisch sind – und oft werden wir es gar nicht merken. Darunter sind aufsehenerregende, aber eher anekdotische Ereignisse, wie vollständig algorithmisch kreierte Bücher auf Amazon. Und es gibt Medientypen, die schon heute ausschließlich maschinelle Inhalte in riesigen Mengen bereitstellen, ohne dass dies zum Thema gemacht wird. Allein der Output einiger bekannter Text- und Bildgeneratoren lässt darauf schließen, wie groß die Flut an synthetischem Content sein wird. Denn selbst wenn nur ein Bruchteil dieser Erzeugnisse in unserem alltäglichen Medienkonsum landete, wäre es doch eine ganze Menge: So sprach allein OpenAI bereits Ende 2023 von 100 Millionen aktiven Usern pro Woche für sein Produkt ChatGPT. Und das ist nur ein Dienst neben Stable Diffusion, Midjourney und vielen anderen speziellen Content-Maschinen. Ganz zu Schweigen von den

Es geht nicht nur um die Menge. Auch die Qualität dieser Entwicklung hat Sprengkraft. Denn wenn nur eine einzige Nachricht nicht mehr glaubwürdig ist, stört das unser Vertrauen in alle anderen Inhalte. Wir erleben das immer wieder in Krisen. So soll Russland fast reflexartig Beweise für Kriegsverbrechen im Angriffskrieg gegen die Ukraine als Fake News bezeichnet haben. Der Wahlkämpfer Donald Trump hat diesen Trick zur Methode gemacht. Viele politische Hetzkampagnen machen sich das zunutze, indem sie mit nur wenigen gezielten Fakes Zweifel schüren. Der Rest kommt dann von ganz alleine. Denn kommt das häufiger vor, verlieren wir das Vertrauen in die jeweiligen Medien oder Quellen. Und wenn die Fakes zum Alltag werden, wovon ich ausgehe, wird unser Vertrauen in die Medienlandschaft, wie wir sie heute kennen, stark in Mitleidenschaft gezogen. Und das schadet auch unserer Demokratie, die sich schließlich in weiten Teilen auf Medien stützt.

Das sind genug Gründe, sich mit dem Thema vertraut zu machen. Denn es geht auch um die Frage, ob wir genug Mittel und Wege haben, um nicht gänzlich in dieser Flut an Content zu ersaufen. Zuvor müssten wir aber wissen, womit wir es genau zu tun haben. Mein Ehrgeiz war geweckt: Wie viel Prozent synthetische Inhalte sind es denn nun wirklich?