Doch nicht jede Manipulation ist politisch motiviert und auf den ersten Blick schädlich. Eine Art der Beeinflussung, an die wir uns längst gewöhnt haben, ist Werbung. Die Branche, darauf ausgerichtet, Produkte maximal effizient an Zielgruppen zu verkaufen, wandelt sich ebenfalls massiv in einer Ära von synthetischen Medien. Und damit meine ich nicht geschönte Bilder, retuschierte Models oder aus per Computer generiertem Bildmaterial zusammengebaute Werbefilme, die gibt es schon lange. Eine neue Dimension wird durch die Kombination synthetischer Medien mit Big Data eröffnet, und die wird tiefgreifende Auswirkungen auf die Werbebranche haben. Künstliche Intelligenz wird künftig Texte, Bilder, Sounds oder Videos für individuelle Ausspielungen erstellen, die abhängig sind von Nutzersituation, dem Umfeld oder den Hintergrunddaten. So werden dann etwa KI-generierte Banner mit Produktbildern und Texten, ja sogar Preisen in dem Moment generiert, in dem klar ist, wer sie sehen wird: Eine Urlaubsanzeige für mich wird sich in Angebot, Sprache, Optik von der unterscheiden, die an meine junge Kollegin gerichtet ist. Das Neue: Nicht Menschen haben sich vorher das Design überlegt – sondern es entsteht automatisch. Hunderte von Variationen können in Echtzeit getestet und optimiert werden, basierend auf dem Liveverhalten der Nutzer.
Daraus ergeben sich Vorteile für Werbetreibende. Sie können punktgenau ermitteln, welche Botschaften, Bilder oder Calls-to-action am effektivsten sind. Die Möglichkeit, Werbebotschaften so genau zu personalisieren, bedeutet, dass Werbung viel relevanter und daher wirkungsvoller wird. Anstatt sich auf breit gestreute Botschaften zu verlassen, die möglicherweise nur einen kleinen Prozentsatz ansprechen, entstehen automatisierte Inhalte, die genau auf die Interessen, Vorlieben und sogar die momentane Stimmung der Einzelnen zugeschnitten sind. Die Bandbreite möglicher Inhaltstypen ist groß. Bei einer Umfrage unter US-Marketingexperten im Jahr 2023 wurden generierte Texte für E-Mails mit 44 Prozent als häufigstes bereits genutztes Anwendungsfeld genannt, gefolgt von Texten (42 Prozent) und Bildern (39 Prozent) für Social Media.
Für die Menschen vor dem Schirm ist das nicht unbedingt positiv. Die Grenze zwischen nützlicher Personalisierung und Manipulation verschwimmt schnell, vor allem, wenn es nicht nur Banner oder Anzeigen sind, sondern ganze redaktionelle Umfelder so geschaffen werden. Und wenn wir schon so weit denken, warum nicht auch ganze Shops? Steigen nicht ganz sicher die Umsätze, wenn Produktbeschreibungen und angezeigte Rezensionen genau auf mich zugeschnitten sind, indem zum Beispiel ökologische Aspekte besonders hervorgehoben werden, weil der Algorithmus weiß, dass mir das wichtig ist? Ein Albtraum, wie direkt aus der Science-Fiction-Serie Black Mirror: Ein eigenes Online-Kaufhaus für jede Person, gefüllt nur mit Dingen, die ihre innersten Sehnsüchte bedienen. Gezeigt auf Bildern, die ihr bekannt vorkommen und angepriesen in der Sprache, die am schnellsten ihr Herz und den auf «Kaufen» klickenden Zeigefinger erreicht.
Selbst für die Werbebranche gibt es nicht nur Vorteile. Während solche hochpräzisen Inhalte zu höheren Konversionsraten und effektiveren Kampagnen führen, werden sie auch den Wettbewerb verändern und die Abhängigkeit von Technologieanbietern erhöhen. Unternehmen, die nicht über die neuesten Technologien oder Daten verfügen, könnten Schwierigkeiten haben, mit ihren Konkurrenten Schritt zu halten. Oder zugespitzt: Wer Marketing und Vertrieb jetzt noch nicht digitalisiert hat, sollte sich warm anziehen. Die zuverlässigsten Lieferanten für Daten und Algorithmen sind die großen Digitalkonzerne. Schon heute werden mehr als 50 Prozent der Werbeumsätze über Google und Meta abgewickelt, weil sie Unmengen von Daten über Umfelder und Verbraucher haben und jede Werbeplatzierung mit hochpräzisen automatisierten Auktionen meistbietend versteigern. Doof, wer glaubt, dass sich dieser Anteil nicht noch steigern ließe, wenn auch die Inhalte von den Algorithmen dieser Giganten kommen. Das dürfte einer der Gründe sein, weshalb die Foundation Models von Google, Meta, Baidu, Tencent und Alibaba zu den mächtigsten gehören. Alle profitieren immens von Werbung.
Die gleichen Mechanismen funktionieren auch bei der illegalen Manipulation. Da, wo Menschen dazu gebracht werden sollen, Kontodaten herauszurücken, Geld an fiktive Prinzen zu überweisen oder das Passwort ihres E-Mail-Kontos an Betrüger zu übermitteln. Generative Inhalte, die hervorragend personalisiert und situativ angepasst werden können, bieten den perfekten Werkzeugkasten für Betrügerinnen, Diebe und Verbrecher. So berichten Behörden bereits von interessanten Varianten des sogenannten Enkeltricks: Kriminelle nutzen Software, um die Stimmen von Angehörigen zu imitieren, die dann um Geld bitten. Auch bei Banken ist diese Masche bereits aufgetaucht, und Betrüger versuchten, sich mit Fake-Stimmen Zugang zu den Konten anderer Leute zu erschleichen.
Die Politik ist alarmiert. Die Europäische Union erklärt zu ihrem umfangreichen KI-Gesetz deutlich, wer dabei aufzupassen hat: «KI-Systeme sollten von Menschen und nicht von der Automatisierung überwacht werden, um schädliche Ergebnisse zu verhindern.» Der amerikanische Präsident Joe Biden warnte in einer Executive Order: «Ohne Schutzmaßnahmen kann die KI die Privatsphäre der Amerikaner weiter gefährden. KI macht es nicht nur einfacher, personenbezogene Daten zu extrahieren, zu identifizieren und zu verwerten, sondern erhöht auch die Anreize dafür, dass Unternehmen Daten zum Trainieren von KI-Systemen verwenden.» Um die Privatsphäre der Menschen vor den Risiken der KI zu schützen, forderte der Präsident den Kongress mit dieser Order auf, ein parteiübergreifendes Datenschutzgesetz zu verabschieden, um alle Amerikaner, insbesondere Kinder, zu schützen.
Zur Beeinflussung von Wählerverhalten können synthetische Botschaften sehr effizient verwendet werden. Während ich dieses Buch schreibe, bereiten sich die USA auf eine Präsidentschaftswahl vor, und auch in Europa stehen etliche Urnengänge an, weltweit sind es über 70 Wahlen. Vorsorglich haben fast alle großen Social-Media-Plattformen verfügt, dass insbesondere Wahlwerbung, die generative Inhalte benutzt, verboten ist oder als solche gekennzeichnet werden muss. Anscheinend fürchten sie zu Recht die manipulativen Fähigkeiten der künstlichen Inhalte – doch für eine Verbannung synthetischer Inhalte ist es bereits zu spät. Ganz abgesehen davon, dass die meisten Social-Media-Plattformen kein wirtschaftliches Interesse daran haben, Inhalte mit möglichem Aufregungs- und Verbreitungspotenzial komplett zu verbannen, ist die Gefahr der Manipulation längst real. In Taiwan tauchten in Vorbereitung auf die Präsidentschaftswahl 2023 manipulierte Audiodateien oder Videos auf, in denen die Präsidentin angeblich Werbung für Krypto-Geschäfte machte. Es stellte sich heraus, dass die Filme, wie auch viele andere Botschaften wahrscheinlich, von China als gezielte Desinformation zur Beeinflussung des Wählerwillens verbreitet wurden. Doch die taiwanesische Gesellschaft hat in den vergangenen Jahren viele Abwehrmechanismen entwickelt, um den manipulativen Einfluss chinesischer Geheimdienste zu minimieren. «Angst, Ungewissheit und Zweifel sollen uns nachts wach halten, damit wir auf neue Bedrohungen nicht mit neuen Verteidigungsmaßnahmen reagieren», erklärte Audrey Tang, Taiwans Ministerin für Digitales, in einem Interview. Zu Tangs Job gehört es, die Cybersicherheit zu verstärken, um Bedrohungen wie Desinformation zu minimieren.
In den USA tauchten im Vorwahljahr 2023 selbstverständlich auch Fakes auf. So nutzte die republikanische Partei ein Video, in dem Joe Biden seine erneute Kandidatur als Präsident verkündete – und das komplett aus gefakten und manipulierenden Bildern und Videos bestand. Es zeigte eine dystopische Zukunft, die drohe, wenn Wähler auf den demokratischen Präsidenten setzen. Für solche Fakes braucht es noch nicht einmal Parteien. Die renommierte Brookings Institution warnt davor, dass zukünftig jeder manipulieren könne: «KI wird wahrscheinlich die Desinformation demokratisieren, indem sie dem Durchschnittsbürger, der für seine bevorzugten Kandidaten werben will, ausgefeilte Werkzeuge zur Verfügung stellt. Die Menschen müssen keine Programmierexperten oder Videoassistenten mehr sein, um Texte, Bilder, Videos oder Programme zu erstellen. Sie müssen nicht unbedingt für eine Trollfarm arbeiten, um der Opposition Schaden zuzufügen. Sie können einfach fortschrittliche Technologien nutzen, um die gewünschten Botschaften zu verbreiten. In diesem Sinne kann jeder ein politischer Content Creator werden.»
Es sind vor allem vier Merkmale, die beim Einsatz von synthetischen Inhalten in der Wahlwerbung kritisch werden können.
Erstens, die sofortige Verfügbarkeit der Inhalte. Das republikanische Video wurde zum Beispiel direkt nach Joe Bidens realer Ankündigung verschickt. Üblicherweise dauern Konzept, Produktion und Freigabe solcher Videos mindestens mehrere Tage.
Zweitens, die Einbeziehung von aktuellen Trends oder Informationen. Künstliche Intelligenz kann das Internet in Echtzeit auf Reaktionen scannen und dann Videos, Presseveröffentlichungen, Mails, Witze oder Social-Media-Posts mit sofortiger Wirkung anpassen.
Drittens, das ausgefeilte Targeting. Mittels KI kann jede Botschaft genau an ihre Empfängerin oder Empfänger angepasst werden. Für mich, als Berufstätigen in einer Großstadt, kann der Wahlwerbespot dann anders aussehen und klingen, als etwa für meinen Vater in Rente, der am Stadtrand lebt.
Viertens, all diese besonderen Fähigkeiten sind zu einem Bruchteil der Kosten zu haben, die eine herkömmliche Produktion von Kommunikationsmitteln bisher gekostet hat.
Wir befinden uns derzeit in einer Echtzeit-Laborsituation und testen, wie sich eine derart starke Technologie auf demokratische Prozesse, speziell Wahlen, auswirkt. Und dabei ist Manipulation noch nicht einmal unser einziges Problem.