An der Oberfläche sehen viele Mediatheken, der Netflix-Startbildschirm, die Spotify-Playlist oder das aktuelle Kinoprogramm aus wie immer. Äußerlich ist nicht viel zu sehen von der größeren Vielfalt an KI-generierten Inhalten. Doch im Hintergrund tut sich einiges. YouTube als größte Video-Plattform nutzt KI-generierte Zusammenfassungen von Videos als Trailer, um es den Nutzerinnen und Nutzern leichter zu machen, den passenden Content zu finden. Gleichzeitig wappnet sich die Plattform ebenso wie Instagram und andere für den Ansturm synthetischer Inhalte: Bei fast allen müssen diese mittlerweile beim Upload gekennzeichnet werden, denn auch die bewegten Bilder selbst werden immer häufiger KI-generiert oder bearbeitet. Als der britische Filmemacher Scott Mann seinen Film «Fall» fertig gedreht hatte, wurde deutlich, dass die Schauspielerinnen und Schauspieler über 30-mal das verbotene Wort «Fucking» sagten. Was in Deutschland kein großes Problem wäre, verhindert in den USA die Freigabe des Films für ein Publikum ab 13 Jahren und kostet damit rund die Hälfte an möglichen Einnahmen. Anstatt nun, wie üblich, die Szenen neu zu drehen oder herauszuschneiden, nutzte Mann, nebenbei Gründer der Software-Firma Flawless, deren Co-CEO er ist, die Software TrueSync von Flawless, um die Gesichter der Schauspielerinnen und Schauspieler zu digitalisieren und dann so zu verändern, dass statt des verbotenen Wortes Alternativen wie «Freaking» aus den Mündern kam. Doch das war nicht der einzige Einsatzzweck. Auch für die internationale Synchronisation nutzte das Team diese Software. Und so kann man den Film auf Japanisch oder Spanisch sehen, und die Lippenbewegungen der Schauspielerinnen und Schauspieler sind tatsächlich synchron zu diesen neuen Sprachen.
Das ist technologisch identisch mit Deepfakes, nur deutlich legaler. Im Film Indiana Jones and the Dial of Destiny wurde ähnliche generative künstliche Intelligenz benutzt, um den über 80-jährigen Harrison Ford zu verjüngen. Denn was als Digitalisierung und Modulation von Gesichtern und Mimik möglich ist, kann selbstverständlich auch auf ganze Körper oder Szenen angewendet werden. Auch erste Stimmklone von Schauspielern sind schon in der Welt, allerdings noch oft ohne das Wissen der Originale. So entdeckte der britische Schauspieler Greg Marston seine Stimme auf der Website der Firma Revoicer. Auf Nachfrage erfuhr er, dass das Unternehmen seine Stimme von IBM gekauft hatte. Weitere Recherchen ergaben, dass IBM auf der Basis eines 18 Jahre alten Vertrages zum Einsprechen von Navigationsdaten das Recht ableitete, die Aufnahmen wiederzuverwenden und als Stimmklon zu verkaufen. Glaubt man den Diskussionsforen über Verträge von Aufnahmestudios, so müssen Schauspielerinnen und Schauspieler immer häufiger digitalisierten Versionen ihrer Stimme, ihres Gesichts und Körpers auch für zukünftige Produktionen zustimmen. Die streikenden Schauspielerinnen oder Drehbuchautoren von Hollywood ahnten, was auf sie zukommen wird: Ideen, Sprachstil, Stimmen, Gesichter und Körper werden zu digitalen Assets, auf deren Basis Produktionen zukünftig schneller, lokaler und günstiger durchgeführt werden können. Was für die Profis in diesen Branchen eine echte Bedrohung ist, führt bei der Nutzung von Unterhaltungsmedien zu einer größeren Vielfalt, deutlich verbesserter Sprachsynchronisierung und einer besseren Qualität von Spezialeffekten. Die Vielfalt an Content nimmt zu, und durch günstigere Produktionsbedingungen können zukünftig selbst Nischengeschmäcker bedient werden.