Vielleicht werden auch wir uns eines Tages fragen, ob wir lachen oder weinen sollen, wenn wir die Nutzungsbedingungen unserer heutigen Apps lesen, die alle ganz ähnlich wie die von Google Chrome klingen. Unterdessen geht die Enteignung unserer Daten nahezu ungebremst weiter. Zwar geraten in diesem Zusammenhang vor allem die großen Technologieunternehmen in die Schlagzeilen, aber der Datenklau geht nicht nur von einigen wenigen skrupellosen Konzernen aus: Er findet auf allen Ebenen statt, teils im Verborgenen, teils vor unser aller Augen.
Nehmen Sie zum Beispiel Lasso, einen führenden Vermarktungsdienstleister im US-Gesundheitssektor, von dem Sie mit Sicherheit noch nie etwas gehört haben. Während die meisten davon ausgehen, dass ihre persönlichen Gesundheitsdaten rechtlich geschützt sind, hat Lasso Mittel und Wege gefunden, Analysewerkzeuge wie Blueprint™, Connect™ oder Triggers™ anzubieten, die es Marketingunternehmen erleichtern, Kunden im Gesundheitssektor zu erreichen. Natürlich beteuert Lasso, sämtliche Vorschriften über den Umgang mit Gesundheitsdaten zu beachten. Dafür sind die Versprechungen, was Blueprint™ leisten soll, beeindruckend. Ein Zitat von der Webseite:
Lasso Blueprint ermöglicht es Marketingunternehmen, auf der Grundlage einer Auswertung von Diagnosen, Rezepten, medizinischen Eingriffen, Versicherungsdaten, demographischen Informationen und vielem mehr hochwertige Zielgruppen zu ermitteln, die sich aus Gesundheitsdienstleistern und Verbrauchern zusammensetzen. Unser Produkt liefert Zielgruppenzahlen in Echtzeit … Zielgruppen lassen sich auch wöchentlich dynamisch mit neuesten Daten aktualisieren, so dass Sie [das Marketingunternehmen] niemals eine Kontaktmöglichkeit mit Ihrem Kundenkreis versäumen.[1]
Selbst wenn Gesundheitsdaten streng anonymisiert bleiben, sie werden in Paketen zusammengefasst, die dann verwendet werden, um Sie als Verbraucher mit einer bestimmten medizinischen Vorgeschichte gezielt anzusprechen. Letztlich spielt es kaum eine Rolle, ob Ihr Name auf dem Datenpaket steht. All dies beruht auf der ausgeklügelten Datenverarbeitung von Xandr, einem Unternehmen, das 2022 für eine Milliarde Dollar von Microsoft übernommen wurde und fernab der Schlagzeilen operiert.
Bis vor kurzem erschien die Erfassung von Daten durch Überwachung zum Zwecke des Marketings oder der algorithmischen Profilerstellung noch das Bedenklichste an der KI. Doch die schwindelerregende Entwicklung, die sich in den letzten Jahren in diesem Bereich vollzogen hat, lässt inzwischen befürchten, dass der Datenkolonialismus unser gesamtes Denken und Schaffen verändern könnte – oder, genauer gesagt, unser Denken und Schaffen komplett Maschinen überantwortet. Man denke nur daran, was in den Bereichen Kunst, Kultur und Medien mit der Entwicklung natürlicher Sprachgenerierung und generativer KI-Tools möglich ist. Diese Programme ahmen unsere kreative Schaffensweise mit Hilfe von Algorithmen der künstlichen Intelligenz nach, und das mit zunehmend authentisch wirkendem Ergebnis. Mit ein paar Anweisungen – den sogenannten »Prompts« – können KI-Tools wie ChatGPT, DALL-E, DeepDream oder DeepMind (die beiden ersteren gehören zu OpenAI, die anderen zu Google) Texte, Bilder, Töne oder menschliche Stimmen produzieren, die nicht nur so wirken, als stammten sie von echten Menschen, sie können sogar den Stil von bestimmten Malern, Autorinnen oder Musikern imitieren, wie zum Beispiel Salvador Dalí, Jane Austen oder Fela Kuti.
Damit das möglich ist – damit die KI imitieren kann, was Austen, Dalí oder Kuti schrieben, malten oder komponierten und sangen –, muss sie lernen, wie andere Künstler oder wir alle schreiben, malen, komponieren und singen. Mit anderen Worten: Sie muss nicht nur die Romane von Jane Austen analysieren, sondern die Werke vieler Autorinnen und Autoren und auch das, was Sie geschrieben haben; sie muss nicht nur Kutis Stimme analysieren, sondern auch Ihre Stimme. Dafür greift sie unter anderem auf die Videos zurück, die wir auf Social-Media-Plattformen hochladen, sowie auf die Sprachnachrichten, die wir auf den Handys unserer Freunde hinterlassen.
Manche Leute halten die KI-generierten Imitate von Werken, Stimmen oder Bildern berühmter oder weniger berühmter Personen vielleicht für harmlos. Man kann sie als unterhaltsame und teils nützliche Spielerei abtun – wäre es nicht praktisch, Sprach- oder Videonachrichten bearbeiten zu können, ohne sie neu aufnehmen zu müssen? Doch gerade jetzt, da die generative KI noch in den Kinderschuhen steckt, lohnt sich das Nachdenken über Authentizität, den Wert von Originalen und unsere Fähigkeit, manipulierte Film- und Tonaufnahmen zu erkennen. Und auch die Frage, wer all das kontrollieren soll, muss gestellt werden.
Ein weiterer Aspekt verdient in dieser Sache unsere Aufmerksamkeit: Unsere kollektiven kulturellen und sozialen Schöpfungen sind zum extrahierten Rohmaterial dieser KI geworden. So wurde beispielsweise die Software MusicLM von Google, die auf der Grundlage von Prompts wie »meditativer Song, entspannend, mit Flöten und Gitarren« Musikstücke generieren kann, anhand von 280000 Stunden Musik trainiert. Hat Google eine Lizenz für die Nutzung der Unmengen von Musik erworben, die dazu benutzt wurde? Wohl kaum. Wahrscheinlich hat Google deshalb auch die Zugänglichmachung dieses Dienstes eine ganze Weile zurückgehalten. Denn wenn computergenerierte Musik zu sehr nach dem Quellmaterial klingt, das ihr als Vorbild diente, öffnet dies potenziellen Klagen Tür und Tor.[2] Aber schließlich gab Google das Programm doch wie die meisten seiner Produkte zur kostenlosen Nutzung frei. In ihrer veröffentlichten Form kommt die KI Prompts, bestimmte Künstler oder Gesangsstücke zu kopieren, nicht nach, was Google mögliche Klagen wegen Urheberrechtsverletzungen erspart. Dennoch bleibt Google ein Konzern, der Kulturschöpfungen enteignet und als Trainingsmaterial einer Maschine benutzt, die die Arbeit von Menschen übernimmt – einfach deshalb, weil eine solche Maschine diese Arbeit schneller und billiger erledigen kann.[3]
Von der Internetrecherche über Cloud-Dienste bis hin zur generativen KI – Google braucht für die Nutzung seiner Produkte kein Geld von uns zu verlangen, weil wir das Ausgangsmaterial für Produkte des Konzerns liefern. Doch die Bereitstellung der unentgeltlichen Nutzung solcher Dienste (zur »Förderung des kreativen Prozesses«, wie MusicLM vollmundig behauptet)[4] kann nicht über die Natur und das Ausmaß dieses »Raubzugs« hinwegtäuschen, wie Naomi Klein es genannt hat.[5]
Ob sich dies nun irgendwie im Verborgenen oder vor unser aller Augen abspielt, ändert nichts daran, dass es sich um einen schwerwiegenden Akt der Aneignung handelt. Er beinhaltet die Erfassung und Monetarisierung der Daten, die sich aus unseren Begegnungen mit anderen Menschen, unseren Interaktionen in Raum und Zeit und all dem ergeben, was wir mit anderen teilen. Dass man die generative KI als »cool« darstellt, soll im Grunde nur davon ablenken.
Willkommen im Datenkolonialismus. Er ist allgegenwärtig, eine Aneignung von Ressourcen in wahrhaft kolonialem Ausmaß. Ein Datenraub, der den Lauf der Geschichte kaum weniger verändern wird als der ursprüngliche kolonialistische Landraub vor fünf Jahrhunderten.