Wir haben gesagt, dass der kolonialistische Datenraub der Wirtschaft des 21. Jahrhunderts ohne physische Gewalt auskommt, und erklärt, warum das so ist. Das heißt aber nicht, dass mit dem Datenkolonialismus keine Gewalt verbunden ist. Ganz im Gegenteil.
Der Datenkolonialismus offenbart andere Formen von Gewalt, als sie in der Vergangenheit angewendet wurden. Bekanntlich wurden die Bewohner der kolonisierten Länder zu Millionen vertrieben und ermordet. Anstelle der brutalen körperlichen Gewalt des historischen Kolonialismus ermöglicht der Datenkolonialismus neue symbolische Formen der Gewalt[1] wie Diskriminierung, Beschneidung von Lebensmöglichkeiten und die Einstufung von Menschen in ungünstige Kategorien durch die Algorithmen der KI. Diese Formen symbolischer Gewalt können ineinandergreifen und langfristig auch negative körperliche Folgen haben. Die Ablehnung einer Bewerbung für einen Job oder die Verweigerung von Sozialleistungen durch ein automatisiertes Entscheidungssystem sind zwar zunächst symbolische Akte, haben aber unter Umständen sehr konkrete Folgen für die Gesundheit und die Lebensqualität von Menschen.
Mit anderen Worten: Der Datenkolonialismus hat seine ganz eigenen Formen der Unterdrückung. Gewalt wurde im historischen Kolonialismus sehr direkt ausgeübt und über rassistisch geprägte Hierarchien vermittelt. Auch wenn im Datenkolonialismus die Gewalt neue, weniger brutale Mittel und Techniken nutzt, so betrifft sie wie eh und je bestimmte Bevölkerungsgruppen stärker und enthält nach wie vor rassistische, sexistische und klassenbezogene Elemente, die ein Erbe des historischen Kolonialismus darstellen. Gerade die am wenigsten widerstandsfähigen Bevölkerungsgruppen innerhalb dieser Kategorien sehen sich am ehesten den um sich greifenden Formen der Überwachung am Arbeits- und Ausbildungsplatz ausgesetzt, sind auf prekäre Formen der Gig-Ökonomie angewiesen oder werden aufgrund ihrer Identität oder ihres Status Opfer von algorithmisch begünstigter Hetze.
Diskriminierung durch Algorithmen ist nicht die einzige Form symbolischer Gewalt, die der Datenkolonialismus ausübt. Als soziale Ordnung greift der Datenkolonialismus alternative Formen des Denkens und des Seins an und untergräbt sie. Dies ist ein komplexer Punkt, der im Verlauf dieses Buches weiter analysiert werden soll. Eine unserer Kernthesen ist, dass die Kolonisierung des menschlichen Alltags durch Big Tech und digitale Plattformen leicht vergessen lässt, dass es vor dem Aufkommen extraktivistischer Plattformen andere Möglichkeiten des sozialen Lebens gab. Ebenso vergessen wir, warum wir uns genötigt sehen, Apps auf unseren Handys zu installieren, oder warum wir nicht hinterfragen, wer die Daten sammelt, die von unseren smarten Autos oder Geräten erzeugt werden. Schließlich machen das alle anderen doch auch! Niemand möchte sich ausgegrenzt fühlen. Niemand möchte von den Big-Tech-Anhängern als Schwarzseher oder Spielverderber bezeichnet werden. Aber wenn wir uns abgewöhnen, die vermeintlichen Vorteile dieser Produkte kritisch zu betrachten, laufen wir Gefahr, zu vergessen, warum es sinnvoll sein könnte, Widerstand gegen diese neue Ordnung zu leisten.
Was sind nun die spezifischen Schäden, die der Datenkolonialismus anrichtet?
Manche von uns verfügen über mehr Möglichkeiten zum Schutz ihrer Privatsphäre als andere. Vielleicht können wir uns ein Apple-Gerät leisten, das zwar teurer ist, aber weniger Daten sammelt als Geräte anderer Marken (oder zumindest diese Daten innerhalb des Apple-Konzerns behält, anstatt sie an Dritte zu verkaufen). Oder vielleicht wissen wir einfach, wie man Werbeblocker und ein VPN nutzt. Vielleicht sind wir aber auch einfach nur die Art von wohlhabenderen Konsumenten, für die das System eigentlich gedacht ist: Die zielgerichtete Werbung versorgt uns mit Schnäppchen, die Algorithmen treffen Entscheidungen, die unseren Wünschen entgegenkommen. Mit anderen Worten: Vielleicht gehören wir nicht zu Gig-Arbeitern, sondern zu jenen, die sie beschäftigen.
Solche Ungleichheit ist natürlich nichts Neues. Schon dem historischen Kolonialismus ging es nicht einfach darum, viel Geld zu machen, sondern auch jene zu bevorzugen, die ohnehin schon größeren Zugang zu den Ressourcen der Welt hatten. Dasselbe lässt sich auch im Datenkolonialismus beobachten. Schon existiert eine fest etablierte koloniale Datenelite, deren Zusammensetzung vom Erbe der historischen kolonialen Elite geprägt ist.
Aber auch wer das Gefühl hat, im Großen und Ganzen persönlich vom Deal mit Big Tech zu profitieren, sollte sich bewusst machen, dass Plattformen und Algorithmen nicht zu allen so freundlich sind. Doch wer sind eigentlich diese anderen, die nicht in gleichem Maße wie wir von der Teilnahme am Datenkolonialismus profitieren? Auf absehbare Zeit werden dazu genau jene Menschen gehören, die schon während des historischen Kolonialismus immer den höheren Preis gezahlt haben: die Armen, People of Color und Frauen. Der Kolonialismus mag sich weiterentwickeln, aber sein Erbe der Ungleichheit und seine Ungerechtigkeiten werden fortbestehen.
Diese Kontinuität ergibt noch mehr Sinn, wenn wir uns an ein anderes zentrales Element des Kolonialismus erinnern: die gesellschaftliche Klassifizierung. Dies ist ein generelles Phänomen von Gesellschaften, und wenn es auf neue Weise mittels automatisierter Entscheidungsprozesse in Erscheinung tritt, so betrifft dies alle. Da Daten zu nichts anderem als zur Unterscheidung von Dingen und Menschen dienen, sollte es nicht überraschen, dass Voreingenommenheit und Vorurteile reproduziert werden, wenn Daten gesammelt und in ein System eingespeist werden, das automatisierte Entscheidungen über das Wohlergehen bereits benachteiligter Gruppen treffen kann. Diese Art der systematischen Diskriminierung, die es einer Gruppe von Menschen ermöglicht, die anderen zu klassifizieren und zu kontrollieren, ist in der Tat eine Erfindung des Kolonialismus. Gemäß der Devise »teile und herrsche« haben die Kolonialherren jahrhundertelang Gesellschaften entlang der künstlichen Linien von Klasse, Geschlecht und »Rasse« aufgeteilt. Sie haben Reiche über Arme gestellt, Männer über Frauen und nicht geschlechtskonforme Personen, Weiße über die anderen – und zusätzlich noch alle gegen alle in Stellung gebracht, da Hierarchien Wettbewerb fördern. Diese hierarchische Struktur lief auf eine Figur an ihrer Spitze hinaus: den Kolonisator mit seiner überlegenen rationalen Autorität, selbstverständlich ein weißer Mann. Die Rassentrennung, die den Jim-Crow-Gesetzen in den USA zugrunde lag, die Apartheid in Südafrika oder die »colour bar«, die »Farbschranke« des britischen Empire (die in den Kolonien perfektioniert und dann im Zentrum des Kolonialreiches übernommen wurde), sind sämtlich Beispiele für Hierarchien, in denen reiche weiße Männer an der Spitze stehen.
Klasse, Geschlecht und Herkunft haben schon seit jeher an der Illusion mitgewirkt, dass Unterschiede zwischen Menschen von einer universellen westlichen Rationalität kategorisiert und verwaltet werden müssen. Und Daten sind seit langem ein wichtiger Bestandteil dieses Projekts, da sie die Mittel zur Quantifizierung und Verwaltung von Unterschieden liefern, seien es Volkszählungsdaten oder Überwachungsdaten.[2] So gesehen frischt der Datenkolonialismus die Mission des historischen Kolonialismus mit neuen Instrumenten wie algorithmischer Entscheidungsfindung und digitalem Plattformdesign auf, die noch raffinierter und schwerer zu erfassen sind als zuvor. Schließlich sind Daten von ihrem Wesen her diskriminatorisch. Man kann keine Datenbank über X, Y und Z anlegen, wenn man nicht zuvor entschieden hat, was als X und nicht als Y oder Z gelten soll.[3]
Algorithmische Diskriminierung auf der Grundlage von Datenextraktion wird häufig gegen Menschen eingesetzt, die bereits mit Armutsproblemen zu kämpfen haben. Dies kann man bereits in reichen Ländern beobachten, und es wird sich wahrscheinlich noch weiter ausbreiten, da Unternehmen und Regierungen Entscheidungsfindungen immer öfter Algorithmen überlassen. In ihrem 2018 erschienenen Buch Automating Inequality analysiert Virginia Eubanks Elemente des US-amerikanischen Wohlfahrtssystems wie Medicaid (die Gesundheitsfürsorge für Menschen mit geringem Einkommen), Hilfen für Obdachlose, Lebensmittelbeihilfen und Unterstützungsprogramme für armutsgefährdete Kinder. Viele dieser Systeme verwenden bei ihren Entscheidungen über die Bezugsberechtigung solcher Leistungen Algorithmen, deren Funktionsweise nicht nur intransparent ist, sondern teilweise sogar willkürlich erscheint. Eubanks beschreibt die dramatischen Folgen, die das für jene haben kann, denen die Beihilfen gestrichen werden. Für diese Menschen akkumulieren sich rasch die Probleme von sozialer und ethnischer Herkunft und Geschlecht, was ein bezeichnendes Schlaglicht auf die erniedrigende und maßlose Datenüberwachung wirft, die den Armen (und insbesondere armen Schwarzen Frauen) zugemutet wird.
Im Ergebnis sind es die Menschen auf den unteren Stufen der gesellschaftlichen Leiter, die einen befristeten Arbeitsvertrag haben und auf ihr billiges Smartphone angewiesen sind, um ihren nächsten prekären Job zu finden, die keinerlei Chance haben, sich gegen die Einschränkungen ihrer Privatsphäre, die die Apps auf ihrem Handy und ihr Arbeitgeber ihnen auferlegen, zur Wehr zu setzen. All dies kann selbst bei besten Absichten der Entwickler dieser Datensysteme geschehen, einfach aufgrund des bestehenden gesellschaftlichen Machtgefälles im Umfeld ihrer Nutzung und der enormen Informationsasymmetrie, die in diese Plattformen eingebaut ist.[4]
Die schädliche Gewalt extraktivistischer Plattformen macht sich auch unter dem Gender-Aspekt bemerkbar. Sie geht über den negativen Einfluss hinaus, den Social-Media-Algorithmen auf das Körpergefühl von Mädchen im Teenageralter haben können und gegen den Plattformen wie Facebook, obwohl sie sich dessen voll und ganz bewusst sind, offensichtlich nichts unternehmen, um ihre Gewinne nicht zu schmälern, wie Whistleblowerin Frances Haugen im Oktober 2021 vor dem US-Kongress darlegte.[5] Zu dieser Gewalt zählt auch die zunehmend dystopische Ausmaße annehmende Überwachung am Arbeitsplatz, der Frauen und Angehörige von Minderheiten ausgesetzt sind,[6] ganz abgesehen davon, dass diese Gruppen auch in der Online-Welt häufig Belästigung und Mobbing erleben, weil die Plattformen nicht einmal einfachste Schutzmaßnahmen ergreifen.
Nehmen wir als Beispiel die Pornoindustrie. Hier wird der Zusammenhang mit dem Datenkolonialismus vielleicht erst deutlich, wenn wir uns vor Augen führen, wie die Datafizierung es hochprofitablen Unternehmen (Pornhub verzeichnete 2020 rund 4,5 Milliarden Aufrufe pro Monat)[7] ermöglicht hat, der Monetarisierung von Inhalten Vorrang vor dem Wohlergehen von Frauen einzuräumen. Auf solchen Plattformen ist es üblich, dass missbräuchliche Inhalte (teils sogar mit Minderjährigen) anonym und ohne Zustimmung der Betroffenen gepostet werden können. Wirksame Rechtsmittel zur Entfernung solcher Inhalte gibt es nicht. Dort trifft man auch auf die verbrecherische Praxis sogenannter Deepfake-Pornos, die mittels KI die Gesichter von Frauen in pornographisches Material kopieren.
Digitale Gewalt gegen Frauen geht jedoch weit über die nicht einvernehmliche Verbreitung sexueller Inhalte hinaus. Grecia Macías berichtet aus Mexiko, wo im Schnitt jeden Tag zehn Frauen ermordet werden, von den zahlreichen Formen digitaler Gewalt, denen Frauen ausgesetzt sind. Unter anderem sind dies »unbefugter Zugriff auf ihre Geräte, digitale Drohungen, Verleumdungskampagnen, Erpressung, Einschüchterung, Identitätsdiebstahl, Manipulation von Informationen, Überwachung und Stalking«.[8] Daten aus aller Welt liefern zahlreiche Beispiele: Laut einer Studie haben 70 Prozent der Frauen aus Ghana, Kenia und Vietnam schon einmal Zensur, Beschimpfungen, Stalking, Erpressung und Gewalt erlebt, wenn sie soziale Medien zur Unterstützung oder zum Informationsaustausch im Gesundheitsbereich nutzten;[9] 73 Prozent aller Journalistinnen haben Online-Gewalt erfahren; jede zweite junge Frau im Vereinigten Königreich wurde schon mit der Zusendung sexueller Bilder belästigt;[10] und in den USA sind nicht-weiße Kandidatinnen für politische Ämter doppelt so häufig Ziel von Fehlinformationen oder Desinformation und viermal häufiger Opfer von Online-Attacken als weiße.[11] Es ist zwar richtig, dass die meisten dieser Gewalttaten von Einzeltätern begangen werden (wo allerdings Überwachung und Zensur im Spiel sind, kann man oft den Staat als Übeltäter ausmachen). Aber wie man am Beispiel der Zusendung unerwünschter sexueller Inhalte sieht, neigen Plattformen stark dazu, das Risiko, das ihre Technologien und Geschäftsmodelle für Frauen darstellen, herunterzuspielen oder schlicht zu ignorieren. Erst kürzlich haben zwei Frauen Apple verklagt, weil AirTags es Stalkern erleichtert haben sollen, sie zu belästigen.[12]
Nicht genderkonforme Menschen sind von all dem noch stärker betroffen. Zusätzlich zu den erwähnten Formen von Gewalt leiden sie unter der Grundidee datenextrahierender Unternehmen, Menschen in Kategorien einzuordnen. Die Informationswissenschaftlerin Anna Lauren Hoffmann spricht in diesem Zusammenhang von »Datengewalt«, der automatisch alle ausgesetzt sind, die sich nicht einfach in gängige Geschlechterkategorien einordnen lassen wollen.[13]
Aus all diesen Gründen ist es wichtig, die Entwicklung, Produktion und Evaluierung digitaler Technologien im Rahmen einer Datenwissenschaft zu vollziehen, die mit feministischen Werten und Praktiken im Einklang steht und dazu beitragen kann, Ungleichheiten aufzudecken und die bestehenden Machtverhältnisse zu verändern, wie Catherine D’Ignazio und Lauren F. Klein fordern.[14]
Wie gerade in letzter Zeit sehr deutlich geworden ist, spielen auch ethnische Zugehörigkeit und Hautfarbe eine große Rolle dabei, ob man von der Datenkolonialisierung profitiert oder nicht. Es gibt viele Beispiele für die Diskriminierung von People of Color durch Algorithmen – unter anderem bei Versicherungstarifen, gezielter Werbung, Gerichtsurteilen und Polizeikontrollen. Manchmal wirkt sich dies auch eher indirekt aus. So deckte ProPublica vor kurzem auf, wie ein Algorithmus Vermietern in den USA dabei hilft, möglichst hohe Mieteinahmen zu generieren. Zu erwarten ist, dass dies die bestehende Wohnungskrise verschärft – mit sehr ungleichen Folgen für Mieter unterschiedlicher ethnischer Herkunft.[15]
Ähnlich ein anderer Algorithmus, den Krankenhäuser und Versicherungsgesellschaften in den USA häufig zur Planung der medizinischen Versorgung von Patienten einsetzen. Eine 2019 in der Fachzeitschrift Science[16] veröffentlichte Studie kam zu dem Schluss, dass dieses Computerprogramm, mit dem die Versorgung von über 200 Millionen Menschen verwaltet wird, eine rassistische Verzerrung aufweist. Offenbar empfahl der Algorithmus trotz identischer Vorgeschichte häufiger bei weißen als bei Schwarzen Patienten zusätzliche Behandlungsmaßnahmen. Anders ausgedrückt: Schwarze mussten kränker sein, um die gleiche medizinische Versorgung zu erhalten wie Weiße.
Wie konnte das passieren? Der Algorithmus führte auf der Grundlage der Kosten, die die Krankenversicherung bisher für den Patienten aufgewendet hatte, eine Risikobewertung durch, die Grundlage für die weitere Behandlungsempfehlung war. Allerdings führt der institutionelle Rassismus in den USA unter anderem auch dazu, dass Schwarze dem Gesundheitssystem misstrauen und es daher seltener in Anspruch nehmen als Weiße – in diesem Fall mit der Folge, dass der Algorithmus ihnen einen niedrigeren Risikowert zuerkannte, selbst wenn sie in Wahrheit schwerer erkrankt waren als ihre weißen Mitbürger. Im Endergebnis wurden für Schwarze Personen seltener zusätzliche medizinische Maßnahmen empfohlen.
Haben hier rassistische Programmierer bewusst ein rassistisches System geschaffen? Das muss nicht sein. Auch ein Computerprogramm arbeitet nicht in einem Vakuum. Damit ein KI-System »lernen« kann, muss es mit vielen Beispielen aus der realen Welt trainiert werden. Und wenn diese Beispiele die Voreingenommenheit und Diskriminierung der realen Welt widerspiegeln, muss man sich über solche Ergebnisse nicht wundern. Prognosen reproduzieren dann schnell die den Trainingsbeispielen zugrunde liegende Diskriminierung. Hinter den Ergebnissen von datengesteuerten Systemen stecken daher nicht unbedingt Einstellungen oder Absichten Einzelner, sondern unter Umständen tiefer sitzende Strukturen der Gesellschaft wie Rassismus.
Es ist inzwischen nicht mehr zu übersehen, dass Datensysteme jeglicher Art Stereotype und institutionalisierte Diskriminierung verstärken. Die Datenwissenschaft hat selbst bewiesen, dass zu eng gefasste Ansätze zur Reform der KI-Ethik strukturelle Faktoren, die den Input der Entscheidungsalgorithmen betreffen, einfach übersehen. Jedenfalls sollten wir keinesfalls davon ausgehen, dass Algorithmen automatisch zu mehr Entscheidungsgerechtigkeit führen.[17] Zudem bedeutet die Tatsache, dass die Entwicklung und der Einsatz solcher sehr komplexen Systeme weitgehend in den Händen einer kleinen Anzahl privilegierter weißer Menschen liegt (auch ein langfristiges Erbe des Kolonialismus), dass Stimmen aus der übrigen Gesellschaft tendenziell nicht gehört werden – oder erst, wenn der Schaden bereits angerichtet ist.
Dass die meisten von uns gar nicht auf die Idee kommen, dass auch Klassen-, Geschlechts- und rassistische Diskriminierung in Datensysteme einfließen kann, zeigt, wie tief die ererbten kolonialen Sichtweisen auf die Welt in unserem Denken verankert sind. Im Verein mit dem unerschütterlichen Glauben an die Richtigkeit der Datenextraktion und die vermeintlich überlegene Rationalität von Big Data führt dies dazu, dass jeder zivilisatorischen Mission, die die Informatiker zur »Verbesserung« unseres Lebens vorschlagen, blindes Vertrauen entgegengebracht wird.
Dabei sind Daten an sich natürlich nichts Schlechtes – wie könnten sie das auch sein? Wir brauchen Daten und Informationen über Krankheiten, über die Sterne, über die Flora und Fauna, auch über die Schäden, die die Menschheit unserem Planeten zufügt. Die Frage ist jedoch, wie diese Daten gewonnen werden, und von wem und unter welchen Bedingungen.
Es hat keinen Sinn, generell Daten zu verteufeln. Eine ganz andere Sache ist eine Gesellschaftsordnung, die eine Abschöpfung von Daten aus dem Leben der Menschen unter Bedingungen zulässt, die nur einigen wenigen und nicht der Allgemeinheit zugutekommen: So etwas ist Datenkolonialismus.