© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022
L. Supik et al. (Hrsg.)Gender, Race and Inclusive Citizenshiphttps://doi.org/10.1007/978-3-658-36391-8_15

Prädiktive Citizenship. Cyberkolonialismus und Politik der Prognose im digitalen Zeitalter. Eine technodiskursive Analyse des Cambridge Analytica-Skandals

Pinar Tuzcu1  
(1)
Universität Kassel, Kassel, Deutschland
 
 
Pinar Tuzcu

Zusammenfassung

In this article, I explore how digitalisation is affecting our way of political participation as citizens and beyond in public events and public discourses. I propose the concept of cybercolonialism as algorithmic power accumulated in the Western cybersphere combining neocolonial and digital infrastructures. I argue that through predictive analytics, data companies are today changing the political climate of the Global South by using the digital data of internet users. Furthermore, by proposing a techno-discursive analysis, I look at new subjectivities, such as cybalternity, which are emerging through algorithmic othering practices and computer-based predictive analytics.

Schlüsselwörter
CybercolonialismCybalternityAlgorithmic otheringPolitics of Prediction in digital timesData Science
Pinar Tuzcu

(PhD) is a post-doctoral researcher and one of the main applicants and the project coordinator of the Volkswagen Foundation-funded project „RE:Coding Algorithmic Culture“ in the Department of Sociology of Diversity, University of Kassel. Her research and teaching interests include contemporary queer feminist theories, postmigration studies, algorithmic power, anti-colonial feminism, and critical research methodologies. She recently published „Decoding the Cybaltern: Cybercolonialism and Postcolonial Intellectuals in the Digital Age“ (2021) in the Journal of Postcolonial Studies.

 

1 Log in

In diesem Artikel untersuche ich, wie sich die Digitalisierung auf unsere Art der politischen Beteiligung als Bürger*innen auswirkt. Ich schlage vor, das Konzept des „Cyberkolonialismus“ als algorithmische Macht zu verstehen, die in der westlichen Cybersphäre akkumuliert wird und in der neokoloniale und digitale Infrastrukturen miteinander verschmelzen. Konkret untersuche ich, wie durch prädiktive Methoden das politische Klima des Globalen Südens verändert wird. Da dieser Artikel eine technodiskursive Analyse umfasst, möchte ich mit diesem Begriff besondere Aufmerksamkeit auf algorithmische Othering-Praktiken lenken, die durch computergestützte prädiktive Analysen gerechtfertigt sind.

Algorithmen sind zu einem der am meisten diskutierten Themen in den digitalen Geisteswissenschaften und der Informatik geworden. Trotz ihres relativ neuen Auftretens in den Disziplinen der Sozialwissenschaften und in der Informatik als mathematischem Verfahren haben sie eine lange Geschichte, die bis in die Jahre der arabisch-islamischen Renaissance zwischen 800 und 1200 zurückreicht. Der Mathematiker Al-Khwarizmi – der Begriff Algorithmus enthält den Bezug auf seinen Nachnamen – hat die mathematisch automatisierte Berechnung erfunden, die die Regeln und Verfahren für die Berechnungen festlegt, die als Algorithmen bekannt sind. Der Algorithmus bezieht sich im Allgemeinen auf eine Reihe von Regeln, die darauf abzielen, ein bestimmtes Problem automatisch zu lösen, indem schrittweise Verfahren befolgt werden. Al-Khwarizmi erfand Algorithmen jedoch nur theoretisch. Die praktische Anwendung und Nutzung von Algorithmen wurde von Lady Ada Lovelace im 19. Jahrhundert realisiert. Da sie die allererste war, die Algorithmen schrieb, die maschinell ausgeführt werden konnten, kann Ada Lovelace als erste Computerprogrammiererin der Geschichte gelten. Sie und ihr Kollege Charles Babbage nannten diese Maschine „Analytic Engine“. Zu diesem Zeitpunkt war sich Ada Lovelace bereits der Leistungsfähigkeit dieser „Engine“ bewusst und erkannte, wie sie sich auf die humanwissenschaftlichen Bereiche auswirken kann. Dazu sagte sie:

„We may consider the engine as the material and mechanical representative of analysis, and that our actual working powers in this department of human study will be enabled more effectually than heretofore to keep pace with our theoretical knowledge of its principles and laws, through the complete control which the engine gives us over the executive manipulation of algebraic and numerical symbols.“ (Lovelace 1843, S. 696)

Ada Lovelaces Erwartungen an die analytische Maschine waren in vielerlei Hinsicht zutreffend, da sie sich in Form eines Rechensystems als integraler Bestandteil der heutigen Welt erwies. Eine andere Mathematikerin betrachtet die Auswirkungen einer solchen Maschine weniger aufregend als Lady Ada Lovelace. In ihrem Buch „Weapons of Math Destruction: How Big Data increases inequality and threatens Democracy“ (2016) beschreibt Cathy O’Neil ihre Erfahrungen als Datenanalystin:

„Yet I saw trouble. The math-powered applications powering the data economy were based on choices made by fallible human beings. [...] Many of these models encoded human prejudice, misunderstanding, and bias into the software systems that increasingly managed our lives. Like gods, these mathematical models were opaque, their workings invisible to all but the highest priests in their domain: mathematicians and computer scientists. Their verdicts, even when wrong or harmful, were beyond dispute or appeal. And they tended to punish the poor and the oppressed in our society, while making the rich richer.“ (O’Neil 2016, S. 10)

Da es sich bei Algorithmen um mathematische Verfahren handelt, wirken sie unparteiisch. Trotz ihres neutralen Anscheins können sie jedoch menschliche Vorurteile beinhalten. Insofern sind Algorithmen nicht nur die Befehle der Codierer*in, mit denen ein Computer ein Problem bearbeitet, sondern sie bestimmen auch, wie Computer „denken“ sollen.

Algorithmische Codes sorgen also einerseits dafür, dass der Computer funktioniert, und bestimmen andererseits, wie Daten langfristig gesammelt, extrahiert und kategorisiert werden sollen. Ihre Aufgabe ist es, Computer schnell und effizient arbeiten zu lassen, daher beruhen ihre Berechnungen auf einer reduktionistischen Methode der Kategorisierung und Abstraktion. Wenn ein Computer das Verhalten und die Eigenschaften von Menschen kategorisieren und kodieren soll, indem er die Onlinedaten nutzt, die er über diese Nutzer*innen sammelt, wird die Frage der Repräsentation und Abstraktion komplex: Kategorisierungen müssen festgelegt und in den Computer eingegeben werden. So muss es eine Person geben, die dem Computer vorgibt, dass zum Beispiel Frauen von Männern, Schwarze von Weißen, alleinerziehende Mütter von Familienmüttern usw. unterschieden werden sollen. Auf diese Weise wird es Targeting-Algorithmen erlaubt, auf spezifische digital konstruierte Identitäten zu fokussieren. Die digitalen Parameter, die diese Gruppen repräsentieren, werden zu numerischen Ausdrücken kultureller, sexueller, „racial“ usw. universalisierender Codes, die wir in unserem täglichen Leben verwenden. Insoweit diese Kategorien also persönliche oder kollektive Überzeugungen und Präferenzen beinhalten, werden sie als grundlegende Parameter für die Berechnungen dieser Maschinen verwendet. Diese Überzeugungen und Präferenzen verkörpern soziale und ökonomische Vorurteile und (re-)produzieren diese als algorithmische Bias. Solche Ergebnisse können als „berechnete Fakten“ verbreitet werden und somit einen erheblichen Einfluss auf das gesellschaftlich geteilte Wissen über soziale Phänomene haben. Wenn die algorithmische Wissensproduktion auf kulturellen und sozialen Vorurteilen basiert, wird die algorithmische Codierung zu einem Mittel der Unterdrückung.

Batya Friedman und Helen Nissenbaum geben in einem Artikel von 1996 eine der frühesten Beschreibungen der Bias, die durch Computer reproduziert werden. Ihr Beitrag beleuchtet nicht nur, wie das Soziale immer schon in das Computing eingeschrieben ist, sondern erklärt auch, wie das Computing soziale Ungleichheiten vermitteln, regenerieren und verschlüsseln kann. Friedman und Nissenbaum schlagen drei verschiedene Arten von algorithmischen Bias beim Computing vor. „Preexisting Bias“ beziehen sich auf „die Vorurteile, die unabhängig und in der Regel vor der Erstellung des Rechensystems bestehen“ (Friedman und Nissenbaum 1996, S. 333). Es handelt sich also um die diskriminierenden Gedanken und Überzeugungen, die die Codierer*innen aus ihrer Alltagserfahrung in „das Design des (Computer-)Systems“ (Friedman und Nissenbaum 1996, S. 333) übertragen. Unabhängig davon, ob bereits vorhandene Vorurteile von ihren Designer*innen nach Fertigstellung des Entwurfs bewusst oder unbewusst in ein System eingegeben werden, kann dies, wie Friedman und Nissenbaum weiter erläutern, erhebliche Auswirkungen auf gesellschaftliches Wissen, politische und/oder kulturelle Strukturen haben, weshalb sie sich als „Emergent Bias“ gesellschaftlich manifestieren (vgl. Friedman und Nissenbaum 1996, S. 334).

Neben diesen Formen von algorithmischen „Bias“ schlagen die Autor*innen mit dem „Technical Bias“ eine dritte Art vor, die in den Diskussionen weitgehend übersehen wird. Nach Friedmann und Nissenbaum entsteht technische Verzerrung dort, wo sich die technischen Beschränkungen und Zwänge eines Computermechanismus und die priorisierten Werte kreuzen, die die Designer*innen in das System eingeben, um effizientere und schnellere Programme zu erstellen (vgl. Friedman und Nissenbaum 1996, S. 335). Obwohl der Begriff „Technical Bias“ wieder einmal Neutralität suggeriert, können technische Einschränkungen und Zwänge auch als Entschuldigung dafür dienen, warum bestimmte Parameter trotz ihres potenziellen Verzerrungseffektes gegenüber den anderen Parametern priorisiert wurden. Das bedeutet, dass „Technical Bias“ potenziell auch eine Rhetorik zur Legitimierung diskriminierender algorithmischer Berechnungen, Abstraktionen und Kategorisierungen erzeugen können, die darauf beruht, dass „Technik“  in dieser Formulierung neutral erscheint.

Darüber hinaus kann die Analyse der technischen Bias auch dazu beitragen, die „technodiskursive Performativität“ hinter den als in der öffentlichen Debatte oftmals übertrieben dargestellten Fähigkeiten des Computings aufzudecken und ihre Beschränkungen und Grenzen in den Blick zu rücken. Daher schlage ich vor, „Technical Bias“ in diesem Artikel in den Blick zu nehmen, um besser zu verstehen, wie solche und spezifische technische Einschränkungen und Begrenzungen rhetorisch eingesetzt werden, um Systemdesigner*innen und Programmierer*innen von ihrer Verantwortung für die Generierung von rechnerischen Tatsachen freizusprechen, die letztendlich und in der Folge soziale Ungleichheiten reproduzieren und vertiefen.

Wenn die sozialen Ungleichheiten, die durch technische Grenzen und Beschränkungen produziert werden, hinter algorithmischen Kodierungen und Kategorisierungen verborgen werden, stehen „Predictive Analytics“ für die übertriebene Macht des Computings als Feld, in dem solche Kalküle ihre diskursiven Rechtfertigungen gewinnen. In der Tat sind „Predictive Analytics“ zu den am meisten gefeierten Fähigkeiten künstlicher Intelligenz geworden. Sie beziehen sich auf statistische Berechnungen und Interpretationen großer Datenmengen (Big Data), um daraus Vorhersagen zu generieren. Wie ich weiter unten anhand des Falls der Firma „Cambridge Analytica“ zeige, können „Predictive Analytics“ manipulativ eingesetzt werden, wenn sie auf wissenschaftliche Methoden zurückgreifen, um künstliche Fakten zu erzeugen. Damit beinhalten sie das Potenzial, gesellschaftliches Wissen grundlegend zu beeinflussen und befördern die Entstehung sogenannter „alternativer Fakten“, die nicht zuletzt in den Debatten um das „Postfaktische“ eine Rolle spielen (vgl. Tuzcu 2021). Mit der Nutzung dieser Technologien wandelt sich auch das Potenzial des Internets als demokratischer Ort und Raum der Freiheit in einen Ort der Überwachung und Herrschaft.

2 Kodierung der Bürgerschaft: Von dem algorithmischen Bias zum Cyberkolonialismus

Anfang der 1990er-Jahre wurde das Internet als Plattform angesehen, die dazu beiträgt, eine demokratische Atmosphäre zu schaffen, da es die Vernetzung verschiedener Stimmen ermögliche und eine direkte Teilnahme an öffentlichen Diskursen vereinfache. Im Gegensatz zum nicht virtuellen Teil des öffentlichen Raums galt dies als fast emanzipatorische Gelegenheit für marginalisierte Gruppen. Jetzt konnten diese Gruppen „diasporische digitale Räume“ (Everett 2002, S. 223–237) erschaffen sowie ihre Meinung zu öffentlichen Themen und Ereignissen äußern, ohne weitere Vertreter*innen zu benötigen. Die mit dem Internet entstandene Form der Bürger*innenbeteiligung wurde daher nach der Abstimmung bei öffentlichen Wahlen als eine der demokratischsten Formen der Teilnahme angesehen.

Die Monopolisierung durch die Privatisierung im Informationssektor, die um das Jahr 2000 herum begann, und die Entstehung von Datenunternehmen, die überwiegend im Besitz einer kleinen (ultra)reichen Gruppe sind, machten diesen Raum jedoch zunehmend zu einem weiteren Feld der Unterdrückung. In ihrem Buch „Algorithms of Oppression“ verfolgt Safiya Umoja Noble (2018) beispielsweise die Auswirkungen der Monopolisierung im Bereich der digitalen Information auf das öffentliche Wissen. Ihre Analyse zeigt, dass bei der Eingabe bestimmter Begriffe, zum Beispiel „Schwarze Mädchen“, in den Google-Suchbrowser die sexistischen und rassistischen Diskurse und Bilder auf den ersten Rängen angezeigt werden. Trotz ihrer langjährigen Präsenz und Teilhabe an der digitalen Öffentlichkeit werden die Meinungen Schwarzer Frauen und Schwarzer Mädchen, die sich solchen rassistischen und sexistischen Diskursen und Bildern widersetzten, in den Suchergebnissen hintenangestellt. Darüber hinaus zeigt Noble, wie Ranking-Algorithmen soziales „Silencing“ erzwingen können, indem sie marginalisierte Perspektiven im Digitalen hierarchisch hinter hegemonialen Positionen einordnen. Noble zufolge wird „die Schlüsselrolle“, die digitale Mediengiganten wie Facebook und Google bei den Präsidentschaftswahlen 2016 in den USA gespielt haben, zum Sinnbild für einen derartigen Prozess, der ihrer Meinung nach eine ernsthafte „Bedrohung der Demokratie“ (vgl. Noble 2018, S. 3) darstellt.

Öffentliche Wahlen sind einer der wichtigsten Aspekte von Partizipation in einer Demokratie und stellen immer auch einen Test für die Zustimmung zu einer Regierung dar. Letztendlich repräsentieren sie, zumindest idealerweise und diskursiv, eines der wichtigsten Versprechen der Demokratie: Es sind die Menschen, die entscheiden, wer regieren darf und wer gehen soll. Das bedeutet auch, dass die Beteiligungsformen über soziale Medien Konzernen, die im Besitz von Millionen privater Daten über potenzielle Wähler*innen sind, eine große Macht verleiht, was in der Tat eine Gefahr für die Demokratie darstellen kann. Schließlich definiert die Macht über die digitalen Daten, die mit Dritten, wie kommerziellen Firmen oder sogar politischen Parteien, geteilt werden, die Grenzen der politischen Beteiligung an öffentlichen Debatten neu und bestimmt, was Citizenship als Artikulation politischer Partizipation heute bedeutet.

In „Citizenship and Identity in the Age of Surveillance“ geht Pramod Nayar (2015) davon aus, dass bereits das Wissen um die Möglichkeit, augenblicklich beobachtet zu werden, zum Beispiel durch die Kamera eines Computers, eine selbst kontrollierte oder selbst zensierte politische Partizipation erzeugt. In diesem Buch behauptet Nayar, dass wir zu „witness-citizens“ (Nayar 2015, S. 12) – zu Zeugenbürger*innen –gemacht werden. Sie beschreibt die Zeugenbürger*innen als politische Subjektivitäten, deren partizipatorisches Bewusstsein durch das geprägt ist, was sie durch ihre Überwachung des Staates bezeugen. Sie schreibt, dass die Bürger*innen nun die Möglichkeit haben, zum Beispiel den Machtmissbrauch des Staates, die Korruption der Regierung und internationale Komplizenschaften durch durchgesickerte Dokumente, „Hacking“ und/oder digitale Aufnahmen aufzudecken und zu beobachten. Aber gleichzeitig, so Nayar, sind wir überwachte Bürger*innen. Citizenship wird durch digitale Überwachung produziert, ebenso wie unser Selbstverständnis. Sie schlägt vor, dass wir uns selbst überwachen, weil wir uns bewusst sind, dass unser Verhalten oder unsere Körpersprache, die irgendwo von einer Kamera aufgezeichnet wird, Konsequenzen nach sich ziehen könnte – wie zum Beispiel, dass wir von Strafverfolgungsbehörden angesprochen werden –, falls die „Augen“, die die Kamera beobachten, ein bestimmtes Verhalten als bedrohlich, ungewöhnlich oder verdächtig empfinden.

Mit Blick auf die Überschneidungen dieser Unterdrückungspraktiken in Online- und Offlineräumen stellt Radhika Gajjala in ihrem Buch „Cyberculture and the Subaltern“ die anregende Frage, wie die Wahrnehmung einer solchen Unterdrückung eine „subaltern citizenship“ (Gajjala 2013, S. 3) hervorbringt. Gajjalas Verwendung des Begriffs der subalternen Citizenship sollte nicht nur als allgemeiner Verweis auf alle zum Schweigen gebrachten Stimmen in der Cyberkultur gesehen werden. Meine Lesart davon bezeichnet auch die neuen kolonialen Verbindungen, die durch Cybernetzwerke entstehen, und hebt die neue asymmetrische Teilung zwischen dem Globalen Süden und dem globalen Norden im digitalen Zeitalter hervor. Einige Wissenschaftler*innen haben bereits argumentiert, dass das Fehlen einer Datenpolitik, die die Bürger*innen des Globalen Südens vor der Invasion westlicher Datenunternehmen schützt, eine der grundlegenden Kräfte hinter diesen neuen kolonialen Spannungen ist (vgl. Coleman 2019; Couldry und Mejias 2019; Tuzcu 2020). Roopika Risam argumentiert in ihrem Buch „Postcolonial Digital Humanities“, dass solche Spannungen der kolonialen epistemischen Gewalt ähneln (Risam 2019, S. 330). Die Art und Weise, wie digitale Kulturaufzeichnungen der Bewohner*innen des Globalen Südens von den westlichen Daten-Unternehmen archiviert und verwaltet werden, schädigt aus ihrer Sicht die „Gegengeschichte“ dieser Communitys. Ein solcher Schaden signalisiert eine neue Art von epistemischer Gewalt, da diese neuen kolonialen Dynamiken die Menschen im Globalen Süden als „Digital Others“ reproduzieren. Das heißt, nicht nur die Art und Weise, wie digitale Daten gesammelt werden, sondern auch wie die digitalen Daten interpretiert (d. h. nach wessen Gesichtspunkten), produziert und verbreitet werden, machen bestimmte Geografien, Gruppen und Individuen offener für technologiegestützte politische Intervention und Manipulation.

Ich definiere Cyberkolonialismus vor diesem Hintergrund als algorithmische Macht, die in der westlichen Cybersphäre akkumuliert wird und die neokoloniale und digitale Infrastrukturen zusammenbringt, um das politische Klima des Globalen Südens zu verändern, indem sie seine sozialen Verwundbarkeiten, ökonomischen Vulnerabilität und ausbeutbaren Stärken vorhersagt (vgl. Tuzcu 2020). Da diese Definition eine technodiskursive Analyse umfasst, möchte ich mit diesem Begriff besondere Aufmerksamkeit auf algorithmische Othering-Praktiken lenken, die durch computergestützte prädiktive Analysen gerechtfertigt werden.

3 Koloniale Verbindungen der prädiktiven Analyse oder: Data Scientists, die sich wie Wetteransager*innen verhalten

Es ist wichtig, die Verbindung zwischen prädiktiver Analyse und Kolonialismus herauszustellen, um zu verstehen, wie Cyberkolonialismus heute funktioniert. Da die prädiktive Analyse eine zentrale Rolle in der Gouvernementalität spielte, wurde ihr vermeintlich wissenschaftlicher Anspruch auch zum epistemischen Motor des Kolonialismus im 19. Jahrhundert. In ihrem Artikel „The Dual Role of Climatology in German Colonialism“ erläutern Hans von Storch und Carsten Gräbel die Verbindung zwischen prädiktiver Analytik und Kolonialismus, indem sie analysieren, wie Daten aus Wettervorhersagen in diesem Zeitraum verwendet wurden, um die demografischen Merkmale kolonisierter Geografien zu schätzen. Bereits vor der Kolonisierung segelten die Schiffe der Kolonisator*innen zu diesen Orten. Von Storch und Gräbel schreiben über Wetterstationen: „In Germany, the imperial authority ‚Deutsche Seewarte‘ in Hamburg played a significant role in collecting overseas weather data.“ (von Storch und Gräbel 2018, S. 4) Die Reichweite der Klimatologie würde von Storch und Gräbel zufolge weit über dieses Feld hinausgehen und sei sehr relevant für die infrastrukturelle Umsetzung der Kolonialisierung gewesen: „A major application of climatology was planning for colonial acquisitions, and for shipping routes for connecting colonies with homelands.“ (von Storch und Gräbel 2018, S. 2) Die Vorhersagemethode in Übersee anhand von Klimadaten wurde später von den europäischen Kolonialbehörden als eine Errungenschaft für die Entwicklung „erfolgreicher“ Kolonialansiedlungsstrategien gefeiert. Die gesammelten Daten über das Klima durch die Wetterstationen über den Meeren dienten den europäischen Kolonisator*innen nicht nur dazu, über die Lebensbedingungen und Herausforderungen der Kolonialräume zu spekulieren, sondern auch die körperlichen Anlagen, sozialen Strukturen und Charaktereigenschaften der Bewohner*innen zukünftiger kolonisierter Orte vermeintlich vorherzusagen (vgl. von Storch und Gräbel 2018).

In der Tat untersuchten Arthur Thomson und L. H. Dudley Buxton in ihrem Artikel „Man’s Nasal Index in Relation to Certain Climatic Conditions“ (1923) die behauptete Korrelation zwischen den körperlichen Merkmalen der verschiedenen „Rassengruppen“ und den Wetterbedingungen ihrer Umgebung. In diesem Artikel wird die Art und Weise der Konstruktion eines rassistischen Wissens deutlich, in dem Vorhersagen im kolonialen Kontext wie epistemische Glücksspiele umgesetzt wurden:

„The combined correlation between nasal index on the one hand and temperature-and-humidity on the other, will probably also point the way to an actual fact. We do not use the word ‘probably’ in the loose sense of a qualifying adverb expressing a vagueness of mind and a desire to shirk real issues, but in the sense that we speak of the ‘law of probabilities,’ meaning that in betting parlance ‘the odds are in favor of’.“ (Thomson und Buxton 1923, S. 103)

Nach von Storch und Gräbel bildeten solche Vorhersagen oder „Law of Probabilities“, von denen Thompson und Buxton im obigen Zitat sprechen, eine Grundlage für koloniale Aktivitäten, da davon ausgehend angenommen wurde, dass die lokale Bevölkerung aufgrund der klimabedingten natürlichen Barrieren entwicklungsunfähig sei: „Such theories formed a basis for colonial activity, since the local population would be unable to develop efficient governance, economy and finer culture because of the natural barrier of adverse regional climates.“ (von Storch und Gräbel 2018, S. 5) Daher wurden die über Wetterstationen gesammelten Daten zur Vorhersage und Schätzung von Schwankungen, Schwachstellen und ausnutzbaren Stärken gezielter Regionen des Kolonialismus verwendet.

In ihrem Buch „Migrant Futures“ beleuchtet Aimee Bahng (2018) auf brillante Weise die Verbindung zwischen einer solchen Politik der Vorhersage, die in den historischen Kolonialismus eingebettet ist, und dem spekulativen kapitalistischen Finanzmarkt im digitalen Zeitalter. Sie untersucht, wie „Predictive Analytics“ seit jeher eines der stärksten Werkzeuge für die Entwicklung kolonialer Erzählungen zur Eroberung von Orten ist, indem imaginäre Karten und fabelhafte Fakten erstellt werden. Das Gewinnstreben im Bereich der Finanzspekulation führt zur Nutzung digitaler Daten, die in Wahrscheinlichkeitsberechnungen eingehen, um das zukünftige Verhalten von Subjekten, die als les- und berechenbar verstanden werden, vorherzusagen, zu ändern und zu manipulieren. Solche Berechnungen, schreibt sie, verwandeln die menschliche Stimmung in Daten [Punkte] mit dem Ziel der Vorhersage durch Data-Mining und algorithmische Extraktion und Abstraktion. Im digitalen Zeitalter bilden diese spekulativen Aussichten eine der Grundregeln der Prädiktiven Analytik, die, in Bahngs Worten, am Ende eine statistische Erzählung ist, geschrieben von Datenwissenschaftler*innen, die erfolgreich Daten in Fiktion umwandeln (vgl. Bahng 2018, S. 4, 12).

Ich schlage dabei vor, Bahngs Argumente von der Sphäre der Finanzmärkte auf den Bereich des Umgangs mit Big Data zu übertragen bzw. zu erweitern, die von hier ausgehend ebenso durch eine Politik der Vorhersage aus Big-Data-Daten-Fiktionen generieren.

Wie ich bereits in einem anderen Artikel dargelegt habe, kann festgestellt werden, dass durch „Predictive Analytics“ genau gezeigt wird, welche Gruppen für Manipulationen im digitalen Raum anfällig sind (vgl. Tuzcu 2020). Die zuvor bereits skizzierte koloniale Denkweise hinter den Vorhersagen analysiert Brian Godsey in seinem Buch „Think Like a Data Scientist“ (2017): „If today’s ecosystem of data is like a largely unexplored continent, then the data scientist is its explorer. Much like early European explorers of the Americas or Pacific islands.“ (Godsey 2017, S. 42)

Wie in Godseys Zitat gezeigt wird, rufen die Rhetorik der heutigen Datenwissenschaftler*innen und ihre Erwartungen an digitale Daten die Vision des europäischen Kolonialismus hervor. Seine Aussage beschreibt ausdrücklich, wie heutige Datenwissenschaftler*innen „Predictive Analytics“ als Vehikel für eine abenteuerliche Handlung, eine algorithmische Erkundung des Onlinedschungels und eine virtuelle Erweiterung der neuen Welt verwenden.

Der öffentliche Skandal um das britische Datenunternehmen „Cambridge Analytica“ zeigt die in diesem Absatz beschriebenen Arten von politischer Manipulation sehr deutlich. Im Jahr 2018 wurde das Unternehmen beschuldigt, private Informationen von Millionen von Facebook-Nutzer*innen ohne deren Zustimmung gesammelt zu haben. Dem Unternehmen wurde vorgeworfen, an zahlreichen „demokratischen“ Wahlen in 68 verschiedenen Ländern beteiligt gewesen zu sein, wobei eine Mehrheit dieser Länder dem Globalen Süden zugeordnet werden kann (vgl. Cadwalladr 2020). In einem Video auf YouTube erklärt Alexander Nix, ehemaliger CEO des Unternehmens, potenziellen Kunden die Strategien, die dieses im Wahlkampf 2010 in Trinidad und Tobago angewendet hat (vgl. Nix 2016). Durch die Analyse dieses Videos möchte ich im folgenden Abschnitt die technodiskursive Kraft des Cyberkolonialismus aufzeigen.

Datenfiktionalisierung, so zeigt das Beispiel von „Cambridge Analytica“, ist keineswegs ein harmloses virtuelles Spiel, sondern kann, wenn es um Interventionen im Rahmen öffentlicher Wahlen geht, das öffentliche Wissen beeinflussen. Auf diese Weise können Definitionen von Citizenship und politischer Partizipation global, aber insbesondere im Globalen Süden, durch kolonialistische Verbindungen beeinflusst werden.

4 Die Erosion öffentlicher Wahlen: Cambridge Analytica und Citizenship im digitalen Zeitalter1

Datenwirtschaft basiert darauf, dass Unternehmen ihre Vorhersageleistung auf der Grundlage von Big Data verbessern können, die durch Softwareanwendungen gesammelt werden. Mehr Daten bedeuten jedoch nicht, dass die Vorhersagen besser und kohärenter sind, sondern sie können auch zu verzerrten Entscheidungen führen (vgl. O’Neil 2016, S. 10). Ruha Benjamin beschreibt in Bezug auf die Voreingenommenheit, dass Computer diese „Rohdaten“ (z. B. Big Data) verwenden, „to learn and make decisions about the world that reflect deeply ingrained cultural prejudices and structural hierarchies,“ da „machine learning relies on large naturally occurring data sets that are rife with racial biases“ (Benjamin 2019, S. 59). In ähnlicher Weise erklärt Sofiya Umoja Noble, dass „those digital decisions reinforce oppressive social relationships and enact new modes of racial profiling“ (Noble 2018, S. 1) und technologisches Redlining.

Das Kodierungssystem, das in einem geleakten Dokument über „Cambridge Analytica“ enthüllt wurde, wirft ein Licht darauf, wie prädiktive Analytik verwendet wurde, um eine manipulative Strategie zu erzeugen und die Kontrolle des Unternehmens über politische Wahlen im Globalen Süden zu rechtfertigen. Diese Unterlagen zeigen, dass das Unternehmen beim Aussortieren und Kategorisieren von digitalen Daten ein algorithmisches Kodierungssystem verwendete, das nach einer psychologischen Persönlichkeitstheorie namens OCEAN angepasst wurde.2 Als das universelle Standardmodell in der Persönlichkeitsforschung steht OCEAN – auch bekannt als die Big Five – für „openness, conscientiousness, extraversion, agreeableness, neuroticism“. Das bedeutet, dass das Unternehmen die Verhaltensweisen von Millionen von Menschen analysierte, indem es diese fünf allgemeinen Dimensionen der Persönlichkeit als analytische Referenz verwendete. Wie aus dem Dokument weiter hervorgeht, bestand der Zweck der Entwicklung von OCEAN nicht nur darin, die einzigartigen Persönlichkeiten der potenziellen Wähler*innen zu analysieren, sondern auch ihr Verhalten vorherzusagen und sie schließlich, beispielsweise über Anzeigen, zu beeinflussen. Das Ziel war es also, ihre zukünftigen Entscheidungen zum Nutzen der Kund*innen des Unternehmens (in diesem Fall sind sie politische Parteien) zu gestalten.

In einem anderen Video, das auf YouTube veröffentlicht wurde, erklärt der ehemalige CEO und Datenwissenschaftler des Unternehmens, Alexander Nix, seinen zukünftigen Kund*innen, wie solche prädiktiven Strategien und ihr spezifisches algorithmisches Codierungssystem „ihnen“ im Wahlkampf 2010 in Trinidad und Tobago einen Sieg beschert haben, und offenbart damit das Selbstverständnis von „Cambridge Analytica“ als verhaltensveränderndes Unternehmen.

Nix sagt:

„There are two main political parties, one for the Blacks and one for the Indians. And you know, they screw each other. So, we were working for the Indians. We went to the client and we said, ‘We want to target the youth and we will try to increase [their] apathy.’ The campaign had to be non-political, because the kids don’t care about politics. It had to be reactive, because they’re lazy. So, we came up with this campaign, which was all about: Be part of the gang. Do something cool. Be part of a movement. And it was called the ‘Do So!’ campaign. It means ‘I’m not going to vote’, ‘Do so! Don’t vote.’ It’s a resistance, not against the government, but against politics and voting. And even now, they’re [the youth] still making their own YouTube videos. […] We knew that when it came to vote, all the Afro-Caribbean kids wouldn’t vote, because they ‘Do So!’ But all the Indian kids would do what their parents told them to do, which is ‘go out and vote’. They [the Indo-Trinidadian youth] had a lot of fun doing this, but they’re not gonna go against their parents’ will.“ (Nix 2018, minute 2’33”–2’40”)

Wie Nix in diesem Teil seiner Rede sarkastisch erklärt, gibt es in Trinidad und Tobago zwei Parteien. Eine ist die indische Partei des „United National Congress“ (UNC), die hauptsächlich sich als indisch verstehende Einwohner*innen Trinidad und Tobagos anzieht. Die andere ist die Partei der Nationalen Volksbewegung (PNM), die hauptsächlich von den sich als afrokaribisch verstehenden Einwohner*innen von Trinidad und Tobago unterstützt wird. Nix erklärt, wie „Cambridge Analytica“ durch die Nutzung von Social Media und anderen Onlineplattformen die Bewegung „Do So! Don’t Vote“ unterstützt und/oder initiiert hat, die die Jugend dazu aufruft, ihre Stimme nicht abzugeben, um gegen beide Parteien zu protestieren. Wie Nix erklärt, bestand die strategische Absicht dieser Strategie darin, die Jugend unter dem Motto „Join the Gang“ zu vereinen und davon abzubringen, an der Wahl teilzunehmen.

Nix’ Darstellung dieser Wahl enthält eine Reihe von irritierenden Momenten: Zunächst bezeichnet er die Jugend des Landes als faul und apathisch gegenüber politischen Prozessen. Gleichzeitig verweist er darauf, dass sie mit Begeisterung für die von Cambridge Analytica“ unterstützte politische Kampagne arbeiten, um auf organisierte Weise gegen politische Parteien zu protestieren. Aber dann zeigt seine Erzählung, dass sich die Kampagne weniger auf die behauptete Faulheit oder Nachlässigkeit der Jugend gegenüber der Politik richtet, sondern dass es darum ging, wie man die Auswirkungen ihrer politischen Motivation bei den Wahlen zunichtemacht. Die hier beschriebene Taktik erzeugte eine Illusion der Partizipation und verwandelte die Schwarze Jugend in imaginäre Bürger*innen, die es zu beeinflussen gilt. Auch wenn sich die Kampagne an alle Jugendlichen richtete, war das eigentliche Ziel hier die afrokaribische Jugend des Landes, wie Nix in seiner obigen Aussage gesteht. Es ging darum, sie von der Wahl abzuhalten, um zu verhindern, dass sie für die PNM stimmen würden. Die gesamte Bewegung „Do So! Don’t Vote“ wurde demnach von der Firma entworfen oder vielmehr „instrumentalisiert“, um die Jugend der afro-karibischen Community von der Abstimmung abzuhalten.

Diese widersprüchlichen Aussagen sind jedoch performativ in der Sprache der Expertise verborgen und daher in Nix’ Satz „we knew that“ gerechtfertigt, da diese kurze Aussage den ausschließlichen Zugang des Unternehmens zu Wissen durch KI unterstützende prädiktive Analysen verkürzt. Aber wie konnten sie es wissen? Oder vielleicht kann man an dieser Stelle auch fragen, wer sind diese „we“? Woher wussten „sie“, dass die Schwarze Jugend des Landes der Wahlkampagne treu bleiben und nicht wählen würde, während die indo-karibische Jugend trotz ihrer aktiven Teilnahme an dieser Bewegung „ausgehen und wählen“ würde? Welche Art von Datenanalyse oder eine algorithmische Berechnung würde eine solche Vorhersage ermöglichen? In anderen Worten: Welche Art von algorithmischem Codierungssystem wurde verwendet, das die Jugend von Trinidad und Tobago trotz ihres politischen Engagements im Rahmen der Bewegung gegen die Wahlen in erster Linie als „fügsam“, „faul“ und „apathisch“ kategorisierte. Nix spricht hier vom „Gesetz der Wahrscheinlichkeiten“ und erinnert damit an die oben diskutierten Wettervorhersagen im Kolonialismus im 19. Jahrhunderts. Insofern scheint auch das Engagement von „Cambridge Analytica“ hier eher eine Art epistemisches Glücksspiel als wissenschaftlicher Analyse zu sein.

Was die Phrase „wir wussten das“ in Nix’ Rede performativ ankündigen will, ist eine neue Art des Wissens, die nur durch künstliche Intelligenz, die in „Predictive Analytics“ und algorithmischer Codierung eingesetzt wird, produziert wird und werden kann. Da ihr methodischer Ansatz undurchsichtig bleibt, ist es unmöglich, die Schritte nachzuvollziehen, die im Prozess der Produktion dieses Wissens unternommen werden. Diese Intransparenz führt zur Reproduktion herrschaftlicher Diskurselemente, welche hier nahtlos an die Diskurse des Kolonialismus anknüpfen und diese unhinterfragt reproduzieren. So wurde, wie Robert Moore durch seine Arbeit mit Archivdokumenten der britischen Kolonien in der Karibik gezeigt hat, das Hauptmerkmal des Stereotyps der Schwarzen, das unter den regierenden Weißen vorherrschte, als Faulheit bestimmt, während das Hauptmerkmal im Stereotyp der Inder*innen als Gelehrigkeit registriert wurde (vgl. Moore 1999, S. 129, 142). Laut Moore erzeugten diese Stereotypen auch Spannungen zwischen diesen beiden Gruppen. Fügsamkeit wurde als eine Eigenschaft dargestellt, die die Inder*innen für die kolonialen Verwalter und Plantagenbesitzer vorteilhafter erschienen ließ.

Die frappierende Ähnlichkeit zwischen dem Diskurs, der sich in den kolonialen Kulturaufzeichnungen findet, und Nix’ Darstellungen dieser beiden Gruppen lässt einen bei dem Gedanken innehalten, ob die Vorliebe der britischen Daten-Unternehmen für die Zusammenarbeit mit der indo-karibischen Partei in Trinidad und Tobago eine stumpfe Fortsetzung dieser kolonialen Denkweise bedeutet. Nix’ Darstellung der Jugend des Landes überschneidet sich fast identisch mit dem kolonialen Jargon und Narrativ, das in diesen Archiven festgehalten ist. Darüber hinaus könnte in dieser Hinsicht die Polarisierung der Jugend in Trinidad und Tobago durch ihre kulturellen, religiösen und ethnischen Unterschiede als symptomatisch dafür angesehen werden. Denn trotz des Gefühls der Zusammenarbeit, Solidarität und Einheit, das die Jugendlichen während der Kampagne demonstrierten, erzeugt die schädliche Strategie von Nix, getarnt in einer spezialisierten Sprache, ein feindseliges politisches Klima, das die Trennung zwischen diesen beiden Gruppen des Landes wieder aufleben lässt. Das heißt, obwohl die Jugend geeint und in Solidarität mit der „Do-So“-Kampagne mobilisiert wurde, wurden die digitalen datengesteuerten Analysen genutzt, um ein Narrativ zu schaffen, das eine Gruppe (d. h. die indo-karibische Jugend) als „zu fügsam, um nicht zu wählen“ und eine andere Gruppe (d. h. die afro-karibische Jugend) als „zu faul zum Wählen“ polarisiert. Das Wissen, das in Nix’ Satz „Wir wussten es“ impliziert ist, wurde nicht durch rechnerische Datenanalyse erzeugt. Es klingt eher wie ein allzu vertrautes, aus der Kolonialzeit geerbtes Wissen. Die methodische Nicht-Nachvollziehbarkeit seiner Behauptung weist auf eine techno-diskursive Falle hin, die die alte koloniale Strategie des „Teile und herrsche“ heraufbeschwört.

Das polarisierende algorithmische System des Unternehmens für die Jugend von Trinidad und Tobago bei den Wahlen 2010 erscheint vor diesem Hintergrund als „Algorithmic Othering“ in kolonialer Kontinuität. Alexander Nix selbst erklärt, dass Kategorisierungen im Hinblick auf den Globalen Süden manipulativ angewendet werden, obwohl im Widerspruch dazu behauptet wird, dass gemeinsame soziale und wirtschaftliche Attribute beim Erhalt bestimmter Informationen keine Rolle spielen sollten.3 Vor diesem Hintergrund stellt sich die Frage, wie das Unternehmen das Verhalten der Wähler*innen konkret verändert hat. Ist es durch beispielsweise politische Werbeanzeigen, Internet-Memes oder gefälschte Nachrichten möglich, die jungen Wähler*innen absichtlich und orientiert am jeweiligen Persönlichkeitsprofil zu manipulieren und dabei auf algorithmische Sortierungen zurückzugreifen? Ist es in diesem Falle zum Beispiel auch möglich, dass die Eltern der indo-karibischen Jugend ihre Kinder unter Druck gesetzt haben, sich an der Wahl zu beteiligen, weil sie den entsprechenden Facebook-Posts, Kommentaren, Trolling- und Softwareanwendungen ausgesetzt waren? Laut Safiya Umoja Noble besteht durchaus die Möglichkeit einer Beeinflussung, die über einzelne Gruppen hinausgeht. Datenunternehmen wie Google und Facebook sammeln – ihrer Analyse folgend – nicht nur Datenpunkte über Einzelpersonen, Gruppen und Communitys, sondern setzen diese gezielt ein, um ihr Verhalten zu beeinflussen (vgl. Noble 2018).

5 Einige Einladungslinks für weitere Diskussionen

Meine Analyse von „Cambridge Analytica“ verweist auf Subjektivitäten, die trotz und aufgrund ihres Zugangs zu digitalen Medien von der digitalen Öffentlichkeit ausgeschlossen sind. Vor diesem Hintergrund kann argumentiert werden, dass Citizenship im digitalen Zeitalter nicht nur durch Überwachung, sondern auch durch Softwareprogramme geprägt ist. Die Unterdrückung oder Privilegierung von Stimmen entsteht nicht nur aufgrund von Zensur und Selbstzensur, wie Pramod Nayar (2011, 2015) argumentiert, sondern auch aufgrund von algorithmischen Zielstrategien, die die öffentliche Meinung manipulieren. Unsere politischen Meinungen und Präferenzen werden hier wie Einkaufsgewohnheiten behandelt und nicht zum Beispiel als kollektive Ideen zur Gestaltung des menschlichen Zusammenlebens gesehen, die innerhalb demokratischer Prozesse ausgehandelt werden. Vielmehr stellen sie Produkte dar, die an die Wähler*innen verkauft werden sollen, und Bürger*innen im Umkehrschluss als Kund*innen der Demokratie. Die Abschaffung demografischer Merkmale wie Geschlecht, „Race“ und Klasse ist dabei symptomatisch für die Kommerzialisierung politischer Partizipation. Der Fokus auf individuelle Besonderheiten führt nicht zuletzt dazu, dass die sozialen und politischen Gemeinsamkeiten von Bürger*innen auf ihre individuellen Konsumgewohnheiten reduziert werden.

Um zukünftige Diskussionen zum Feld anzuregen, schlage ich eine Reihe von Konzepten vor, die dazu dienen, diese Beziehungen zu analysieren. Sie ergeben sich aus den Überlegungen zum Cyberkolonialismus, wie ich sie hier und an anderer Stelle dargelegt habe (vgl. Tuzcu 2020, 2021). Meine Definition von Cyberkolonialismus lädt ein, die Paradigmen hinter der algorithmischen Codierung zu betrachten, und zu überdenken, wie diese algorithmische Logik die heutige Subalternität und politische Partizipation neu definiert. Um die damit verbundenen Subjektivitäten ins Zentrum zu rücken, möchte ich Gayatri Spivaks Frage „what sort of coding has produced this subject“ (Spivak 1993, S. 21) in Bezug auf die Frage des algorithmisch gestützten/produzierten „Othering“, also des algorithmischen „Othering“, stellen und durch die Anwendung auf das nicht intendierte Feld umdichten.

Im Zusammenhang mit Datenbeziehungen schlage ich darauf basierend vor, dass die Subalternen nach wie vor als unmessbar (undatafizierbar) verstanden werden. Diese Menschen haben weder Zugang zu den digitalen Werkzeugen noch zu dem Wissen, wie sie verwendet werden.4 Die zuvor beschriebenen neuen Dynamiken erfordern aus meiner Sicht eine konzeptionelle Unterscheidung zwischen jenen, deren Stimmen aufgrund ihres fehlenden Zugangs zur Technologie praktisch nicht „datafiziert“ werden können, und Menschen, die zwar materiell und praktisch Zugang zur digitalen Sphäre haben, deren Stimmen aber diskursiv zum Schweigen gebracht werden, wie es das Beispiel der Manipulation von Wahlen durch Cambridge Analytica“ zeigt. Sie erscheinen als Benutzer*innen auf den Benutzeroberflächen ihrer Geräte, werden als Bürger*innen aber aktiv aus dem politischen System ausgeschlossen. Um den Unterschied zu markieren, schlage ich den Begriff „cybaltern“ für diese Gruppe vor. „Cybaltern“ als Neologismus ist die Kombination der Begriffe Cyber und subaltern. Während subaltern sich also auf diejenigen bezieht, die technisch nicht datenfähig sind, bezeichnet „cybaltern“ die unterdrückten Subjektivitäten des Cyberkolonialismus und verweist auf eine imaginäre Form von Citizenship, da die User*innen zwar glauben, dass ihre Stimmen zählen, aber sie gleichzeitig exkludiert sind und letztlich ungehört bleiben. Das Paradox besteht darin, dass dies trotz und aufgrund der ihnen zur Verfügung stehenden digitalen Werkzeuge geschieht.5

In Anlehnung an Stuart Halls Theorie des „Encoding, Decoding“ verwende ich den Ausdruck de:kodieren (oder de:coding) als dekoloniale Codierung, um eine diskursive Komponente einer dekolonialen, feministischen Anwendung zu erzeugen.6 Ziel der Entwicklung einer solchen diskursiven Anwendung ist es einerseits, die in die Computersprache eingebettete koloniale Rhetorik aufzudecken. Auf der anderen Seite sucht „de:coding“ als „Gegencodierungsmethode“ nach „Vocable Codes“, die durch die nicht binäre Computerprogrammierung erstellt werden, und bei dem es nicht nur darum geht, Computersyntaxen und -funktionen einzubauen, sondern auch eine Codestruktur zu entwerfen, in der Code gesprochen (ausgeführt) werden kann (vgl. Soon 2018). Denn wie „Cambridge Analytica“ und die neue Zahl von Datenwissenschaftler*innen in unserem Leben zeigen, brauchen wir nicht nur ein neues Codierungssystem, das die Binärcodierung übertrifft, sondern auch eine neue Denkweise über Daten. Der Ausgangspunkt dafür ist eine Feststellung, die in der Datenwissenschaft meist unerkannt bleibt: Die Macht ist in der Welt, auch im digitalen Zeitalter, nicht gleich verteilt (vgl. D’Ignazio und Klein 2020, S. 8).