© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022
L. Supik et al. (Hrsg.)Gender, Race and Inclusive Citizenshiphttps://doi.org/10.1007/978-3-658-36391-8_16

Neue Technik – alter Rassismus. Eine diskursanalytische Betrachtung der Kritik an Predictive Policing

Douglas Ian Becker1  
(1)
Carl von Ossietzky Universität Oldenburg, Oldenburg, Deutschland
 
 
Douglas Ian Becker

Zusammenfassung

Data-processing predictive technologies are increasingly used by police agencies around the world. They are said to fight crime more effectively. However, various aspects of predictive policing have come under criticism, and these questions will be investigated in the paper by utilising a sociology of knowledge approach to discourse. This contribution compares structural patterns of critique found in academic publications to those raised by civil society actors and social movements such as ProPublica, Amnesty International, and Black Lives Matter. The critique levelled against predictive policing primarily pertains to racial discrimination and intransparency. Based on these findings, the paper further considers these arguments to be embedded within a more general criticism of the police. In both scientific and extra-scientific discourses, the invisibilisation of discriminatory structures emerges as a dominant point of contention.

Schlüsselwörter
Predictive policingCrime forecastingRacismSociology of knowledgeDiscourse analysisDigitalisationDiscriminationAlgorithmic biasRacial biasSocial inequality
Douglas Ian Becker

received a B.A. in social sciences from Carl von Ossietzky University Oldenburg, where he is currently completing his master’s degree. As a student assistant, he is involved with the research units Sociological Theory and Social Theory. His main research interests are digitalisation, artificial intelligence, sociological theory, discourse analysis and qualitative sociology.

 

1 Einführung

Die um Begrifflichkeiten wie Digitalisierung, Industrie 4.0, Big Data oder Datafizierung herummäandrierenden Debatten werden häufig mit Prozessen des Wandels assoziiert und sind eng mit dem Narrativ der Optimierung durch technologischen Fortschritt verwoben. Für polizeiliche Arbeitsfelder schlagen sich diese Veränderungsprozesse in der Institutionalisierung neuer technologischer Verfahren nieder, die nicht zuletzt die Ermittlungsarbeit unterstützen und Kriminalität bekämpfen sollen. Eines der Schlagworte, auf welches im Hinblick auf den Zusammenhang von Polizei und Digitalisierung vermehrt rekurriert wird, ist Predictive Policing. Dies kann weitestgehend als durch digitale Datenprozessierung unterstützte Polizeiarbeit verstanden werden, die durch kriminologische Theorien fundiert ist. Mit Predictive Policing wird die Erwartung verbunden, verfügbare Ressourcen optimiert und intelligent einzusetzen (vgl. Egbert 2018b, S. 242 f.). Es scheint sich um ein Phänomen mit beachtlicher diskursiver Strahlkraft zu handeln, wofür nicht zuletzt das in den letzten Jahren gestiegene akademische Interesse spricht, welches etwa in Form von ethnografisch orientierten Forschungsprojekten (vgl. Egbert und Krasmann 2019), rechtswissenschaftlich-interdisziplinären Arbeiten (vgl. Hofmann 2020; Thüne 2020), evaluativen (vgl. Gerstner 2017, 2018; Saunders et al. 2016) sowie diskursanalytischen (vgl. Egbert 2018a; Rolfes 2020) und kriminalwissenschaftlichen (vgl. Sommerer 2020) Studien artikuliert wird. Gleichwohl werden Aspekte wie die Datenerhebung und -prozessierung zunehmend kritisch verarbeitet (vgl. Degeling und Berendt 2018; Lum und Isaac 2016; Richardson et al. 2019). In diesem Beitrag konzentriere ich mich auf diese kritischen Aspekte und erweitere die Perspektive um einen Blick auf öffentlich-medial und international vermittelte Deutungsangebote zu polizeilichen Prognosetechnologien.

Dazu referiere ich in Abschn. 2 zunächst einen systematischen Überblick über technologiegestützte Verfahren, die in wissenschaftlichen Diskurszusammenhängen um Predictive Policing thematisiert werden, wobei ich auch die Software- und Theoriegrundlagen berücksichtige. In Abschn. 3 werden die theoretisch-methodologischen Werkzeuge, die Wissenssoziologische Diskursanalyse nach Reiner Keller (2011) sowie die Grounded-Theory-Methodologie in der Fassung von Juliet Corbin und Anselm Strauss (1990), kurz skizziert. Darauf folgt die Betrachtung eines empirischen Falls der am Ethos der Menschenrechte (vgl. Lindemann 2018) orientierten Kritik an Predictive Policing, in dem die NGO Amnesty International ein niederländisches Projekt als diskriminierend und intransparent ausweist (vgl. Amnesty International 2020a, b). Die aus diesem Beispiel herausgearbeiteten Kritikmuster werden in Abschn. 5 in Bezug zu wissenschaftlichen und öffentlich-medialen Rezeptionen von Predictive Policing gesetzt. Ein zentraler Befund der Analyse ist dabei, dass in den betrachteten diskursiven Bezügen die Deutungsmuster der Kritik an der Intransparenz algorithmischer Technologien und der Kritik an der Reproduktion rassistischer Diskriminierung zum Ausdruck kommen, die somit als eine Typik der analysierten Diskursfelder gelten können. In Abschn. 6 zeige ich, inwiefern die Diskursfelder der Kritik an polizeilichen Prognosetechnologien und der Kritik an Diskriminierung in nicht-digitalen polizeilichen Kontexten miteinander verwoben sind. Ich argumentiere, dass diese vertiefenden Kenntnisse über die diskursiven Bezüge auf Predictive Policing hilfreich sind, um nicht nur zu verstehen, welche Kritikdimensionen bislang nicht zentral bearbeitet werden, sondern auch um einzelne Aspekte der Kritik an Predictive Policing als symptomatische Merkmale allgemeinerer zeitgenössischer Polizeikritik ausweisen zu können. Diese Symptomatik begründe ich, indem ich die Kritik an der Invisibilisierung von Diskriminierungsstrukturen als verbindendes Moment der Diskursfelder herausarbeite. Diese Analyse ist nicht als eine erschöpfende Untersuchung oder Darstellung sämtlicher diskursiver Auseinandersetzungen mit Predictive Policing zu verstehen, sondern als Erarbeitung einer feldspezifischen Typik, die durch andere typische Aspekte komplementiert werden kann. Im letzten Abschnitt resümiere ich, welche Dimensionen von Diskriminierungseffekten im Material nicht auftauchen, um vor diesem Hintergrund für eine diskriminierungskritische Perspektive zu argumentieren.

2 Predictive Policing – Prognostische Technologien und operative Strategien

Nachfolgend gebe ich einen Überblick über Predictive Policing als interdisziplinär untersuchtes Objekt akademischer Forschung. Dieser Schritt ist hilfreich, um eine Eingrenzung des Diskursfelds vornehmen und besser nachvollziehen zu können, welche Praktiken und Inhalte mit dem Begriff verknüpft werden. Bilel Benbouzid (2019) verortet die historische Emergenz von Predictive Policing in der Reform US-amerikanischer Polizeibehörden in den 1990er-Jahren, in deren Rahmen eine eher pro- als reaktive Polizeiarbeit angestrebt wurde. Im Zuge dieser Reform wurde mit der Software Compstat in New York City eine Strategie und Technologie institutionalisiert, welcher – verkürzt dargestellt – die Funktion zukam, Kriminalitätstrends sowie die Ergebnisse der Polizeiarbeit computergestützt zu evaluieren (vgl. Benbouzid 2019, S. 1 f.). Predictive Policing kann als Algorithmisierung und Automatisierung dieser Praktik und der zentralen Prinzipien von Compstat begriffen werden. Dazu zählt Benbouzid (1) den Fokus auf Wissen zur Handlungsanleitung und (2) das Organisieren von Polizeibehörden durch Kontroll- und Messungsmechanismen, wodurch letztlich quantifizierte Aussagen über die Produktion von Sicherheit ermöglicht werden sollten. Crime-Mapping-Ansätze, die auf der Verarbeitung von Raumdaten durch Geoinformationssystemen basieren und digitale Visualisierungen krimineller Aktivitäten erstellen, gelten als Vorgänger avancierter Predictive-Policing-Strategien (vgl. Benbouzid 2019, S. 1 ff.). Walter Perry und Ko-Autor*innen (2013) differenzieren in diesem Kontext zwischen Softwares, die auf verschiedene Sachverhalte bezogene Prognosen erstellen: für (1) Orte und Zeiträume von Straftaten, (2) das Risiko individueller Personen, zukünftig Straftäter*in zu werden, (3) die Identitäten von Delinquent*innen vergangener Straftaten und für (4) die Identitäten zukünftiger Opfer (vgl. Perry et al. 2013, S. 8 ff.). Simon Egbert betont, dass Predictive Policing als ganzheitliche Praktik zu begreifen ist, die nicht auf die Softwareebene reduziert werden kann. Auch die Weiterbehandlung und Umsetzung sind in den Blick zu nehmen, da auch die beste Prognose nur dann sinnvoll ist, wenn sie auch strategisch-operativ realisiert wird (vgl. Egbert 2018b, S. 247). Dies verdeutlichen etwa Jessica Saunders, Priscilla Hunt und John Hollywood (2016) in ihrer quasi-experimentellen1 Evaluation des Chicagoer Predictive-Policing-Pilotprojekts, welches den personenbezogenen Verfahren zuzuordnen ist: Auf einer „Strategic Subject List“ wurden zum Evaluationszeitpunkt 426 Individuen platziert, für die mithilfe sozialer Netzwerkanalyse2 eine erhöhte Wahrscheinlichkeit berechnet wurde, Ausführende*r oder Erleidende*r von Waffengewalt zu werden (vgl. Saunders et al. 2016, S. 355). Neben dem Befund, dass Waffengewalt durch das Pilotprojekt nicht reduziert werden konnte, wird konstatiert, dass es keine konkret geplante Strategie zur Überführung der Prognostik in die operative Praxis gab. Den Polizeibeamt*innen stand, bis auf die Empfehlung, Kontakt zu den betreffenden Personen aufzunehmen, keine Leitlinie zur strategischen Präventionsarbeit zur Verfügung (vgl. Saunders et al. 2016, S. 367). Dieses Projekt wurde inzwischen beendet (vgl. Gorner und Sweeney 2020). Als ein Grenzfall kann in diesem Kontext die „Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des akuten Risikos – islamistischer Terrorismus“ (RADAR-iTE) des Bundeskriminalamts gelten. Dieses Instrument zur Risikoanalyse wird von der Staatsbehörde selbst nicht als Predictive-Policing-Ansatz verstanden, da keine eigenständige Prognosesoftware eingesetzt wird (vgl. Egbert 2018b, S. 243). Egbert macht in einem Artikel (2018b) und einem Interview (vgl. Bröckling 2019) jedoch deutlich, dass diese Distinktion aus akademischer Perspektive schwer ersichtlich sei, da im Zuge der Prognostik durchaus avancierte Rechenmethoden zum Einsatz kommen (vgl. Egbert 2018b, S. 243).

Neben dem Fokus auf ihren Anwendungsbereich lassen sich Predictive-Policing-Technologien auch hinsichtlich ihrer theoretischen Prämissen, die zumeist der kriminologischen Theorie- und Forschungslandschaft entstammen, differenzieren. Im Kontext der „Strategic Subject List“ etwa werden Risiko-Scores durch statistisch-algorithmische Verfahren ermittelt, die polizeilich aufgenommene Personendaten prozessieren, was ohne weitergehende theoretische Unterfütterung geschieht (vgl. Saunders et al. 2016, S. 354). Bei Prognoseverfahren, die das raum-zeitliche Auftreten bestimmter Delikte anvisieren und die in Deutschland im Prinzip ausschließlich genutzt werden, ist dies anders. In die Konzeption des Projektes „System zur Kriminalitätsauswertung und Lageantizipation“ (SKALA) des nordrhein-westfälischen Landeskriminalamts geht, laut des Abschlussberichtes, eine Vielzahl an theoretischen Konzepten ein. Zu nennen sind etwa die Desorganisationstheorie, die auf den Zusammenhang von sozioökonomischem Status und Motivation zu kriminellem Handeln abhebt (vgl. Shaw und McKay 1942), die akademisch umstrittene3 Broken-Windows-Theorie (vgl. Wilson und Kelling 1982), welche einen Konnex zwischen Verwahrlosungserscheinungen in Städten und ansteigender Kriminalität herstellt,4 sowie handlungspraktisches Erfahrungswissen polizeilicher Akteur*innen (vgl. Landeskriminalamt Nordrhein-Westfalen 2018, S. 10 ff.). Zu den im Kontext von SKALA berücksichtigten Theorien gehören auch die Grundlagen des theoretisch weniger umfangreich unterfütterten, kommerziell vertriebenen „Pre Crime Observation System“ (PRECOBS), das bislang in der Schweiz, Bayern und Baden-Württemberg zum Einsatz kam. PRECOBS basiert auf der empirisch fundierten Near-Repeat-5, der Rational-Choice-6 und der Routine-Activity-Theorie7 und geht damit von rational handelnden Einbrechenden aus, die dann in bereits bearbeitete Gebiete zurückkehren, wenn der Nutzen-Risiko-Faktor antizipierbar und lohnend ist (vgl. Egbert 2018b, S. 246; Schweer 2015). Für eine Darstellung der Funktionsweise von PRECOBS orientiere ich mich an Dominik Gerstner (2017), der die Pilotierung der Software in Stuttgart und Karlsruhe evaluiert hat. Das Programm prozessiert Vergangenheitsdaten und entscheidet anhand definierter Auslöser, ob nach einem Wohnungseinbruchsdiebstahl ein Folgedelikt wahrscheinlich ist. Solche Auslöser umfassen etwa Erbeutetes, die Lage oder den Typ des Einbruchsortes sowie den Modus Operandi von Täter*innen. Erfüllen prozessierte Falldaten die vorausgesetzten Muster, generiert PRECOBS Alarme, die durch Beamt*innen angenommen oder abgelehnt werden können. Durch grafische Visualisierungen werden auf einer Karte sogenannte operative Kreise markiert, in welchen eine erhöhte Probabilität für ein weiteres Delikt angenommen wird. Wird ein Alarm durch Beamt*innen angenommen, werden Maßnahmen, wie etwa das Fahren von Streifen, eingeleitet (vgl. Gerstner 2017, S. 19 ff.). Gerstner beschreibt die Wirkung des Projektes als schwer beurteilbar und in Bezug auf die Reduktion von Kriminalität eher moderat. Darin spiegelt sich eine der zentralen Problematiken von prognosebasierter Polizeiarbeit wider (vgl. Gerstner 2017, S. 85), denn neben der polizeiinternen Herausforderung, algorithmische Prognosen in operative Maßnahmen zu überführen, gilt die Evaluation der Wirkung von Predictive-Policing-Strategien als komplexe Problemstellung. Schließlich wird damit auf das Messbarmachen von nicht Messbarem abgezielt, etwa auf das Nichteintreten von eigentlich als wahrscheinlich angenommenen Einbrüchen (vgl. Egbert und Krasmann 2019, S. 53). Dabei kann schwerlich beurteilt werden, ob ein potenziell nicht ausgeführtes Delikt zum Beispiel durch abschreckende Streifen erfolgreich verhindert wurde, die Prognose fehlerhaft war oder ob die Tat aus anderen Gründen ausgeblieben ist – schließlich schwanken die Zahlen krimineller Delikte grundsätzlich und können durch andere polizeiliche Maßnahmen beeinflusst werden (vgl. Gerstner 2017, S. 6). Das baden-württembergische Projekt wurde inzwischen beendet (vgl. Mayer 2019).

Konkrete Kritik an polizeilichen Prognoseansätzen formulieren etwa Martin Degeling und Bettina Berendt (2018), die ihren Blick vor allem auf die technologische Grundlage bzw. die Software-/Algorithmus-Prämissen richten. Sie beschreiben, dass lernende algorithmische Technologien stets ein induktives Bias aufweisen, also bestimmte Vorannahmen in die Programmierung eingehen, die durch den Algorithmus verwendet werden müssen, um an Trainingsdaten Generalisierungen lernen und diese auf unbekannte Daten übertragen zu können. Jeweils bestehende Vorannahmen ziehen also Konsequenzen in der Prognostik nach sich. Dieses Bias ist grundsätzlich unausweichlich, das Wissen um die genaue Ausformung ermöglicht es aber, in polizeilichen Prognosestrategien verwendete Algorithmen besser verstehen und infrage stellen zu können. Degeling und Berendt machen sich daher stark, Softwaregrundlagen von Predictive-Policing-Technologien öffentlich einsehbar zu machen, auch um Polizeibehörden Einsicht in die Datenprozessierung zu ermöglichen. Zudem stellen sie zentral, dass Datengrundlagen verzerrt sein können, etwa durch Vorannahmen, Ungenauigkeiten oder Manipulationen (vgl. Degeling und Berendt 2018, S. 354 f.). Rashida Richardson, Jason Schultz und Kate Crawford (2019) gehen einen Schritt weiter und betiteln die Daten mehrerer US-amerikanischer Polizeibehörden als „Dirty Data“, die durch Korruption, rassistisches Bias oder anderweitige illegale Praktiken entstehen. Sie fundieren ihre Argumentation durch die Analyse von 13 polizeilichen Zuständigkeitsbereichen, in denen es zu behördeninternen Untersuchungen durch Regierungen und zeitgleich zur Nutzung von Predictive-Policing-Technologien kam (vgl. Richardson et al. 2019, S. 197). Problematisiert wird dabei, dass diese Daten zur Prognostik genutzt werden können, wodurch verzerrte Effekte Einzug in die algorithmische Prozessierung erhalten: „If dirty data is fed into a new predictive system, it can fundamentally taint its recommendations. This can further ingrain biases in supposedly ‚neutral‘ systems.“ (Richardson et al. 2019, S. 224) Kristian Lum und William Isaac (2016) prüfen den Algorithmus des Programms PredPol, welches eine ähnliche Funktionsweise wie das auch in Deutschland genutzte PRECOBS aufbietet, auf ein rassistisches Bias. In einer Studie wenden sie den Algorithmus auf eine synthetische Population8 an, für welche die Wahrscheinlichkeit individuellen Drogenkonsums mithilfe von Daten des „National Survey on Drug Use and Health“ geschätzt wird. Dabei stellen sie fest, dass das Programm im (synthetischen) Oakland diskriminierend wirkmächtig werden würde:

„Using PredPol in Oakland, black people would be targeted by predictive policing at roughly twice the rate of whites. Individuals classified as a race other than white or black would receive targeted policing at a rate 1.5 times that of whites. This is in contrast to the estimated pattern of drug use by race, […] where drug use is roughly equivalent across racial classifications.“ (Lum und Isaac 2016, S. 18)

Dieser Effekt tritt auf, obwohl das Programm als ethnisch neutrales System ausgeflaggt wird, in dem keine personalisierten oder auf Menschengruppen bezogenen Daten verarbeitet werden (vgl. Lum und Isaac 2016, S. 18).

Egbert (2018a) weist in einem diskursanalytischen Beitrag auf die Betonung von ökonomischen Motiven und damit korrespondierenden Rationalisierungsambitionen im Kontext der Implementierung prädiktiver Polizeiarbeit in Deutschland hin. Dabei beschreibt er auch, dass Predictive Policing vor dem Hintergrund politischer Diskurspositionen als ein „techno-fix“ (Egbert 2018a, S. 96) konstituiert wird, auf welchen die Erwartung bezogen ist, auf der politischen Agenda platzierte Probleme wie hohe Fallzahlen von Diebstählen und Einbruchsbanden aus dem osteuropäischen Raum lösen zu können (vgl. Egbert 2018a, S. 108 ff.). Allgemeiner beschreiben Simon Egbert und Susanne Krasmann (2019, S. 1) Predictive Policing als ein politisch-diskursives Phänomen und begründen ihren Befund ebenfalls damit, dass die Einführung von Predictive Policing mit dem politisch problematisierten Anstieg von Wohnungseinbruchsdiebstählen zusammenhängt. Dieses Argument greift Manfred Rolfes (2020) zwar explizit auf und arbeitet in einer diskursanalytischsystemtheoretischen Studie der politischen Kommunikation über Predictive Policing in Deutschland unter anderem die enge Verzahnung der Kommunikationen des politischen Systems und massenmedialer Akteur*innen heraus, macht öffentlich-mediale Diskursstrukturen aber nicht selbst zum Gegenstand der Analyse. Vor dem Hintergrund, dass es sich bei dem Diskurs um Predictive Policing um eine stark polarisierende Debatte handelt, in der diskriminierungskritische Aspekte eine zentrale Rolle zu spielen scheinen, erweist sich jedoch insbesondere der Blick auf öffentlich-medial zirkulierende Deutungsfiguren als instruktiv. Denn dadurch lässt sich erst herausarbeiten, welche Aspekte von polizeilich genutzten Prognosetechnologien Gegenstand breiterer gesellschaftlicher Problematisierungen sind und ob bzw. welche Bezüge zu anderen diskursiven Kontexten hergestellt werden. Festgestellt wurde bereits, unter Rückgriff auf Richardson et al. (2019) sowie Lum und Isaac (2016), dass etwa rassistische Diskriminierung und Intransparenz wissenschaftlich-diskursiv problematisierte Sachverhalte sind. Mit der hier vorgeschlagenen Perspektiverweiterung lässt sich prüfen, ob in anderen diskursiven Kontexten auch andere Aspekte eine Rolle spielen, als bislang in wissenschaftlichen Publikationen deutlich wird. Um dieses Anliegen geht es im Folgenden.

3 Theoretisch-methodische Verortung

Zur Erfassung der kritisch bearbeiteten Sachverhalte im Bereich prognosebasierter Polizeiarbeit beziehe ich mich auf das Forschungsprogramm der Wissenssoziologischen Diskursanalyse nach Reiner Keller (2011). Demgemäß werden soziale Verhältnisse, und damit auch wissenschaftliche und nichtwissenschaftliche Auseinandersetzungen mit polizeilichen Prognosetechnologien, als diskursiv konstituierte bzw. durch Diskurse strukturierte und Diskurse strukturierende Sachverhalte perspektiviert. Der Diskursbegriff zielt auf Aussageereignisse ab, die einem übergeordneten strukturellen Zusammenhang unterliegen. Dieser Konnex lässt sich im Hinblick auf Praktiken, Regeln und Ressourcen sowie strukturelle Muster sozialwissenschaftlich rekonstruieren und untersuchen (vgl. Keller 2011, S. 234). Sozialtheoretisch wird von individuell oder kollektiv verfassten sozialen Akteur*innen ausgegangen, die sich an Diskursen beteiligen. Ich schließe zentral an die auf diese Akteur*innen bezogene Differenzierung zwischen Sprecher*innen- und Subjektpositionen an: Durch das erste Konzept wird berücksichtigt, dass in unterschiedlichen Diskursen auch unterschiedliche Akteur*innen legitim Beiträge machen und sich damit Gehör verschaffen können. Soziale Akteur*innen besetzen zudem Sprecher*innenpositionen, im Sinne von Positionen legitimen Sprechens, an die etwa bestimmte Qualifikationsspezifika gekoppelt sind, auf interpretativ-rollenspielerische Weise und nach eigener Kompetenz (vgl. Keller 2011, S. 222 f.). Diesem Umstand wird auch durch die Distinktion zwischen beispielsweise wissenschaftlichen Spezialdiskursen und öffentlichen Diskursen Rechnung getragen, die im Rahmen dieser Arbeit zur Differenzierung der analysierten Felder genutzt wird (vgl. Keller 2011, S. 229). Subjektpositionen wiederum verweisen darauf, dass Akteur*innen in Diskursen spezifische Identitätsschablonen, im Sinne von zum Beispiel Problemverursachenden oder -lösenden, zugeschrieben werden (vgl. Keller 2011, S. 217). Durch diese Prämissen wird reflektiert, dass die diskursiven Positionen, auf die sich Akteur*innen innerhalb von institutionell reglementierten Diskurszusammenhängen beziehen, sowie die Positionierungen, die durch (Fremd-)Zuschreibungen vorgenommen werden, nicht mit akteur*inneneigenen Interessen oder Motivationen gleichzusetzen sind (vgl. Keller 2011, S. 253 ff.).

Hinsichtlich der analytischen Konzepte der Wissenssoziologischen Diskursanalyse beziehe ich das Konzept der Deutungsmuster zentral in die Analyse ein, mithilfe dessen sich herausarbeiten lässt, welche Interpretationsangebote für Predictive Policing diskursiv konstituiert werden und welche normativen Wertungen damit verknüpft sind. Dadurch kann nachvollzogen werden, welche Interpretationsmöglichkeiten und Wissensschemata für die Deutung von Predictive Policing gesellschaftlich zur Verfügung stehen. Somit lässt sich feststellen, wozu sich Sprecher*innen überhaupt positionieren und welche Interpretationsschemata in anderen Diskursen zu Gegenständen argumentativer Verhandlungen werden können. Die von Keller in Anlehnung an Siegfried Jäger (2009) als Diskursfragmente begriffenen einzelnen Daten wurden im Anschluss an die Grounded-Theory-Methodologie in der Fassung von Corbin und Strauss (1990) kodiert und analysiert. Der Datenkorpus setzt sich aus ca. 40 Fragmenten zusammen, die sich primär in wissenschaftliche Beiträge, Presseartikel, investigativjournalistische Recherchen, Publikationen von zivilgesellschaftlichen Akteur*innen, technologische Patente und polizeiliche Dokumente ausdifferenzieren.9 Die nachfolgend erläuterten Fälle wurden nach ihrer Tauglichkeit für die Repräsentation der Kritiken und Problematisierungen ausgewählt, die sich im Zuge der Analyse als bedeutsam für kritische Bezüge herausgestellt haben. Im Zuge der Hypothesenbildung und des theoretischen Samplings wurde zentral gestellt, kritische und andere Aussagenkomplexe als diskursfeldtypische Praktik zu begreifen und ihre inhaltliche Ausführung zu rekonstruieren. Die erarbeiteten theoretischen Konzepte wurden im Forschungsprozess an weitere Materialien angelegt, um diese heuristisch nach Ähnlichkeiten und Widersprüchen zu filtern und die Konzepte und Kategorien mit Material anzureichern, was dem Vorgehen im Kontext der Grounded Theory entspricht (vgl. Corbin und Strauss 1990, S. 9 ff.). In der Darstellung wird kein Anspruch auf eine erschöpfende Darstellung aller diskursiven Bezüge auf Predictive Policing erhoben – wohl aber darauf, dass es sich um Typiken kritischer Bezüge handelt, die in diskursiven Verarbeitungen von prognosebasierter Polizeiarbeit aufgewiesen werden können.

4 Diskursive Ereignisse um Predictive Policing – Der Fall Roermond

Am 29. September 2020 veröffentlicht Amnesty International auf seiner Webseite einen Artikel mit dem Titel „Netherlands: End dangerous mass surveillance policing experiments“ (vgl. Amnesty International 2020a). In diesem Diskursfragment wird das in der niederländischen Stadt Roermond verortete „Sensing Project“ in problematisierender Weise als Predictive-Policing-Projekt beschrieben, welches nicht nur eine Massenüberwachung für Besucher*innen und Bewohner*innen der Stadt, sondern auch Diskriminierung verursacht. Als Ziel der Programmnutzung wird der Einsatz gegen mobile Einbruchsbanden benannt. Der Beitrag verweist auf den umfangreicheren Bericht „We sense trouble“ (vgl. Amnesty International 2020b), in dem die problematisierten Aspekte weiter ausgeführt werden. Merel Koning, die aus der Sprecher*innenposition einer „senior policy officer on human rights and technology“ von Amnesty International zum Diskurs beiträgt, wird darin folgende Äußerung zugewiesen: „[t]he problematic Roermond experiment, which profiles and discriminates against people from Eastern Europe, exposes how algorithmic policing systems are prejudicial not predictive“ (Amnesty International 2020a). Dieses Zitat verweist auf ein im Diskurs über Predictive-Policing-Strategien typischerweise auftauchendes Deutungsmuster, das ich als Kritik an der Reproduktion rassistischer Diskriminierung beschreibe und welches normativ-problematisierend orientiert ist: Der Beitrag von Amnesty International weist die polizeiliche Praxis hier als gemäß „ethnic profiling“ (Amnesty International 2020b, S. 6) operierend aus, da in der technologischen Grundlage verankert sei, Menschen aus Osteuropa gezielt anzuvisieren. Dies geschehe über die Aufnahme von visuellen Daten von in die Stadt einfahrenden Fahrzeugen mithilfe von Kamerasensoren. Diese Daten werden algorithmisch prozessiert, wobei Risiko-Scores für individuelle Fahrzeuge ermittelt werden (vgl. Amnesty International 2020b, S. 11). Kritisiert wird nicht nur, dass dadurch eine generalisierte Massenüberwachung entsteht, sondern auch, dass ein Kennzeichen aus etwa Rumänien als ein Indikator für ein höheres Risiko gilt, was diskriminierend wirksam wird. Bereits die zugrunde gelegte Definition des mobilen Bandentums wird von Amnesty International kritisiert: „The Dutch police associates ‚mobile banditry’ in Roermond with people with Roma ethnicity.“ (Amnesty International 2020b, S. 5) Infolgedessen besteht die Möglichkeit, dass Menschen mit Kennzeichen aus diesen Ländern häufiger kontrolliert werden, wobei im Nachhinein für Betroffene nicht gut nachvollzogen werden könne, wegen welches Umstands eine Kontrolle erfolgt. Bei der Darstellung bezieht Amnesty sich auf polizeilich-öffentliche Quellen (vgl. Amnesty International 2020b, S. 40). Die durch Amnesty vorgeworfene Diskriminierung bezieht also zwei Sachverhalte mit ein: Zum einen dienen rumänische Kennzeichen als Hinweis auf ein höheres Risiko, zum anderen zielt die Definition mobiler Banden auf die Diskriminierung von Menschen mit Roma-Ethnizität ab.

Die theoretisch-funktionalen Grundlagen der Risikoermittlung werden in dem Bericht mit dem Etikett der Opazität versehen. Dabei geht es um Intransparenz:

„The algorithmic model of the Sensing project and its risk scores are opaque […] and the police are unlikely to indicate which criteria led them to carry out a preventive check. For a targeted person, it will be difficult to prove that an intervention was discriminatory. He or she might not even be aware that the stop and check was carried out on the basis of predictive policing tools.“ (Amnesty International 2020b, S. 41)

Was genau erhoben wird und welche Faktoren zur Berechnung verwendet werden, ist also nicht umfassend bekannt. Diese Deutung verweist auf eine weitere Problematisierung im Bereich von Predictive Policing, die sich treffend mit der von Bruno Latour (1994) entlehnten Deutungsfigur der Blackbox nachzeichnen lässt, was auch im Diskurs geschieht. Latour plausibilisiert das Problem der Intransparenz am inzwischen recht anachronistisch anmutenden Beispiel eines ausfallenden Projektors, bei welchem das Innere – die technische Zusammensetzung, welche die Funktion ermöglicht – erst interessant wird, wenn es zu einem Problem kommt: Die Blackbox wird geöffnet (vgl. Latour 1994, S. 36). Damit wird grundsätzlich auf die Uneinsehbarkeit technischer Artefakte abgehoben. Dies meint im Predictive-Policing-Kontext, dass es keine Einsicht in die genaue Funktionsweise der algorithmischen Prozessierung oder in die Datengrundlagen gibt. Diese Deutungsfigur wird auch in wissenschaftlichen Publikationen aufgerufen, um diese Problematisierung zu benennen (vgl. Egbert und Krasmann 2019, S. 48; Hofmann 2020, S. 185; implizit bei Degeling und Berendt 2018). Um das Argument, dass diese beiden Kritikmuster typisch für Predictive-Policing-Diskurse sind, weiter zu fundieren, gleiche ich die hier dargestellten Sachverhalte nachfolgend mit anderen Fällen ab, in denen polizeiliche Prognosestrategien Gegenstand von diskursiven Kontestationen sind. Dabei arbeite ich strukturelle Ähnlichkeiten heraus. Überlappende Kritikmuster lassen sich unter anderem für diskursive Verarbeitungen der in den USA genutzten Softwares PredPol, für welche diskriminierende Effekte bereits in Abschn. 2 dargestellt wurden, und das in den USA genutzte „Correctional Offender Management Profiling for Alternative Sanctions“ (COMPAS) beobachten.

5 Amplifizierende Algorithmen, Black Boxes und „Dreckige Daten“

Investigativjournalist*innen der Non-Profit-Organisation ProPublica nehmen in einem Diskursfragment von 2018 den Einsatz des Programms COMPAS, welches Wahrscheinlichkeiten für die erneute Straffälligkeit von Personen berechnet und von Richter*innen zur Bewährungsentscheidung genutzt wird, in den Blick. Die Angabe der von COMPAS verarbeiteten Daten stammt dabei von den Personen, auf die die Prognosen bezogen sind, selbst: „When most defendants are booked in jail, they respond to a COMPAS questionnaire:“ (Angwin et al. 2016a, S. 1) Gemäß der Publikation wurde durch den Algorithmus, der in der Predictive-Policing-Software eingesetzt wird, für Schwarze Menschen häufiger ein falsch-positives Risiko berechnet, erneut (gewalttätig) straffällig zu werden, als sich tatsächlich über einen zweijährigen Zeitraum beobachten ließ. Für weiße Menschen wurde dagegen tendenziell ein geringeres Risiko der Rückfälligkeit berechnet. Zentral ist der folgende Befund: „The analysis also showed that even when controlling for prior crimes, future recidivism, age, and gender, black defendants were 45 percent more likely to be assigned higher risk scores than white defendants.“ (Angwin et al. 2016a, S. 2) Für gewalttätige Rückfälligkeit wird dies auf 77 % beziffert (vgl. Angwin et al. 2016a, S. 2). Auf diese Untersuchung beziehen sich auch akademische Sprecher*innen, um darauf zu verweisen, dass Racial Profiling und damit diskriminierende Strukturen durch Predictive Policing begünstigt werden können (vgl. Egbert 2018b, S. 258; Knobloch 2018, S. 12).

In das COMPAS-Modell geht, so der Informatikwissenschaftler Eric Siegel in einem wissenschaftsjournalistischen Diskursfragment, die Kategorie „race“ von Straftäter*innen nicht als Variable ein, wohl aber unter anderem Aspekte wie der familiäre Hintergrund, Kriminalität in der Nachbarschaft und teilweise auch Daten zu Bildungsabschlüssen. Diese Sachverhalte könnten, gemäß Siegels Darstellung, als Proxy für „race“-Variablen wirksam werden und diese somit implizit in die Modellierung bzw. Risikoermittlung eingehen lassen (vgl. Siegel 2018). Ein präzises Urteil über diesen Sachverhalt kann an dieser Stelle nicht gefällt werden, da von außen nicht eingesehen werden kann, welche der Daten, die per Fragebogen erhoben werden, tatsächlich in die Risikoermittlung durch COMPAS eingehen:

„[…] the COMPAS model is sealed as a ‚black box,‘ so the ways in which it incorporates such factors is unknown to law enforcement, the defendant and the public. In fact, the model’s creators recently revealed it only incorporates a selection of six of the 137 factors collected, but which six remains a proprietary secret“ (Siegel 2018).

In der Darstellung Siegels kommt nicht nur wieder das Problem der Blackbox zum Ausdruck, sondern auch, dass „race“ als Kategorie algorithmischer Prozessierung mit anderen Kategorien sozialer Ungleichheit verschränkt sein kann und nicht zwingend als Variable in ein Modell eingehen muss, um wirksam zu werden. Insofern erscheint es für eine effiziente Beurteilung und Erforschung polizeilicher Prognosestrategien sinnvoll, die Ungleichheitsdimensionen, in denen Predictive-Policing-Strategien Gefährdungslagen kreieren könnten, stärker zu thematisieren. Dies legt nahe, dass es instruktiv ist, verstärkt danach zu fragen, ob derartige Effekte auch im Kontext anderer Prognosestrategien wirkmächtig werden können, für die eine Amplifizierung von Diskriminierungseffekten bislang nicht diskursiv geltend gemacht wird. Im Fall von COMPAS ist dieser Punkt besonders interessant: Tim Brennan, der Gründer des ursprünglich für COMPAS verantwortlichen Unternehmens10 und Mitverfasser einer gegen ProPublicas Deutung argumentierenden Studie11, betont, dass potenziell mit „race“ korrelierende Faktoren nicht grundsätzlich von der Datenverarbeitung ausgeschlossen werden. ProPublica stellt den Sachverhalt wie folgt dar: „Brennan said it is difficult to construct a score that doesn’t include items that can be correlated with race – such as poverty, joblessness and social marginalization. ‚If those are omitted from your risk assessment, accuracy goes down,‘ he said.“ (Angwin et al. 2016b)

Als Problemfälle werden Predictive-Policing-Ansätze nicht nur ausgeflaggt, wenn mehr oder weniger klar festgestellt werden kann, dass Diskriminierung vorliegt. Schwierig wird es ebenfalls, wenn gar nicht erst geprüft werden kann, ob dies der Fall ist, was die bereits diskutierte Figur der Blackbox akzentuiert. Dieser Aspekt, der in dem Fall aus Roermond hervortritt und auch für COMPAS geltend gemacht wird, wird im analysierten Diskursfeld herangezogen, um Predictive-Policing-Technologien zu beschreiben. Er wird typischerweise aufgerufen, um die fehlende Einsicht in softwarebezogene Entscheidungsprämissen und technische oder algorithmische Funktionen zu problematisieren oder zumindest darzustellen, dass es in diesem Kontext Bedenken gibt. Es ist naheliegend, dass dieser Umstand besonders dann zum Gegenstand von Kritik wird, wenn die Vermutung besteht, dass diskriminierende Effekte erzeugt oder verstärkt werden könnten. Der Umstand des „black boxing“ fällt zudem mit einer Distinktion im Hinblick auf Predictive-Policing-Technologien zusammen, die sich in Abschn. 2 bereits angedeutet hat, aber noch nicht sachlich expliziert wurde: Prognosetechnologien werden entweder kommerziell vertrieben oder polizeiintern entwickelt. Ein Open-Source-Code für Predictive-Policing-Software scheint bislang nicht zu existieren. Je nachdem, wie die Technologie zuzuordnen ist, besteht entweder das Problem von proprietärem Eigentum und Geheimnis – es ist nicht üblich, Softwarequellcodes außerhalb von Unternehmensstrukturen explizit zu machen – oder die Schwierigkeit des fehlenden externen Zugriffs auf polizeilich konzipierte Technologien. Das Deutungsmuster der normativ aufgeladenen Einforderung von Transparenz wird stellenweise auch im Kontext polizeilicher bzw. polizeigewerkschaftlicher Sprecherpositionen als einzuhaltender Standard betont. Der „Bund Deutscher Kriminalbeamter“ befürwortet etwa den Einsatz von (externen) Datenschutzbeauftragten und parlamentarischen Kontrollen und bezieht sich in einem Positionspapier ebenfalls auf die kritischen Punkte ProPublicas (vgl. Bund Deutscher Kriminalbeamter 2020, S. 1 ff.). Im Abschlussbericht von SKALA wird ebenfalls betont, transparent gearbeitet zu haben (vgl. Landeskriminalamt Nordrhein-Westfalen 2018, S. 79).

Die dargestellten Fälle, in denen Diskriminierung oder fehlende Transparenz zu Gegenständen von Kritik werden, gehören zu den Predictive-Policing-Ansätzen, in denen es um die Risikoprognose individueller Entitäten – Menschen oder Fahrzeuge – und das von ihnen ausgehende Sicherheitsrisiko geht. Ein Konnex zwischen der Reproduktion rassistischer Diskriminierung und Raum-Zeit-bezogenen prognostischen Verfahren wird für den Algorithmus der Software PredPol konstituiert, wie in Abschn. 2 unter Rückgriff auf das Diskursfragment von Lum und Isaac (2016) deutlich gemacht wurde. Aus diesen diskursiven Verarbeitungen ergeben sich zwei Möglichkeiten für Predictive Policing, ethnische bzw. rassistische Diskriminierung zu produzieren oder zu amplifizieren: Bereits die Datengrundlagen können verzerrt sein, wodurch eine bestimmte Form von Bias in die Prognostik eingeht, die diesen Effekt fortschreibt. Die andere Möglichkeit für die diskriminierende Wirkung polizeilicher Prognosestrategien ergibt sich direkt aus der algorithmischen Grundlage selbst. Das erste Potenzial lässt sich gut am Beispiel von Feedbackschleifen nachvollziehen: Lernt eine Technologie etwa auf Basis von polizeilichen Daten zu Verhaftungen und prognostiziert davon ausgehend potenzielle Risikogebiete, werden Streifen verstärkt in Gebiete geschickt, in denen bereits Kriminalität beobachtet wurde und die ohnehin polizeiliche Aufmerksamkeit bekommen – unabhängig von der tatsächlichen Kriminalitätsrate (vgl. Ensign et al. 2017). Nimmt man an, dass Verhaftungsdaten zumindest teilweise durch bestimmte Praktiken, etwa Racial Profiling oder Korruption, verzerrt und damit, im Sinne von Richardson et al. (2019), „dirty“ sind, kann dieser Verzerrungseffekt durch die algorithmische Prozessierung verstärkt werden. Diskriminierung geschieht dann dadurch, dass Polizeistreifen immer wieder in ein Gebiet geschickt werden, in dem etwa primär Schwarze Menschen leben – ungeachtet des Umstands, dass nicht polizeilich erfasste Gebiete gegebenenfalls ein höheres Risikopotenzial bieten könnten. Bei der zweiten Möglichkeit für diskriminierende Wirkung wäre es nicht einmal zwingend notwendig, dass Verzerrungen durch unlautere polizeiliche Praktiken in den Daten angelegt sind, da die Datenerfassung durch die Software dafür sorgt, dass Verbindungen zwischen verschiedenen Aspekten hergestellt werden, die zur Ungleichbehandlung führen. Darum geht es etwa bei der algorithmischen Prozessierung von COMPAS. Dieser Aspekt wird im Diskurs besonders deswegen als problematisch erachtet, da es durch den opaken Charakter algorithmischer Technologien schwierig ist, genau zu bestimmen, ob und wenn ja, inwieweit ein diskriminierender Effekt konstituiert wird. Somit wird deutlich, inwiefern die beiden Kritikmuster – an Intransparenz und an Diskriminierung – verbunden sind: Fehlende Einsicht zieht besonders dann Fallstricke nach sich, wenn die Vermutung naheliegt, dass im Kontext einer bestimmten Strategie Benachteiligungseffekte reproduziert werden können und es keine Möglichkeit zur Überprüfung von technischen Funktionalitäten oder datenbezogenen Effekten gibt.

6 Diskursive Verflechtungen

Aus den rekapitulierten Diskursfragmenten und den daraus rekonstruierten Deutungsmustern, die Teile des Diskurses über Predictive Policing kennzeichnen, kann geschlossen werden, dass Predictive-Policing-Phänomene typischerweise in einen diskursiven Kontext gestellt werden, in dem sich auch eine allgemeinere Kritik an struktureller Diskriminierung bzw. strukturellem Rassismus in polizeilichen Kontexten reflektiert. Sowohl für nichtwissenschaftliche, etwa öffentlich-mediale und zivilgesellschaftliche, als auch für wissenschaftliche Diskursstrukturen konnte nachgezeichnet werden, dass die Prüfung, ob eine Predictive-Policing-Strategie diskriminierend wirkt oder wirken könnte, ein zentrales Moment in diskursiven Verarbeitungen darstellt. Damit wird Predictive Policing als diskursives Phänomen in ein breiteres diskursives Feld überführt, in welchem speziell im Jahr 2020 in besonderer Weise soziale Bewegungen und zivilgesellschaftliche Akteur*innen international-medial prominente Sprecher*innenpositionen besetzt haben. Dabei kann die Emergenz interessanter diskursiver Verflechtungen aufgewiesen werden: Im Kontext der von der 2013 entstandenen Black-Lives-Matter-Bewegung getragenen Proteste gegen strukturellen Rassismus und Polizeigewalt, die sich infolge der Tötung des US-Amerikaners George Floyd intensiviert haben, rufen ca. 1.500 promovierte Mathematiker*innen in den USA zur Beendigung der Kooperation ihrer Fachkolleg*innen mit Polizeibehörden auf. Dabei fordern sie eine öffentliche Prüfung für algorithmische Technologien – wie es auch wissenschaftliche Sprecher*innen, national-polizeiliche oder internationale Akteur*innen wie Amnesty International explizieren. Auf der Webseite math-boycotts-police.net, auf der die Namen der Protestierenden und der Brief eingesehen werden können, wird auch explizit eine Verbindung zur Prognostik von PredPol bzw. den daraus resultierenden „rassistischen Konsequenzen“ (Aougab et al. 2020) hergestellt.

Konträres dazu wird auf dem Blog des Wirtschaftsunternehmens, das PredPol repräsentiert, deutlich gemacht. In einem Post wird ebenfalls Bezug auf die Vorfälle rund um die Tötung George Floyds und die öffentlichen Kritiken an der Diskriminierung Schwarzer Menschen genommen, auch wird auf „race“ bezogene Ungleichheit als signifikantes gesellschaftliches Problem in den USA konstituiert (vgl. PredPol 2020). Der Unterschied zu den anderen Positionen liegt in der Zuschreibung eines gewissen Objektivitätscharakters auf Daten, die gesellschaftliche Diskurse anleiten sollen:

„We believe that the starting point is data: objective, agreed-upon facts that can be used to guide the discussion. Data provides transparency in decision making, it provides auditability of decisions, and it allows all sides to be part of the discussion using the same tools and logic.“ (PredPol 2020)

Dabei wird auch betont, die Verbesserung polizeilicher Praktiken zentral zu stellen (vgl. PredPol 2020). Damit wird eine bislang weniger stark thematisierte Deutungsmöglichkeit angeführt, die Daten im Kontext von Polizei und Diskriminierung als Fortschrittstool ausweisen, mithilfe dessen objektiven Urteils mehr soziale Gerechtigkeit und weniger Diskriminierung hergestellt werden können soll. Aussagen dieser Art werden diskursiv von Positionen kontestiert, die deutlich machen, dass mit potenziellen Verzerrungen erhobene und durch algorithmische Prozessierung möglicherweise weiter verzerrte Daten nicht objektiv sind oder für sich selbst sprechen. Dies gilt nicht zuletzt deswegen, weil Datenprozessierung im hier thematisierten Sinne zumeist über Klassifikatoren funktioniert, die Daten gemäß vorgegebenen Regeln analysiert (vgl. Degeling und Berendt 2018, S. 351). Im Kontext kritischer Deutungstypiken scheint vielmehr eine Haltung reflektiert zu werden, die den ersten Schritt zur Aufarbeitung der Invisibilisierung von Diskriminierungsstrukturen nicht erst bei bereits als Fakten gekürten Daten ansetzt. Im Diskurs wird eher darauf hingedeutet, bereits die Prozesse, die dazu führen, dass Phänomene oder Ereignisse zu für polizeiliche Prognosestrategien relevanten Daten werden, in den Blick zu nehmen und kritisch zu reflektieren.

Im Gegensatz zu den internationalen Fällen sind für deutschsprachige Kontexte bislang keine diskursiven Äußerungen zu verzeichnen, die in vergleichbarer Weise eine Kritik an Predictive-Policing-Ansätzen explizit machen. Nicht unerwähnt bleiben sollte vor diesem Hintergrund jedoch die zivilgesellschaftlich-öffentliche Kritik an struktureller Diskriminierung durch deutsche Polizeibehörden. Exemplarisch zu nennen ist hier eine Petition bei der Webplattform „WeAct!“ der Kampagnenorganisation „Campact“. Dort fordern zum Zeitpunkt der Veröffentlichung dieses Beitrags etwa 105.000 Unterzeichnende die Durchführung einer Racial-Profiling-Studie bei der deutschen Polizei von Bundesinnenminister Horst Seehofer ein (vgl. Campact 2020). Nimmt man die Prämisse an, dass es zumindest ansatzweise Verzerrungseffekte durch auf polizeilicher Seite bestehende Vorurteile gibt – wie es auch wissenschaftliche Beiträge (vgl. etwa Belina 2016; Hunold und Wegner 2020; Thompson 2018) nahelegen –, ist davon auszugehen, dass sich dieser Effekt auch in der Prognostik reflektiert, die auf den vorurteilsbehafteten Daten basiert. Es bleibt zukünftig zu klären, ob die „data“ in diesem Fall auch „dirty“ sein könnte und ob der Einsatz transparenzerzeugender Reinigungsmittel – welcher Art auch immer – institutionalisiert wird, sodass fortan nur noch mit sauberen Mitteln gearbeitet wird. Schließlich schimmert in der diskursiv vermittelten Kritik – sowohl im Fall Diskriminierung durch analoge Polizeipraktiken im Allgemeinen als auch im Fall von opaken Predictive-Policing-Ansätzen im Besonderen – die normative Erwartung12 an eine Polizei durch, die sich einer reflektierenden, demokratischen Kontrolle nicht entzieht, sondern sie aktiv begrüßt und umsetzt. Deutlich wird also, dass es in beiden Fällen um Kritik an der fehlenden Einsicht in und die dadurch verunmöglichte oder zumindest erschwerte Reflektion von Macht- und Diskriminierungsstrukturen geht. Damit lässt sich die Kritik an der Invisibilisierung von Diskriminierungsstrukturen als das verbindende Scharnier der Diskursfelder begreifen. Besonders der Bezug auf verzerrte Daten weist darauf hin, dass einzelne Aspekte von Predictive Policing symptomatisch für die Art der Kritik sind, die Bewegungen wie Black Lives Matter geltend machen. Auch lassen sich Bezüge finden, die in Predictive Policing eine generalisierte Gefährdung von Privatheits- bzw. Freiheitsrechten sehen – besonders dann, wenn es um personenbezogene Daten geht (exemplarisch bei Degeling und Berendt 2018). Diese Bereiche sind, etwa in Deutschland mit dem Persönlichkeitsrecht auf informationelle Selbstbestimmung und der EU-rechtlich verankerten Datenschutzgrundverordnung (DS-GVO) sowie Artikel 8 der EU-Grundrechtscharta, feste Institutionen und werden als zivilisatorische Güter rechtlich geschützt.

7 Fazit

In diesem Beitrag wurden Kritikmuster, Deutungsfiguren und Verflechtungen wissenschaftlicher und nichtwissenschaftlicher Diskurszusammenhänge über Predictive Policing in den Blick genommen. Dabei habe ich, von der Analyse der Kritik von Amnesty International an dem „Sensing Project“ im niederländischen Roermond ausgehend, herausgearbeitet, dass die Reproduktion rassistischer Diskriminierung und die Intransparenz algorithmischer Technologien typische Kritikmuster sind, in deren Kontext Sachverhalte wie Transparenz, die Aufklärung potenzieller Problembestände oder die Einstellung prädiktiver Strategien eingefordert werden. Aus den rekonstruierten Positionen geht hervor, dass Predictive Policing so lange kein Potenzial zur Diskriminierung entfalten zu können scheint, wie es eine völlig neutrale Datenbasis gibt, die auf ausschließlich „sauberen“ polizeilichen und gesellschaftlichen Praktiken basiert und welche von einem bias-freien Algorithmus prozessiert wird. Dass dies so ist, geht wiederum nicht aus den analysierten Bezügen hervor. Dabei ist es höchst fraglich, ob es „saubere“, im Sinne von vollständig diskriminierungs- und vorurteilsfreien, Daten überhaupt geben kann, wenn man in Rechnung stellt, dass prozessierte Daten von Menschen mit unterschiedlichen normativen Wertmaßstäben und Einstellungen erhoben werden. Damit ist praktisch immer das Potenzial gegeben, Vorbehalte und damit Verzerrungen zu (re-)produzieren.

Ferner habe ich argumentiert, dass Predictive Policing als diskursiv kritisiertes Phänomen in die Nähe von allgemeineren polizeikritischen Diskursen gerückt wird. Die Kritik an verzerrten Datengrundlagen im Kontext polizeilicher Prognoseansätze und die Kritik an strukturellem Rassismus in Polizeibehörden überlappen insofern, als dass die Verzerrungen teilweise erst durch rassistische Vorurteile und damit verbundene Praktiken, die Einfluss auf die algorithmisch verarbeiteten Datengrundlagen ausüben, ermöglicht werden. Vor diesem Hintergrund scheint Predictive Policing diskursiv ein Stück weit als eine Art Automatisierung des Vorurteilshandelns von Polizeibeamt*innen und von systematischer Diskriminierung verstanden zu werden. In diesem Zusammenhang gehe ich weiterführend davon aus, dass bestimmte Aspekte prognosebasierter Polizeiarbeit symptomatisch für eine allgemeinere gesellschaftliche Kritik an der Polizei sind, die nicht zuletzt in den Protesten infolge der Tötung von George Floyd deutlich geworden und international kommuniziert worden ist. Damit wird im Diskurs ein Rassismus kritisiert, der älter ist als die in Polizeikontexten nutzbar gemachten Prognosesoftwares. Für diesen alten Rassismus wird Predictive Policing nicht in analoger Weise als „techno-fix“ (Egbert 2018a, S. 96) interpretiert, wie Egbert es in Bezug auf die Darstellung von prognosebasierter Polizeiarbeit als Lösungsansatz für als politisches Problem geframte Wohnungseinbrüche in deutschsprachigen Politikdiskursen deutlich macht (vgl. Egbert 2018a, S. 102 ff.). Schließlich sind die Positionen, die in der prognosebasierten Polizeiarbeit eine Chance für das Aufarbeiten von Diskriminierung sehen, eher die Ausnahme als die Regel. Der Kampf gegen Benachteiligungen ist jedoch auch nicht das diskursiv zentral geltend gemachte Ziel der Nutzer*innen oder Hersteller*innen der Prognosesysteme. Dennoch konnte aufgezeigt werden, dass in den analysierten Diskursfragmenten durchaus Bezüge bestehen, die – etwa im Fall des Unternehmens PredPol – in der datenprozessierenden und digitalisierten Prognoseermittlung eine Chance sehen, die Gesellschaft im Allgemeinen und Polizeiarbeit im Speziellen zu verbessern (vgl. PredPol 2020). Die durch Predictive Policing potenziell reproduzierten Diskriminierungseffekte und die damit korrespondierenden datenbezogenen Problemstellungen, deren Problematisierung die analysierten Diskurse kennzeichnet, scheinen jedoch wie eine Antithese gegenüber dem Fortschrittsgedanken zu stehen, der sich in Positionen widerspiegelt, die im Sinne PredPols den objektiv-faktischen Charakter von Daten geltend machen. Die Verbindung von diskriminierungskritischen Perspektiven auf polizeiliche Praktiken im Allgemeinen und Predictive Policing im Besonderen liegt somit, wie bereits thematisiert, darin, dass die Kritik sich in beiden Fällen zentral darauf richtet, dass Diskriminierungsstrukturen invisibilisiert werden: Während proprietärer Besitz von Softwarecodes es verhindert oder zumindest erschwert, das Diskriminierungspotenzial polizeilicher Prognosetechnologien zu prüfen, verursacht die Ablehnung wissenschaftlicher Untersuchungen rassistisch-diskriminierender Tendenzen in der analogen polizeilichen Welt einen ähnlichen Effekt.

Deutlich wurde zudem, dass die kritischen Äußerungen im analysierten Diskurs stark auf Diskriminierung im Sinne von ethnisierendem bzw. rassistischem Profiling fokussiert sind. Was darüber hinausgehende diskriminierungskritische Perspektiven auf Predictive Policing angeht – es scheinen bislang wenige zu existieren. Melissa Hamilton (2019, S. 146) thematisiert für das Programm COMPAS ein „Gender Bias“ und daraus resultierende Folgen. Sie argumentiert, dass der Algorithmus nicht einbezieht, dass die Rate des Rückfalls in kriminelle Aktivitäten für weibliche im Vergleich zu männlich klassifizierten Menschen geringer ist: „The unfortunate consequence is that the risk tool overclassifies women and thus more of them are likely to be unfairly treated in criminal justice decisions and be subject to unnecessary levels of supervision.“ (Hamilton 2019, S. 154) Dabei thematisiert sie das Verfahren interessanterweise nicht als Predictive Policing. Hamiltons Befund legt nahe, dass es instruktiv ist, Predictive Policing aus einer diskriminierungskritisch-intersektionalen Perspektive zu betrachten, um zu erfassen, welche Diskriminierungspotenziale neben den bereits dargestellten noch beobachtet werden könnten. Als weiteres Argument dafür kann das Beispiel der diskursiven Kritik von ProPublica an COMPAS gelten. In diesem Zusammenhang habe ich gezeigt, dass es nicht zwingend notwendig ist, hautfarbenbezogene Aspekte explizit in Modellierungen bzw. Datenprozessierungen eingehen zu lassen, damit diskriminierende Effekte entstehen. Da im Kontext von COMPAS keine auf „race“-Kategorien bezogenen Daten erhoben oder verarbeitet werden, könnte dies ein Hinweis auf die Wirkmacht anderer diskriminierender Effekte sein. Es kann nicht ausgeschlossen werden, dass mit „race“ korrelierende Faktoren in COMPAS oder anderen Prognoseprogrammen zum Einsatz kommen. Eine intersektionale Perspektive könnte sich als hilfreich dafür erweisen, diese Forschungslücke zu schließen. Damit bleibt bislang also offen, inwieweit im Einsatz oder in der Entwicklung befindliche polizeiliche Prognosesysteme das Potenzial zur Amplifizierung bislang nicht zentral betrachteter Ungleichheitsdimensionen aufweisen. Programme wie PRECOBS und PredPol verarbeiten Ortsdaten und prognostizieren geografische Risikogebiete, das Projekt SKALA des nordrhein-westfälischen Landeskriminalamtes bezieht in der Modellierung sozialstrukturelle/-ökonomische Faktoren ein, arbeitet ebenfalls mit der Near-Repeat-Hypothese und berücksichtigt etwa das Einkommen von Haushalten (vgl. Landeskriminalamt Nordrhein-Westfalen 2018, S. 22). Von dieser Funktionsweise ausgehend, kann gefragt werden, ob im Kontext solcher und ähnlicher Verfahren die Gefahr besteht, dass auch anonymisierte Wohnortdaten als eine Art Datenproxy funktionieren könnten, über den vermittelt es zu diskriminierenden Effekten, beispielsweise der überproportionalen Kontrolle bestimmter Bereiche, kommt.

Einige Predictive-Policing-Projekte, etwa die Nutzung von PRECOBS in Baden-Württemberg und die „Strategic Subject List“ in Chicago, wurden aufgrund mangelnder Effektivität bereits eingestellt. Festgestellt wurde auch, dass es polizeiliche Akteur*innen gibt, die Transparenz im Diskurs um Predictive Policing betonen. Dennoch zeigt das hier nur holzschnittartig skizzierte Potenzial für verschiedene Diskriminierungseffekte, dass weiterhin ein prüfender Blick auf die Nutzung polizeilicher Prognosetechnologien und ihre gesellschaftliche Rezeption zu richten ist. Dies gilt insbesondere, da nicht ausgeschlossen werden kann, dass voranschreitende technologische Entwicklungen auch neue Problemstellungen mit sich bringen.