© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022
L. Supik et al. (Hrsg.)Gender, Race and Inclusive Citizenshiphttps://doi.org/10.1007/978-3-658-36391-8_19

Der gesellschaftliche Umgang mit Digitalisierung: Perspektiven auf Bildungsprozesse und Polizeiarbeit

Douglas Ian Becker1  , Richard Heise2  , Steve Kenner3   und Malte Kleinschmidt4  
(1)
Carl von Ossietzky Universität Oldenburg, Oldenburg, Deutschland
(2)
Leibniz Universität Hannover, Hannover, Deutschland
(3)
Freie Universität Berlin, Berlin, Deutschland
(4)
Leibniz Universität Hannover, Hannover, Deutschland
 
 
Douglas Ian Becker (Korrespondenzautor)
 
Richard Heise
 
Steve Kenner
 
Malte Kleinschmidt

Zusammenfassung

Digitalisation affects society in many ways, not least because a large part of communication takes place via digital structures. The use of digital communication, e.g. social media and messenger services, is firmly anchored in the everyday lives of many people and plays an important role for citizenship. At the same time, there are less visible technological developments, among them predictive technologies to support police work. Within the fields of sociology and citizenship education the debate on how society should deal with these developments is addressed from different perspectives. What they have in common, though, are questions about the consequences of digitalisation and the associated transformations of citizenship, which Douglas Becker, Richard Heise and Steve Kenner discussed with Malte Kleinschmidt in April 2021.

Schlüsselwörter:
Digital CitizenshipDiscriminationCitizenship EducationPredictive PolicingSocial MediaDigital CommunicationDigital InfrastructureEthics
Douglas Ian Becker

received a B.A. in social sciences from Carl von Ossietzky University Oldenburg, where he is currently completing his master’s degree. As a student assistant, he is involved with the research units Sociological Theory and Social Theory. His main research interests are digitalisation, artificial intelligence, sociological theory, discourse analysis and qualitative sociology.

 
Richard Heise

is a researcher and lecturer in citizenship education at the Institute of Didactics of Democracy and Center for Inclusive Citizenship at Leibniz University Hannover. His research focuses on citizenship education in the digital sphere, aiming at teaching and learning strategies to strengthen both digital skills and political competences.

 
Steve Kenner

is guest lecturer and postdoctoral researcher in citizenship education at the Otto-Suhr-Institute, Freie Universität Berlin and associated member of the Leibniz Research Center for Inclusive Citizenship (CINC) at Leibniz University Hannover. His research focuses on participation, citizenship and education.

 
Malte Kleinschmidt

Dr., researches and teaches in the domain of Civic Education at Leibniz University Hannover. His research interests are decoloniality, globalisation, racism, post-migrant societies, radical democracy and citizenship studies, particularly in relation to civic education. Major publications are the books Dekoloniale politische Bildung. Eine empirische Untersuchung von Lernendenvorstellungen zum postkolonialen Erbe [Decolonial Civic Education – an Empirical Research of Learners’ Concepts of the Postcolonial Heritage] (2021) and Eurozentrismus in der Philosophie [Eurocentrism in Philosophy] (2013).

 

Digitalisierung betrifft heute zahlreiche gesellschaftliche Bereiche, weil ein Großteil der Kommunikation über digitale Strukturen stattfindet. Die Nutzung digitaler Kommunikation, nicht zuletzt sozialer Medien und Messenger-Dienste, sind im Alltag vieler Menschen fest verankert und die Feststellung, dass dies Einfluss auf politische Prozesse hat, ist mittlerweile zum Gemeinplatz gesellschaftlicher Diskurse um das Thema geworden. Die Frage, wie Gesellschaft damit umgehen soll, insbesondere was das für Bildungsprozesse bedeutet, wird in der politischen Bildung bereits seit Längerem thematisiert. Gleichzeitig gibt es auch weniger sichtbare technologische Entwicklungen, unter ihnen Prädiktionstechnologien, die beispielsweise die Polizeiarbeit stützen sollen. All diese Bereiche werfen Fragen nach den Folgen von Digitalisierung und den damit verbundenen Veränderungen von Citizenship auf, die Douglas Becker, Richard Heise und Steve Kenner mit Malte Kleinschmidt im April 2021 diskutiert haben.

1 Die Intransparenz digitaler Entscheidungsstrukturen: Das Beispiel „Predictive Policing

Malte Kleinschmidt: Vielen Dank für eure Bereitschaft zu einem Gespräch in dieser Runde. Ich habe mit großer Begeisterung eure Beiträge gelesen. Douglas, du schreibst über Diskurse zum Thema Predictive Policing, und Richard und Steve, bei euch geht es um Citizenship Education. Auf den ersten Blick handelt es sich um zwei ganz unterschiedliche Aspekte von Digitalisierung und Citizenship. Deshalb freue ich mich besonders auf einen Austausch darüber, wo ihr Gemeinsamkeiten in euren Ansätzen seht und welche Fragen aneinander ihr habt.

Douglas Becker: Eine zentrale Gemeinsamkeit der Artikel ist aus meiner Sicht der Fokus auf eine vorhandene Intransparenz in Bezug auf die Entscheidungsstrukturen, die immer mitlaufen, wenn man bestimmte digitale Technologien nutzt. Wenn digitale Algorithmen darüber bestimmen, wie beispielsweise Rankings oder auch Risikoeinschätzungen zustande kommen, arbeiten sie mit bestimmten Entscheidungsprämissen. Diese werden entweder intransparent gemacht oder sind von vornherein intransparent designt. Damit wird es schwierig, die Grundlagen für bestimmte Formen von Benachteiligungseffekten, etwa von rassistischer oder sexistischer Diskriminierung, herauszufiltern.

Steve Kenner: Für mich wird der Zusammenhang zwischen beiden Arbeiten an der Auseinandersetzung mit dem Subjekt deutlich, das sich – bewusst oder unbewusst – mit digitalen Strukturen befasst. In deinem Aufsatz, Douglas, wird noch eine weitere Perspektive deutlich. Er zeigt, warum es wichtig ist, so etwas wie digitale Mündigkeit herzustellen, also Menschen dazu zu befähigen, die Verhältnisse kritisch zu hinterfragen. Damit meine ich nicht nur die Verhältnisse, die uns analog als Macht- und Herrschaftsverhältnisse begegnen, sondern eben auch die, die sich ins Digitale transformieren. Deshalb haben wir in unserem Beitrag den Schwerpunkt auf die Frage gelegt, was eigentlich Digital Citizenship bedeutet und was Digital Citizenship Education ist. Ich sehe in unseren beiden Beiträgen deutlich, dass es notwendig ist, Menschen dazu zu befähigen, hinter die Fassade dessen zu schauen, was im digitalen Raum leicht zugänglich ist. Wenn wir gerade bei jungen Menschen von Digital Natives sprechen, halte ich das für problematisch, weil ein Großteil der jungen Generation zwar durchaus in der Lage ist, die Benutzeroberflächen zu bedienen, es gleichzeitig aber nicht bedeutet, dass sie – genauso wenig wie viele Erwachsene – das System und die dahinterliegende Logik durchdringen. Mit digitalen Medien aufzuwachsen, bedeutet nicht, dass sich eine mündige Mediennutzung als Selbstverständlichkeit daraus ergibt. Um dies zu erreichen, müssen wir nicht alle technischen Details kennen, aber wir müssen wissen, welche Möglichkeiten, welche Instrumente und Strategien damit verbunden sind. Das ist Voraussetzung, um in digitalen Medien und digitalen Netzwerken als Digital Citizens zu agieren.

Richard Heise: Predictive Policing ist ein gutes Beispiel für dieses Problem, das Douglas eben angesprochen hat. Es zeigt die Intransparenz nicht nur in Bezug auf Inhalte, sondern auch in Bezug auf dahinterliegende digitale Strukturen oder mögliche ökonomische oder politische Interessen. Gerade durch die Nutzung von Algorithmen, die oft auch aus wirtschaftlichen Gründen nicht offengelegt werden, entziehen sie sich der demokratischen Kontrolle. Dennoch wird die „analoge“ Polizeiarbeit durch das Zusammenspiel von technischen Strukturen und Ereignissen in der realen Welt stark beeinflusst, wie an den Beispielen in dem Artikel über Predictive Policing deutlich wurde. Es handelt sich also auf jeden Fall um ein problematisches Beispiel für die Weiterentwicklung digitaler Strukturen, die sich demokratischer Kontrolle aus technischen Gründen entzieht. Vielleicht liegt es zum Teil auch am mangelnden Interesse politischer Akteur*innen, in dem Bereich überhaupt aktiv zu werden und mögliche Regulierungen anzustoßen. Mich würde interessieren, wie du das Risiko bewertest, Douglas, dass Dritte mit unlauteren Absichten Algorithmen der Polizei nutzen, um sich der Strafverfolgung zu entziehen. Denkbar wäre es ja, dass sie sich auf die Vorhersagen der Algorithmen stützen und ein Verbrechen zum Beispiel an einem Ort begehen, der dafür als eher unwahrscheinlich bewertet wird. Glaubst du, es ist möglich, dass sich die Logik der Algorithmen in dieser Weise ins Gegenteil verkehrt?

Douglas Becker: Die Entschlüsselung eines Entscheidungsalgorithmus und der verwendeten Daten, auf deren Grundlage die Polizei in einer bestimmten Stadt in eine bestimmte Ecke und nicht an einen anderen Ort geschickt wird, ist aus meiner Sicht eher schwierig. Es würde eines der „Openings“, die ihr in eurem Beitrag beschrieben habt, also das „Hacking“, erfordern. Ob das schon einmal passiert ist, weiß ich nicht genau. Das Unternehmen PredPol hat aber zum Beispiel einen Teil seines Algorithmus veröffentlicht. Damit konnte erarbeitet werden, dass durch das Programm ein rassistisches Bias reproduziert werden würde, wenn es zur Prädiktion von Drogendelikten genutzt würde, obwohl eigentlich nur Daten zu dem Ort, der Art der Kriminalität und dem Zeitpunkt einer Straftat algorithmisch verarbeitet werden. Wenn man weiß, dass es diese Technologien gibt und dass sie in einer bestimmten Stadt strategisch genutzt werden, kann man sich dieser Mustererkennung sicher irgendwie entziehen. Das hat auch mit ihrer Operationslogik zu tun, denn die Technologien arbeiten zum Teil mit einer einfachen „Wenn-dann“-Struktur. Ein zerstörtes Fenster ist für einen Algorithmus beispielsweise einer der Trigger dafür, dass hier keine professionelle Serientat ausgeübt wurde, weil Profi-Einbrecher*innen kein Fenster demolieren würden. Das mag jetzt nicht ganz zu Ende gedacht sein, aber wenn ich meinen Profi-Einbruch mache und dabei nachträglich ein Fenster beschädige, fällt mein Delikt vielleicht nicht in das Raster der Mustererkennung und wird damit wieder selber unsichtbar gemacht.

Malte Kleinschmidt: Da bekommt predictive eine ganz neue Bedeutung. Was wäre denn aus deiner Sicht eine emanzipatorische Forderung in Bezug auf Predictive Policing? Ich denke hier an unterschiedliche Alternativen: Zum einen sagt PredPol, dass man durch einen Ausbau von Predictive Policing eigentlich Diskriminierung abbaut, indem man sich auf breite, vorgeblich neutrale Daten stützt. Zum anderen gibt es die Ansicht, dass sowohl die Datenprozessierung durch Algorithmen als auch die Daten selbst problematisch seien, da sie bestimmten Praxen entspringen, die nicht ohne Weiteres von den gesellschaftlichen Ungleichheitsverhältnissen trennbar sind. Vor diesem Hintergrund könnte man argumentieren, dass es einer Art demokratischer Kontrollinstanz bedarf, die die Nutzung von Daten überwacht. Eine dritte Auffassung wäre, Predictive Policing führe notwendigerweise zu einer Verstärkung gesellschaftlicher Ungleichheit und wäre deswegen aus einer radikaldemokratischen oder emanzipatorischen Perspektive abzulehnen. Wie seht ihr das?

Douglas Becker: Ich bin in dem Punkt noch nicht hundertprozentig festgelegt. Als ich auf den Artikel hingearbeitet habe, war ich noch davon ausgegangen, dass man durch Reflexion und eine verstärkte Transparenz in Bezug auf die Datenerhebung und ihre Prämissen Diskriminierung zumindest in Teilen abbauen kann. Aber es scheint mir schwer vorstellbar, die Praxis des Predictive Policing als solche demokratisch transparent, kontrollierbar und damit ethisch vertretbar zu gestalten. Dazu würde zum Beispiel gehören, dass man die Polizei als vorurteilsfreie Institution imaginieren kann. Das oder sogar eine vollständig vorurteilsfreie Gesellschaft vorzustellen, fällt mir sehr schwer. Während ich anfangs dachte, man könne Prädiktionstechnologien verbessern, bin ich inzwischen nicht mehr sicher, ob es nicht langfristig eigentlich auf deren Abschaffung hinauslaufen muss, um die Prämisse einzulösen, dass man möglichst wenig Diskriminierungsstrukturen produzieren möchte.

Richard Heise: Ich sehe gerade bei Polizeiarbeit ein grundsätzliches Problem: Die Sozialwissenschaften erheben Daten, um ein einigermaßen vorurteilsfreies und von Diskriminierung bereinigtes Bild zu erhalten. Für Polizeiarbeit sind repräsentative Daten kaum zu bekommen, sodass auch die Entwicklung von Strategien nur eingeschränkt möglich ist.

Malte Kleinschmidt: Betrifft das in deinen Augen speziell Predictive Policing? Ihr habt beide gesagt, auch in der analogen Welt gibt es Probleme, und Racial Profiling, also die verdachtsunabhängige Personenkontrolle nach äußerlichen, rassistischen Kriterien und Zuschreibungen, funktioniert ja auch wunderbar ohne irgendwelche Algorithmen. Und es gibt ja auch durchaus die Position, die im Zuge der Auseinandersetzungen um Black Lives Matter aufgekommen ist, dass man nämlich die Polizei abschaffen muss, weil diese im Endeffekt nur Ungleichheitsverhältnisse zementiert und vor diesem Hintergrund strukturell diskriminierend ist. Oder muss man einen Unterschied machen zwischen der analogen und der digitalen Welt?

Richard Heise: Spontan sehe ich keinen so großen Unterschied dazwischen. Die Grundmotivation für den Einsatz solcher Technologien liegt ja vor allem darin, Personalkosten zu sparen, um die Überwachung großer Gebiete effektiver durchführen zu können. Dafür nimmt man dann vielleicht in Kauf, dass die menschliche Erfahrung keine große Rolle mehr spielt. Aber letztlich geht es sowohl im analogen wie im digitalen Raum darum, dass Polizeiarbeit demokratisch kontrolliert und in einer ständigen Reflexion mit der politischen und gesellschaftlichen Realität sein muss. Das kann man beispielsweise in Form von Weiter- und Fortbildungen bei der Polizeiarbeit machen, wenn denn die Motivation da ist. Unter Umständen könnte das auch stattfinden, indem man Algorithmen weiterentwickelt. Um diese ständige Perpetuierung von Ungleichheiten zu durchbrechen, wären das gegebenenfalls Strategien, die helfen können, die Reproduktion der Grundlagen von diskriminierenden Strukturen anzugehen.

Steve Kenner: Ich würde für die Diskussion der potenziellen Gefahr von Algorithmen gerne den Rahmen erweitern. In meiner Forschung geht es mir um Fragen, die den Effekt von Digitalisierung auf politische Bildung beleuchten, und ich sehe hier einen Bezug zum Thema Polizeiarbeit und generell staatlichem Handeln in Bildungskontexten. Dabei fällt mir beispielsweise ein, dass in den letzten Jahren sogenannte Extremismusklauseln neu verhandelt werden. Bildungsträger werden dazu verpflichtet zu erklären, dass sie selbst und alle, mit denen sie zusammenarbeiten, die freiheitlich-demokratische Grundordnung (fdGO) anerkennen. Vor diesem Hintergrund frage ich mich, inwieweit es möglich ist, dass eine Person durch Algorithmen, die im Bereich Predictive Policing zum Einsatz kommen, auf dem Radar landet, weil sie entweder in einem bestimmten Viertel wohnt, wo es häufiger zu Übergriffen oder Straftaten kommt, oder weil sie durch ihre Tätigkeit, beispielsweise in der offenen Jugendarbeit, mit jungen Menschen arbeitet, die als potenziell gefährdende Gruppe in diesen Algorithmen auftauchen. Kann es passieren, dass solche Personen später Probleme bekommen, wenn sie Jugendbildungsprojekte durchführen wollen? Ich bin nicht sicher, wie begründet diese Sorge ist, wenn ich mir aber vorstelle, dass Daten zunehmend vernetzt werden, scheinen mir solche Überschneidungen denkbar.

Douglas Becker: Es gibt schon zum Teil Ansätze, die das, was du befürchtest, umsetzen. Wenn Predictive-Policing-Technologien im Sinne von Sozialer-Netzwerk-Analyse arbeiten, also primär Personendaten verarbeiten, sind solche Effekte möglich. Ein bekanntes Beispiel ist die „Strategic Subject List“ in Chicago, die ich in meinem Artikel erwähnt habe und die bis 2019 von der Chicagoer Polizei genutzt wurde, um Kriminalität im Vorfeld zu verhindern. Hier wird analysiert, ob Personen etwa zu Gang-Mitgliedern Kontakt haben oder in Waffengewalt- oder Drogendelikte involviert waren. Daraus wird abgeleitet, wer eine hohe Wahrscheinlichkeit hat, erschossen zu werden oder jemanden zu erschießen. Wenn einer Person ein hoher „Risk Score“ zugewiesen wurde, fährt die Polizei vorbei, um sie im Gespräch darauf hinzuweisen, dass sie als besonders gefährdete oder gefährliche Person geführt wird, um möglichst eine Verhaltensänderung herbeizuführen. Allerdings kann der Algorithmus nur eingeschränkt differenzieren, zu welcher Risikogruppe jemand gehört. Als Polizist*in weißt du im Zweifelsfall also nicht, ob das Gegenüber jemand ist, der aus Sicht der Technologie ein potenzielles Sicherheitsrisiko darstellt oder ob es sich um jemanden handelt, der Gefahr läuft, Opfer eines Angriffs zu werden. Entsprechend gibt es über die praktische Anwendung dieser Technologie in Chicago auch eine Reihe von Horrorgeschichten: In einem Fall bezog sich die zugrunde liegende Information auf eine Person, die angibt, selbst nie in Gewaltdelikte involviert gewesen zu sein, aber trotzdem auf der Liste gelandet ist. Nachdem er unangenehm von der Polizei angesprochen, mehrmals besucht und überwacht wurde, haben Menschen aus der Nachbarschaft auf ihn geschossen, weil er scheinbar für einen Spitzel gehalten wurde.

Der Punkt, den du gerade angesprochen hast, spielt auch eine Rolle, wenn wir allgemeiner auf den Nutzen von Big Data eingehen. Es gibt meines Wissens noch keine automatisierte Technologie, die Daten aus sozialen Medien tatsächlich nutzt, um personenbezogene Gefährdungspotenziale zu errechnen, aber Ansätze dafür. Es gibt Ideen, Daten beispielsweise von Facebook oder Twitter zu prozessieren, um „Riots“ vorherzusagen oder herauszufinden, welche Personen, die in einem bestimmten Netzwerk agieren und miteinander sprechen, in irgendeiner Weise kriminell bzw. gefährlich werden könnten. Es gibt also Gründe, sich vor den Effekten zu fürchten, die du beschrieben hast, da es durchaus möglich ist, dass man, ohne es zu wissen, auf bestimmten Listen landet. Dann wird man möglicherweise als potenzielles Risiko behandelt, ohne nachvollziehen zu können, warum exakt das so ist.

2 Digital Citizenship Education – Die Rolle politischer Bildung im gesellschaftlichen Umgang mit Digitalisierung

Steve Kenner: Wenn wir über die Folgen der Digitalisierung sprechen, fände ich es spannend, unseren Beitrag aufzugreifen und gemeinsam zu überlegen, was Digital Citizenship Education in der Auseinandersetzung mit diesen Phänomenen bringt. Ich frage mich, ob es eigentlich ausreichend ist, wenn wir uns darauf konzentrieren, junge Menschen zu mündigen Bürger*innen in der digitalen Welt zu machen. Dabei weicht das grundlegende Handwerkszeug für die digitale Welt kaum von dem ab, was wir mit Citizenship Education schon lange befördern wollen: analytisches Denken, Urteilsfähigkeit, Perspektivenwahrnehmung, Konfliktfähigkeit und Handlungskompetenz. Es ändern sich nur teilweise die Ausdrucksformen und Aktionsfelder. So müssen an Quellen ganz neue Fragen gestellt werden. Es reicht nicht mehr nur zu eruieren, wer die Autor*innen sind, wann der Text erschienen ist und in welchem Kontext; es ist heute auch wichtig, ob ich mir den Text selbst ausgewählt habe oder er mir von Algorithmen vorgeschlagen wurde. Und natürlich verändern sich auch die politischen Handlungsfelder im digitalen Raum, die von digitaler Informationsrecherche bis zum von dir, Douglas, bereits angesprochenen „Hacking“ reichen. Mir erscheint es allerdings nicht ausreichend, nur über Bildungsprozesse zu sprechen. Bei den Aspekten, die Douglas in seinem Beitrag aufgreift, müssen wir möglicherweise einen Schritt weiter gehen und politische Forderungen diskutieren, die über die Subjektwerdung der Einzelnen und ihren Umgang mit der digitalen Welt hinausgehen. Müssen wir nicht die politische Forderung stellen, dass bestimmte Entwicklungen gestoppt werden, bevor sie nicht mehr aufzuhalten sind, weil sich die Algorithmen verselbstständigen? Die sicherheitspolitischen Maßnahmen der vergangenen Jahre zeigen, dass frühzeitige politische Interventionen notwendig sind, weil rechtliche Möglichkeiten, zum Beispiel zur Schleierfahndung1, auch ausgeschöpft werden, wenn sie zur Verfügung stehen. Im Fall der Schleierfahndung, die seit ihrer Einführung in der Kritik steht, führt das auch zur Verstärkung diskriminierender Phänomene wie dem Racial Profiling. Trotz des bis heute durchaus umstrittenen sicherheitspolitischen Nutzens solcher Maßnahmen wird die Ausweitung der Schleierfahndung von politisch Verantwortlichen, insbesondere in Bayern, immer wieder gefordert. Deswegen würde ich zwei Punkte gerne mit euch besprechen. Zum einen interessiert es mich, was wir jungen Menschen mitgeben müssen, um sie zu digitalen Bürger*innen zu machen. Zum anderen frage ich mich, was für politische Forderungen im Umgang mit der Nutzung von Technologien wichtig sind.

Richard Heise: In unserem Artikel geht es nicht nur um Digital Citizenship Education allgemein, sondern wir beziehen uns konkret auf Diskriminierungserfahrungen und „Hate Speech“ auf einer individuellen Ebene. Selbstverständlich stimme ich Steve aber darin zu, dass man im Hinblick auf Technologien zur Kontrolle von Bevölkerungen den Umgang mit „Fake News“ und Desinformation oder auch Algorithmen sehen muss, dass es Initiativen von unterschiedlichen Seiten benötigt. Auf der institutionellen demokratischen politischen Ebene benötigen wir Regeln zum Umgang mit wirtschaftlichen Strukturen im Internet und auf der anderen Seite müssen Anstrengungen im Bildungsbereich unternommen werden, um einzelne Bürger*innen in die Lage zu versetzen, sich kompetent im digitalen Raum zu bewegen. Das sind zwei Seiten derselben Medaille oder zwei Strategien, die parallel verfolgt werden müssen, um wechselseitig Nutzen zu erbringen.

Malte Kleinschmidt: Die Notwendigkeit, Strategien auf unterschiedlichen Ebenen zu entwickeln, gilt aus meiner Sicht für sehr viele Themen. Im Feld der politischen Bildung kann es ja darum gehen, wissenschaftliche Perspektiven didaktisch aufzubereiten. Mit dem Ansatz des Bürger*innenbewusstseins geht es aber auch immer darum, die Perspektiven der Subjekte als Ausgangspunkt zu nehmen. Geht es in eurem Ansatz in diesem Sinne darum, so etwas wie ein digitales Bürger*innenbewusstsein zu schaffen? Dabei könnte es darum gehen, die Art, wie sich Kinder und Jugendliche im digitalen Raum bewegen, nicht als eine Art von Fehlkonzept zu verstehen, dem man entgegentritt, indem man ihnen vermittelt, wie ein mündiger Umgang in der digitalen Welt aussehen soll, sondern dass man vielmehr betrachtet, inwieweit sie selbst funktionierende Praxen entwickeln, und diese aufgreift. Einige dieser Praxen wären sicher auch aus einer emanzipatorischen Sicht zu befürworten, sodass wir als politische Bildner*innen von ihnen lernen könnten. Inwieweit finden sich solche Ideen auch in eurem Ansatz wieder? Würde es dann für politische Bildung im Sinne von Digital Citizenship Education bedeuten, dass man „Openings“ im Sinne, wie sie Isin und Ruppert (2015) in ihrem Buch „Being Digital Citizens“ definieren, wirklich zum Thema macht? Das würde dann bedeuten, dass man Leute darin bestärkt, solche Instrumente im Sinne von „Acts of Citizenship“ zu nutzen, also die Regeln von Citizenship über Akte zu transformieren und damit beispielsweise mehr Menschen Zugang zu bestimmten Rechten zu verschaffen. Denkbar wären ja unterschiedliche Formen von Akten, zum Beispiel „Hacking“ oder „Witnessing“.

Steve Kenner: Um deine erste Frage aufzugreifen, erläutere ich noch einmal kurz zentrale Argumentationslinien unseres Beitrags. Wir haben dort versucht, zwei Dimensionen zusammenzufassen: Zum einen folgen wir einem Verständnis vom Bürgerbewusstsein als lerntheoretischem Zugang, der davon ausgeht, dass Schüler*innen oder allgemein junge Menschen, die sich in der digitalen Welt bewegen, Modelle entwickelt haben, sich diese Welt zu erklären. Diese Modelle sollten wir in institutionalisierten Lernprozessen aufgreifen und Bildungserfahrungen vom Subjekt ausgehend gestalten. Gleichzeitig sehen wir in der digitalen Welt die Gefahr, dass sich das politische Bürger*innenbewusstsein der Menschen noch häufiger als in der analogen Welt in Blasen entwickelt und nicht mehr oder zumindest eingeschränkter mit anderen Positionen konfrontiert wird. Dies widerspricht der (Weiter-)Entwicklung eines politischen Bürgerbewusstseins ein Stück, denn die ideale Vorstellung von der Welt und das reale Erleben scheinen übereinzustimmen, was sie aber natürlich nicht tun. Diese Gefahr, die natürlich nicht erst seit der Entwicklung des Internets existiert, wird in der digitalen Welt verstärkt, weil es deutlich einfacher wird, sich in Filterblasen zu begeben und darin zu verbleiben. Eine kritische Auseinandersetzung mit der Welt wird dadurch nicht unmöglich, aber Anregungen dazu werden eingeschränkt. Deswegen sollten wir als politische Bildner*innen aus meiner Sicht beides einbeziehen. Es geht sowohl um die Erfahrungen, die junge Menschen mit digitalen Medien und in digitalen Netzwerken sammeln, als auch um ihre Vorstellungen von der Welt, die sich daraus entwickeln. Zugleich müssen wir uns damit kritisch auseinandersetzen und untersuchen, wie sich das politische Bürgerbewusstsein der Subjekte in der digitalen Welt entwickelt und wo es an Grenzen stößt, weil die Debatte um Positionen durch die Art und Weise, wie das Internet funktioniert, teilweise eingeschränkt wird.

Eigentlich beginnen wir mit politischer Bildung in der Schule viel zu spät. Einige Bundesländer beginnen damit erst in der 9. Klasse. In anderen Ländern gibt es Gesellschaftskunde oder Gemeinschaftskunde, was meist in der 7. Klasse einsetzt. Im Sachunterricht, also der Grundschule spielen die gesellschaftspolitischen Felder nach wie vor eine untergeordnete Rolle. Dabei sind auch Grundschüler*innen bereits als „Young Citizens“ zu verstehen, denn auch sie machen sich bereits ein Bild von der (politischen) Welt. Studien zeigen, dass schon Kinder ein sehr reflektiertes Verständnis von politischen Verhältnissen und auch von politischen Begriffen haben. Das zeigt zum Beispiel eine Studie aus dem von Jan van Deth geleiteten DFG-Forschungsprojekt „Demokratie Leben Lernen“2, in der Grundschulkinder zu ihren Vorstellungen von bestimmten Politikbegriffen befragt wurden. Das Ergebnis war spannend: Schon Erstklässler*innen haben ein sehr komplexes Verständnis von politischen Begriffen, wenn auch natürlich unterschiedlich ausgeprägt. Man kann im Prinzip also ab der 1. Klasse mit politischer Bildung anfangen, auch wenn diese sicher anders aussehen müsste, als das in höheren Jahrgängen der Fall ist. Und man sollte auch in der Grundschule bereits mit digitaler politischer Bildung anfangen, und zwar nicht als politische Bildung mit digitalen Medien, sondern als Vorbereitung auf den kritischen Umgang mit digitalen Medien.

Generell glaube ich übrigens, dass wir den Großteil dessen, was wir in unserem Beitrag beschreiben, in der politischen Bildung schon seit vielen Jahren diskutieren. Wir haben sechs Punkte genannt, die zentral sind, wenn es darum geht, was politische Bildung als Digital Citizenship Education leisten soll: analytische Fähigkeiten stärken, Orientierung des Selbst in der Welt stärken und dabei die Wirkung der digitalen Medien und Netzwerke berücksichtigen, Perspektivenwahrnehmung entwickeln, Urteilsbildung auf sachlicher und wertegebundener Ebene ermöglichen und Handlungskompetenz entwickeln. Das Spannende für die Frage, was im Zuge der Digitalisierung passiert, ist, dass technische Fähigkeiten nicht losgelöst von politischer Bildung entwickelt werden sollten. Vor dem Hintergrund der Corona-Pandemie wird gerade intensiv darüber diskutiert, Medienbildung als selbstständiges Fach zu stärken bzw. auf die Stundentafel zu setzen. Ich bin davon überzeugt, dass die technischen Fähigkeiten nicht losgelöst von einer kritisch-reflexiven Auseinandersetzung mit Medien im Sinne politischer Bildung entwickelt werden sollten. Bildung, die auf politische Mündigkeit abzielt, darf nicht im analogen Raum stehen bleiben, sondern muss mit der Befähigung, sich im digitalen Raum zu bewegen, verbunden werden. Wir führen am Institut für Didaktik der Demokratie der Leibniz Universität Hannover mit Kolleg*innen von der University of Hong Kong gerade eine Studie3 durch, in der wir Lehrer*innen fragen, was ihre Vorstellung von digitaler Bürgerschaft ist und wie sie junge Menschen darauf vorbereiten. Dabei haben Lehrkräfte angegeben, die klassischen Elemente der politischen Bildung von der Analysekompetenz bis hin zur politischen Handlungskompetenz zu vermitteln. Wenn es um die Übertragung auf den digitalen Raum geht, verweisen sie in den Interviews aber teilweise darauf, dass sie dafür nicht zuständig seien. Das müssten die Kolleg*innen der Informatik/Medienbildung übernehmen. Wir müssen aus meiner Sicht dringend darauf achten, dass sich diese Trennung nicht verfestigt. Deshalb ist jetzt der Moment, in dem wir in der schulischen Bildung dafür sorgen müssen, dass die politische Bildung im analogen und digitalen Raum nicht losgelöst voneinander stattfindet.

3 Der Umgang mit digitalen Technologien als politische Frage

Douglas Becker: Die Darstellung in meinem Artikel, wie Predictive Policing wirksam wird, kann als Beleg dafür verstanden werden, dass eure Perspektive sinnvoll ist. Wenn ich neben technischen „Skills“ keine Kenntnisse darüber vermittelt bekomme, auf welche Weise und mit welchem Ziel Daten durch staatliche, wirtschaftliche oder andere Akteur*innen in Bezug zueinander gesetzt werden können, kann ich auch kein kritisches Verhältnis zu solchen Macht- und Interessenlagen entwickeln und vielleicht überdenken, ob ich an der Entwicklung von bestimmten Technologien beteiligt sein will. Ich möchte aber noch auf einen weiteren Punkt hinweisen, nämlich auf die Verselbstständigung von Algorithmen und den Blackbox-Charakter, durch den man im Nachhinein nicht mehr nachvollziehen kann, warum der Algorithmus sich so oder so darstellt. Ihr habt das in eurem Beitrag ungefähr so umschrieben: „Ich weiß gar nicht, warum mir das vorgeschlagen wird, warum ist das jetzt eine auf mich zugeschnittene Info“. Es braucht sicherlich ein gewisses Maß an kritischer und politischer Kompetenz, um sich mit den Inhalten von solchen Informationen reflektiert auseinanderzusetzen. Mindestens ebenso wichtig scheint mir ein basales Verständnis von Technik zu sein. Es geht darum, nachvollziehen zu können, wie Daten durch die Technik relevant gemacht werden, um überhaupt ein kritisches Verhältnis zu diesen Daten und damit verbundenen Praktiken zu entwickeln. Deswegen stimme ich zu, dass wir neben einer kritischen Perspektive auf die Inhalte von Daten eine technikkritische Perspektive institutionalisieren sollten. Das ist am Ende der Gleichung sicherlich eine politische Forderung.

Richard Heise: Ich möchte auf die von Malte angesprochenen callings und openings und den Bezug zur Theorie von Engin Isin zurückkommen. Wir haben das nicht explizit aufgeschrieben, für mich gehören sie aber durchaus zu dem Feld, um das es uns geht. Schüler*innen sollen motiviert werden, ihre Kompetenzen in der Nutzung digitaler Anwendungen nicht nur für private Zwecke, sondern für politische Partizipation zu nutzen. Diese Möglichkeit ist in der Erfahrungswelt von Schülerinnen und Schülern vielleicht noch nicht sehr präsent, daher ist es auch wichtig, ein grundsätzliches politisches Interesse zu fördern. Die Art und Weise, wie das demokratische System in Deutschland funktioniert und wie wichtige Entscheidungen getroffen werden, wird noch nicht sehr von Diskursen im Internet bestimmt. Das ändert sich in Zukunft vielleicht. Das Bewusstsein, dass Politik im Internet gemacht wird oder dass sich hier Möglichkeiten politischer Teilhabe eröffnen, ist wichtig. Auch junge Menschen können motiviert werden, diese Plattform zu nutzen, wie sich ja aktuell im Kontext von „Fridays for Future“ zeigt, wo Schüler*innen sich über digitale Kanäle vernetzen, um Wissen auszutauschen und Aktivitäten zu koordinieren. Diese Formen der Vernetzung können einerseits als selbst initiierte Formen politischen Lernens und Handelns verstanden werden und haben zugleich durch gezielte Kommunikationsstrategien auch einen zunehmenden Einfluss auf den allgemeinen politischen Diskurs.

Neben diesen theoretischen Überlegungen dazu, was wünschenswert wäre, muss man im Bereich Schule natürlich auf die Möglichkeiten der konkreten Umsetzung digitaler politischer Bildung im Unterricht eingehen. Sie ist oft erschwert, weil die Lehrkräfte gar keine Zeit haben, sich mit der technischen Infrastruktur an der Schule auseinanderzusetzen. Im Moment müssen sich einzelne Lehrkräfte freiwillig und am Nachmittag um die IT-Struktur der Schule kümmern, womit sie natürlich ein Stück weit überfordert sind. Es fehlt also an Unterstützung und an Personal, um diese Baustelle zu schließen. Die Corona-Pandemie zeigt deutlich, wie mangelhaft der Zustand der Digitalisierung an Schulen ist. In unserem Artikel haben wir die These vertreten, dass diese „Digital Gaps“ gesamtgesellschaftlich existieren. Um sie zu bearbeiten, würde es im ersten Schritt darum gehen, für alle den technischen Zugang zu ermöglichen, um darauf aufbauend den „Second Digital Gap“, also den Unterschied in den digitalen Kompetenzen, langsam zu schließen. In Bezug auf die Schulen wird eigentlich immer noch am ersten „Digital Gap“ gearbeitet. Man ist noch gar nicht so weit, überhaupt darüber nachzudenken, wie man die technischen Kompetenzen weiterentwickeln und sie eben auch notwendigerweise mit Schulfächern wie Politikunterricht verbinden kann.

Steve Kenner: Wir haben eben am Beispiel der Polizeiarbeit über die Entwicklung von Algorithmen geredet, diese Entwicklung betrifft aber weite Teile von Gesellschaft und Wirtschaft. Gerade automatisierte Berechnungen, also die Prozesse von Algorithmen, sind immer auch mit politischen Fragen oder mit Fragen von Moral und Ethik verbunden. Ein prominentes Beispiel ist die klassische Dilemmasituation beim automatisierten Fahren, also dem Fahren ohne Fahrer*in: Links würde das Auto beim Ausweichen eine Familie mit einem Kind erwischen, rechts einen 80-Jährigen. Welche Entscheidung soll das Programm treffen? In den Debatten darum, fehlt mir oft die Dimension der politischen Bildung. So wurde im Hinblick auf das Beispiel zwar viel über Moral und Ethik gesprochen, andere Fragen wurden aber nur eingeschränkt diskutiert. Aus der Perspektive der politischen Bildung würden wir beispielsweise auch fragen, warum wir überhaupt in die Situation kommen, dass ein Auto unabhängig vom Menschen diese Entscheidung fällen kann, wer das Auto programmiert usw. Aus diesem Grund halte ich es für wichtig, dass wir politische Bildung und Digitalisierung zusammen denken. Dabei geht es mir nicht nur um ein Unterrichtsfach: Ich halte die Auseinandersetzung mit diesen Prozessen für eine Aufgabe, die Schulen insgesamt betrifft, und es ist auch eine Aufgabe der außerschulischen Jugend- und Erwachsenenbildung.

Richard Heise: In unserem Artikel haben wir auch angesprochen, dass sich Identitätskonstruktionen durch die Digitalisierung ein Stück weit verändern. Öffentlichkeit und soziale Interaktion finden zu großen Teilen im Internet statt, und man hat die Möglichkeit, neue und vielfältige Profile und Identitäten zu erstellen. Dies verändert die Rahmenbedingungen für Prozesse der Sozialisation und Identitätskonstruktionen von Jugendlichen, was einer optimistischen Perspektive mit der Möglichkeit verbunden wurde, diskriminierenden Statuszuschreibungen zu entgehen. Allerdings zeigt sich auch, dass bestehende Formen von Diskriminierung in den digitalen Raum übertragen werden und Mechanismen sozialer Netzwerke diese quantitativ verstärken. Ein weiterer problematischer Aspekt alternativer oder vervielfältigter Identitäten im digitalen Raum besteht im Zusammenhang mit politischen Debatten im Internet, bei denen quantitative Zustimmung vieler virtueller Personen mit demokratischen Prozessen gleichgesetzt wird. In diesem Kontext wird es zunehmend schwieriger zu beurteilen, wer wofür verantwortlich ist, wer wie auf welcher Seite handelt, wer Einfluss nimmt. Das sind Dinge, die auch Kinder und Jugendliche vielleicht nicht besonders reflektieren, aber unterbewusst erleben, wenn sie sich in sozialen Netzwerken aufhalten. Sie geben sich vielleicht andere Namen, erfinden andere Hintergrundgeschichten oder Ähnliches. Auch das sollte im schulischen Unterricht reflektiert werden, um überhaupt das Bewusstsein für solche Prozesse zu stärken.

4 Wer trägt die Verantwortung? Politische Forderungen um die Frage des Umgangs mit digitalen Technologien

Douglas Becker: In Steves Ausführungen zu dem selbstfahrenden Auto steckte noch ein interessantes weiteres Argument, und zwar im Hinblick auf die Frage, wer an der Programmierung und Implementation des Algorithmus beteiligt ist, wer Entscheidungen trifft. Einerseits sehen wir, dass man das im Nachhinein nicht mehr unmittelbar nachvollziehen kann, das hatten wir ja in Bezug auf das Blackbox-Phänomen schon angerissen. Auf der anderen Seite illustriert das einen sich daraus ergebenden Fallstrick, der in der an Ethik orientierten Forschung zu künstlicher Intelligenz und Robotik als Frage von Verantwortungszurechnung beschrieben wird: Wie können wir feststellen, wer verantwortlich zu machen ist, wenn ein Fehler passiert ist? Übertragen auf Predictive Policing ist zu fragen, wer die Verantwortung für das Erstellen und die Umsetzung einer fehlerhaften Prognose trägt. Sind es die Herstellenden, die Programmierenden, die implementierenden Polizist*innen? Das ist eine sehr komplexe Problematik, die diese Debatte um den Einfluss digitaler Technologien auf analoge soziale Praktiken durchzieht.

Steve Kenner: Ich frage mich, ob wir für Entscheidungen, die bei der Entwicklung von Algorithmen getroffen werden müssen, zumindest im Vorfeld einen Ethikrat bräuchten. Und gleichzeitig überlege ich, ob die Frage nach Ethik oder Moral eigentlich ausreichend ist. In der politischen Bildung reicht es nicht aus, dass Schülerinnen und Schüler, Kinder und Jugendliche befähigt werden, sich ein Urteil auf der Grundlage moralischer Prinzipien zu bilden. Die Urteilsbildung, wie sie hier unterstützt werden soll, ist viel komplexer und beinhaltet Sachurteile, die sich auf fachliche Aspekte (beispielsweise empirische Studien) stützen ebenso wie Werturteile, die auf dem unhintergehbaren Kern unserer Demokratie, den Grund- und Menschenrechten, aufbauen. Mich treibt deshalb die Frage um, ob nicht für jeden Fall, in dem sich Algorithmen verselbstständigen, ein vorgeschalteter Prozess nötig wäre, den wir als politische Bildung beschreiben könnten und der mit den Akteur*innen durchlaufen wird, die Algorithmen entwickeln. Dieser Gedanke ist noch sehr unausgereift, aber vielleicht braucht es neben einem Ethikrat als unabhängige Entscheidungsinstanz bereits in der Ausbildung zukünftiger Informatiker*innen mehr politische Bildung.

Richard Heise: Das wäre tatsächlich kompliziert, nicht zuletzt, weil unsere demokratischen Institutionen mit der grenzübergreifenden Struktur des Internets nicht korrelieren und rechtliche Zuständigkeiten nicht geklärt sind. Aus diesem Grund wird jeder Impuls seitens der Politik, das Internet in irgendeiner Art und Weise zu regulieren, nicht ganz zu Unrecht belächelt. Solche Initiativen erscheinen oft hilflos und der Sache nicht angemessen, obwohl der Bedarf für Interventionen existiert. Es ist aus meiner Sicht auch ein Hinweis darauf, warum sich demokratische Institutionen zurückhalten, wenn es darum geht, aktiv zu werden und beispielsweise darüber zu diskutieren, wie man die Entstehung von Algorithmen auch gesellschaftlich beeinflussen kann. Es erklärt zudem, woraus die unregulierten Strukturen in diesem Bereich resultieren. Es existiert in gewissem Sinne ein Vakuum, das von wirtschaftlichen Akteur*innen genutzt werden kann, um technische Lösungen zu entwickeln, die beispielsweise von der Polizei auch genutzt werden.

Douglas Becker: Ich halte die Idee eines Ethikrates vom Prinzip her für einen guten Ansatz. Es würde darum gehen, eine Art vorgelagerte Reflexion, also eine zusätzliche Stufe der Auseinandersetzung mit ethischen Fragen in Bezug auf Digitalisierung, einzubauen, sodass über Fallstricke der Technologie gesprochen werden kann, bevor diese implementiert wird. Darüber hinaus scheint es mir sinnvoll zu sein, den Reflexionsprozess auch während der Implementationsphase fortlaufen zu lassen, um Verzerrungen oder andere Schwierigkeiten frühzeitig zu erkennen. Ein Problem, das ich hier sehe, besteht darin, dass diese Prozesse transparent sein sollten, dass es letztlich so etwas wie eine gesellschaftspolitische Debatte darum geben muss. In dem Beispiel Roermond, das ich in meinem Artikel diskutiere, wurden ethische Diskurse geführt, um die verwendete Technologie zu prüfen. Dieser Ethiktisch hat sie letztlich als okay befunden, wobei sich auch nicht nachvollziehen lässt, was aus welchem Grund wie bewertet wurde und wer an dieser Entscheidungsfindung beteiligt war. Mit einem Ethikrat allein ist es letztlich also auch noch nicht getan, wenn dessen Arbeit nicht transparent und nachvollziehbar gemacht wird. Es muss klar sein, warum der Rat die Entscheidung trifft, dass eine Technologie genutzt werden kann und eine andere möglicherweise nicht.

Malte Kleinschmidt: Ich sehe zwei große Probleme bei dem Vorschlag, durch eine Art Ethikrat eine demokratische Kontrolle zu implementieren. Zum einen gibt es bereits solche Gremien und trotzdem wird Racial Profiling systematisch praktiziert. Soziale Ungleichheitsstrukturen werden trotzdem sowohl in der analogen als auch der digitalen Welt hingenommen. Aus meiner Sicht ist es eine Frage der Machtverhältnisse, ob die Invisibilisierung von Diskriminierung und Ungleichheit überhaupt anerkannt wird. Insofern teile ich deine Einwände, Douglas, und bin skeptisch, ob die Einrichtung von Ethikräten wirklich ein Lösungsansatz wäre. Zudem stimme ich Richard in der Frage zu, inwieweit die politische Regulierung des Netzes überhaupt möglich ist. Was wäre eine daraus abzuleitende Forderung? Wir wollen weder eine systematische Verstaatlichung mit der daraus folgenden Zensur und Kontrolle noch die existierende privatisierte Form, in der eine Handvoll Konzerne gesellschaftliche Ordnungs- und Wissensstrukturen wesentlich mitbestimmt. Welches Ziel über einen etwas – wie ich finde – verlorenen Versuch eines Ethikrates hinaus wäre denkbar, wenn es um diese Fragen geht? Denkbar wären vielleicht staatlich und privatwirtschaftlich unabhängige Serverstrukturen, unabhängige Suchmechanismen, unabhängige soziale Netzwerke? Sind das Perspektiven, über die man nachdenken sollte?

Richard Heise: Grundsätzlich ist die Frage nach dem demokratischen Staat und seinem Verhältnis zum Internet sehr komplex. Im Hinblick auf Fake News und Desinformation wird es in Deutschland beispielsweise begrüßt, dass es einen öffentlich-rechtlichen Rundfunk gibt. So soll zumindest in einem Teil der digitalen Infrastruktur gewährleistet sein, dass es eine gewisse demokratische Kontrolle in der Verbreitung von Informationen und Nachrichten gibt. In anderen Ländern wird teils genau entgegengesetzt argumentiert, nämlich dass ein staatliches Monopol auf Informationen und Nachrichten staatlicher Propaganda in die Hände spielt. So verlässt man sich hier nur auf private Quellen, und das hat Einfluss auf die Berichterstattung. Vor diesem Hintergrund ist es schwierig, von einem Land aus über dessen Grenzen hinausweisende Strukturen etablieren zu wollen. Nationale Begrenzungen funktionieren im digitalen Raum nicht, sodass ich hier eine Hürde sehe. Daher ist es im Moment nur in begrenztem Maß realisierbar, dass Teile des Internets oder zumindest wichtige Infrastrukturen mit demokratischer Kontrolle verbunden werden.

Steve Kenner: Malte, ich würde dir hier widersprechen. Zunächst einmal glaube ich, dass Racial Profiling sich zwar in der Praxis flächendeckend zeigt, dass es aber gleichzeitig einen gesellschaftlichen Konsens darüber gibt, dass diese Praxis nicht in Ordnung ist. Obwohl es nicht in dem Maße unabhängig untersucht wird, wie das notwendig wäre, ist klar, dass Racial Profiling – zumindest offiziell – politisch nicht erwünscht ist.

Malte Kleinschmidt: Das würde ich bestreiten, wenn ich kurz einhaken darf.

Steve Kenner: Gleichzeitig wird geleugnet, dass es diese Praxen gibt.

Malte Kleinschmidt: Genau!

Steve Kenner: Ich will das nicht in Abrede stellen, aber es wäre für mich kein Argument gegen die Überprüfung. Das wäre die Idee von einem Ethikrat oder einer ähnlichen Institution, die man anrufen kann, weil man in der Praxis Fälle von Racial Profiling wahrnimmt. Bevor bestimmte Algorithmen zugelassen werden, muss es eine Institution geben, die nicht nur gut Algorithmen berechnen kann, sondern sich den Vorhaben aus ganz unterschiedlichen Perspektiven widmet: Es wird ein technisches Verständnis benötigt, aber eben auch ein politikwissenschaftliches, soziologisches oder psychologisches Verständnis über die möglichen Folgen bestimmter Entscheidungen bzw. Entwicklungen autonomer Techniken. Es bleibt die Frage, wer die Programmierung sieht, die hinter den Algorithmen steht. Eine öffentliche Kontrolle wird es nicht geben, solange solche Daten nicht offengelegt werden müssen. Und das wird, ähnlich wie in der Medizin, nicht getan, weil es die Grundlage dafür darstellt, dass man damit Geld verdienen kann. Daher wäre eine mögliche Forderung, noch früher anzusetzen: politische Bildung in der Informatik etablieren. In den Studiengängen, in denen Studierende lernen, Algorithmen zu entwickeln, bedarf es einer Auseinandersetzung mit den gesellschaftlichen und politischen Auswirkungen, damit sie nicht nur technische Expertise entwickeln, sondern sich auch mit den Auswirkungen auseinandersetzen.

Richard Heise: Das Beispiel der Mathematiker*innen in den USA, das Douglas in seinem Artikel erwähnt, zeigt, dass solche Initiativen auch aus dieser Richtung kommen. Sie haben dazu aufgerufen, sich nicht an der Verarbeitung von Algorithmen zu beteiligen, die zur Verfestigung rassistischer Aspekte in Strategien von Predictive Policing beitragen.4 Das ist ein Beispiel dafür, dass ein Bewusstsein für diese Zusammenhänge durchaus existiert, aber nach wie vor breiter ausgeprägt sein könnte.

Douglas Becker: Meine Antwort zu den Ethikräten sehe ich nicht unbedingt als Widerspruch zu Steves Idee, sondern als einen Hinweis. Man braucht Transparenz auf den unterschiedlichen Stufen der Entwicklung und Implementation von Technologien, um ansatzweise dahin zu kommen, dass solche Prozesse demokratisch kontrolliert werden. Damit sie irgendwann in einer ethischen oder moralisch vertretbaren Weise operieren, scheint mir die Idee einer grundsätzlichen Kontrollfunktion definitiv wichtig. Auch die Bildung eines Bewusstseins für verschiedene Arten von sensiblen Bereichen, in die das Technische hineinspielt, halte ich für zentral. Das folgt der Einsicht der techniksoziologischen Forschung, dass man Technik und Gesellschaft nicht analytisch-heuristisch als zwei voneinander losgelöste Dinge betrachten kann, sondern beide Bereiche müssen zwingend zusammengedacht werden.

Malte Kleinschmidt: Douglas, Steve und Richard, danke, dass ihr euch heute bereit erklärt habt, einige Punkte aus euren Aufsätzen nochmal im Detail zu besprechen. Danke für das wunderbare Gespräch mit euch!