Auf diesem Weg muss man sich jedoch einer sehr unbequemen Wahrheit stellen: KI und Big Data sind bereits dabei, die Kolonialität (das Denksystem des Kolonialismus) für ein Zeitalter der ständigen Überwachung, der Kommunikation in Echtzeit und der grenzenlosen Verwaltungsmacht umzurüsten.

Wenn das stimmt, ist es unerlässlich, die Geschichte der Computertechnologien, die KI und Big Data erst ermöglicht haben, neu zu interpretieren, um die heutigen Formen des kolonialen Denkens in Frage zu stellen. Dazu ist es hilfreich, einen Blick in die fast vergessene Vergangenheit der Informatik zu werfen. Der Mathematiker Norbert Wiener, der wesentlich zur Entwicklung des Computers beitrug, war auch einer der Ersten, die mögliche Bedrohungen vorhersahen. In der ursprünglichen Einleitung seines 1948 erschienenen Buchs Kybernetik, einem der einflussreichsten Texte der Computerwissenschaft, schrieb er:

Es war mir schon lange klar gewesen, daß die modernen ultraschnellen Rechenmaschinen im Prinzip ein ideales zentrales Nervensystem für eine automatische Regelungsanlage sind … Lange vor Nagasaki und dem öffentlichen Bekanntwerden der Atombombe ging es mir auf, daß wir hier vor einer neuen gesellschaftlichen Möglichkeit mit ungeahntem Einfluß zum Guten oder Bösen hin stehen.[1]

Ernüchternde Worte, noch dazu so kurz nach dem Abwurf der Atombomben auf Japan. Offensichtlich sah Wiener mit der

Natürlich konnte er die Welt der vernetzten Computer nicht vorhersehen, die uns Big Data, digitale Plattformen und die KI beschert haben. (Die »ultraschnellen Rechenmaschinen«, von denen er schrieb, füllten damals noch ganze Räume, ihre Antwortzeit bemaß sich in Tagen und nicht in Mikrosekunden.) Doch schon damals beunruhigte ihn das gesellschaftliche Potenzial, das Computer als Kontroll- und Herrschaftsinstrumente besaßen. Mit anderen Worten: Seine Befürchtungen nahmen bereits die Bedenken vorweg, die der Datenkolonialismus heute hervorruft.

Doch trotz des hohen Ansehens, das Wiener als Mitbegründer des Computerzeitalters genoss, schlug man seine Warnungen in den Wind. Niemand schenkte ihnen Beachtung, als in den späten 1980er Jahren vernetzte Computer in allen Gesellschaftsbereichen Einzug hielten. Das änderte sich auch nicht, als die Kontrolle über das Internet Anfang der 1990er Jahre von der öffentlichen Hand auf private Unternehmen überging. Und auch als die Plattformen der sozialen Medien Anfang der 2000er Jahre Datenterritorien unter ihrer direkten Kontrolle einzurichten begannen, erinnerte sich niemand an Norbert Wieners Warnung.

Erst in jüngster Zeit und in dem sehr speziellen Kontext des massiven Einsatzes von KI, die ChatGPT und anderen neueren Entwicklungen zugrunde liegt, greift man auf Wiener zurück. Der KI-Experte Stuart Russell, der im Rahmen der Reith Lectures der BBC einen Vortrag zu diesem Thema hielt, erinnerte an Wieners Bedenken, als er kürzlich die Entwicklung der AGI kritisierte.[2] Wiener ahnte bereits, welch elementare Probleme Computer aufwerfen würden, bis hin zur Frage nach »Gut und

Aber Wieners Warnungen reichten weiter. Er äußerte auch die Befürchtung, Computermaschinen könnten dem Menschen die Arbeit wegnehmen, eine Sorge, die bereits im späten 19. Jahrhundert Schriftsteller wie Samuel Butler äußerten. Wiener war sich unschlüssig, ob eine solche Entwicklung als gut oder schlecht für den Menschen einzuschätzen wäre. In einem Punkt war er sich jedoch sicher:

Es kann nicht gut sein, diese neuen Möglichkeiten nach den Begriffen des Marktes einzuschätzen, des Geldes, das sie verdienen … Die Antwort ist natürlich, daß wir eine Gesellschaft haben müssen, die auf menschliche Weise gegründet ist und nicht auf Kaufen und Verkaufen.[5]

Wir haben nicht einmal die Möglichkeit, diese neuen technischen Entwicklungen zu unterdrücken … Wir können bestenfalls dafür sorgen, daß eine breite Öffentlichkeit die Richtung und die Lage der gegenwärtigen Arbeit versteht … Wie wir gesehen haben, gibt es Leute, die hoffen, daß der Gewinn eines besseren Verstehens von Mensch und Gesellschaft, der sich durch dieses neue Arbeitsgebiet anbietet, die gelegentlichen Zugeständnisse, die wir an die Machtzusammenballung machen … voraussehbar und damit unüberwindbar machen wird. Ich schreibe im Jahr 1947, und muß gestehen, daß es eine sehr schwache Hoffnung ist.[6]

Wieners Sorge war letztlich, Computer könnten sich zu gesellschaftlichen Kontrollmechanismen entwickeln, die allein Marktgesetzen und nicht humanitären Werten folgen und letztlich allein zum Machterwerb eingesetzt werden.

Ohne Zweifel war Wieners Einschätzung auch von den damals noch frischen Erfahrungen mit dem Faschismus und vielleicht ebenso von der sowjetischen Politik geprägt, die auch andere Autoren beschäftigten – ein Jahr später veröffentlichte George Orwell seinen Roman 1984. Überholt sind Wieners Befürchtungen jedenfalls nicht. Nicht nur Orwells Werk ist in unseren immer engmaschiger überwachten Gesellschaften aktueller denn je, auch Wieners Warnungen erhalten durch die massiv ungleichen Machtverhältnisse der heutigen Datenterritorien eine Bestätigung.

In den 1970er und 1980er Jahren knüpfte eine kleine Gruppe von Informatikern an Wieners Sorgen um die gesellschaftlichen Kosten eines unkontrollierten Anwachsens der Rechnerleistung an. Typisch für die damalige Zeit handelte es sich um weiße Männer – dennoch können wir viel von ihnen lernen. Wenden wir uns also einer dieser Stimmen zu: Joseph Weizenbaum, Professor für Informatik am MIT. Er entwickelte in den 1960er Jahren erste Computer für Banken, erlangte aber vor allem durch die Programmierung eines der ersten Systeme zur Verarbeitung natürlicher Sprache Berühmtheit.

Das Programm trug den Namen ELIZA. Paradoxerweise weckten nicht die Misserfolge, sondern die offensichtlichen Erfolge von ELIZA Weizenbaums Besorgnis über die weitere Entwicklung der Informatik. Zum großen Erstaunen aller gelang es dem Programm, mit einem Menschen aus Fleisch und Blut wie in einer psychotherapeutischen Sitzung zu interagieren. Dabei vermittelte es ihm nicht bloß den Eindruck, es könne ihn verstehen, es erteilte ihm auch Ratschläge. ELIZA, so schien es, hatte den berühmten Turing-Test erfolgreich bestanden: Wenn ein Mensch nicht mehr sicher erkennen kann, ob die Antworten eines Computers von einer Maschine stammen, muss man dem Computer Denkfähigkeit unterstellen. Als das Skript dieser therapeutischen »Unterhaltung« veröffentlicht wurde, erhielt der »therapeutische« Computer schnell den Spitznamen DOCTOR. Doch Weizenbaum war alarmiert: Die Wissenschaftler sahen in dem Skript nicht nur eine einfache Demonstration, sondern eine Blaupause für eine automatisierte Psychotherapie – mithin eine Methode, Unmengen Zeit und Geld zu sparen! Wenn Wissenschaftler die Grenzen der

Für Weizenbaum lag es auf der Hand, dass den Möglichkeiten von Computern Grenzen gesetzt sind. Computer sind schließlich Maschinen, die Regeln anwenden, was nur funktioniert, wenn diese absolut eindeutig formuliert sind. Menschen verstehen im Unterschied dazu Dinge aus dem Kontext heraus, der zum großen Teil unausgesprochen bleibt. Die Leistung des Verstehens hat also Anteile, die Menschen (und ebenso Tiere) durch ein Kontextverständnis erbringen können, über das Computer nicht verfügen. Das müssen wir uns stets vor Augen halten, bevor wir uns zu sehr auf Computer verlassen.

Weizenbaum interessierte sich auch für eine andere Art von Grenzen, nämlich die moralischen. Als Informatiker verstand er, dass die Abhängigkeit eines Computers von expliziten Anweisungen notwendigerweise Grenzen für sein Funktionieren in einem sozialen Umfeld setzt:

[Ein] Computersystem, das nur bestimmte Arten von »Daten« zuläßt … hat viele Türen ein für allemal zugeschlagen, die vor seiner Installierung offenstanden.[8]

Doch einige dieser Türen, die der Rechner verschließt, könnten für den Menschen wichtig sein. Wenn dem so ist, müssen wir nicht nur fragen, was ein Computer tun kann, sondern auch, was er tun sollte (oder nicht tun sollte). Um es mit Weizenbaum zu sagen: »›Können‹ heißt nicht ›Sollen‹.«[9]

Was Weizenbaum zunehmend beunruhigte (und ihn dazu bewog, das Buch Die Macht der Computer und die Ohnmacht zu schreiben), war, dass so viele Wissenschaftler die unvermeidlichen Grenzen von Computern ignorierten. Die etablierte Informatik, so Weizenbaum, sei zu sehr an Kontrolle interessiert. Damit meinte er nicht die breite gesellschaftliche Kontrolle, die Wiener fürchtete, sondern die enge instrumentelle Kontrolle, die Programmierer bei der Bedienung eines Computers ausüben. Doch auch diese engere Art der Kontrolle hatte gesellschaftliche Folgen: Sie war eine Form der Macht, die sich nach Weizenbaums Ansicht in der Gesellschaft ausbreitete. Das letzte Kapitel seines Buches trägt den Titel »Gegen den Imperialismus der instrumentellen Vernunft«. Er sah eine neue Art von gesellschaftlicher Ordnung heraufziehen und betrachtete es als Notwendigkeit, unserem Umgang mit Computern moralische Grenzen zu setzen.

Weizenbaum vertrat entschieden die Ansicht, »daß bestimmte Denkakte ausschließlich dem Menschen vorbehalten sein sollten«.[10] Und auch wenn er sich nicht direkt mit Rassismus oder Kolonialismus beschäftigte (wohl aber mit dem Imperialismus), hatte der Grund für Weizenbaums Besorgnis etwas mit den Fragen gemein, die Quijano und Wynter über die Kolonialität der Macht aufwarfen: »[Computer-]Systeme … haben die Vernunft selbst lediglich auf deren Rolle bei der Beherrschung von Dingen, Menschen und letztlich der Natur reduziert.«[11] Weizenbaums Furcht vor der Art von Gesellschaft, die sich entwickeln könnte, wenn die Computermacht in dieser beschränkten Weise genutzt wird, erinnert an Simpsons Warnung vor den Gefahren des dekontextualisierten Wissens, das außerhalb des menschlichen Kontextes entsteht. Solchem Wissen mangelt es womöglich an Verantwortlichkeit – genau die Befürchtung, die derzeit über KI geäußert wird.

Weizenbaum äußerte seine Bedenken angesichts einer Welt,

Was sagen uns diese Stimmen aus der Frühgeschichte der Informatik? Dass die These vom Datenkolonialismus keineswegs abwegig ist, sondern genau die Besorgnis über die uneingeschränkte Nutzung der Computermacht widerspiegelt, die führende Denker der Informatik von Anfang an geäußert haben.