Ich unterhielt mich mit der Managerin eines US-Unternehmens über die Frage, wie wir das Thema Datenschutz zukünftig betrachten müssen. Sie rollte ein wenig mit den Augen und erklärte mir, dass dies die Standardsorge aller Deutschen sei. Für sie in den USA sei das nicht immer verständlich. So gäbe es in ihrem Unternehmen ein internes Bewertungssystem für die eigene Arbeit, das man freiwillig nutzen könnte. Sie zum Beispiel aktiviere es gerne, weil sie dadurch wichtige Erkenntnisse bekäme, zum Beispiel, dass sie immer häufiger zu spät zu Meetings komme und sich in letzter Zeit zu wenig Fokus-Zeit eingestellt habe. Diese Art der Beobachtung ihrer Arbeit und der Hinweise des Systems empfinde sie als Bereicherung und Hilfe.
Solche Optimierungssysteme des internen Workflows und der persönlichen Arbeit gibt es nicht überall, mancher Betriebsrat dürfte damit ein Problem haben. Was es aber überall gibt, ist Office-Software. Besonders Microsoft Office ist verbreitet. Mit Copilot hielt nun eine Version Einzug in deutsche Büros, die mehr Potenziale von KI nutzen will. Nicht umsonst hat das Unternehmen alleine in OpenAI Milliarden Dollar investiert. Copilot hat die Arbeitswelt jetzt schon revolutioniert, obwohl es noch am Anfang steht. Denn sind wir mal ehrlich: Nichts ist langweiliger und dröger, als die meisten Aufgaben, die wir mit Office-Software erledigen: Einladungen zu internen Marketing-Meetings, Zusammenfassungen der Besprechungen hinterher, Präsentationen, die exakt so aussehen wie die im vergangenen Jahr, dabei allerdings ein paar neue Daten beinhalten, Analysen von endlosen Excel-Tabellen oder standardisierte Antworten auf dumme E-Mail-Anfragen aus der dritten Etage. Das Versprechen von Copilot: Diese Aufgaben kann genauso gut die künstliche Intelligenz erledigen. Ein Prompt genügt: «Fasse mir die Auffälligkeiten in diesem Quartalsbericht als Text zusammen.» «Erstelle eine Präsentation aus den Daten in dieser E-Mail.»
Ich gebe zu, das ist eine verführerische Erleichterung und eine echte Zeitersparnis. Wie wir wissen, ist künstliche Intelligenz dann besonders gut, wenn sie über viele Daten verfügt. Wenn ein Unternehmen also einen gut funktionierenden Copilot (oder alternative Lösungen von anderen Anbietern von Office-Software) haben möchte, muss es dieser Software entsprechende Daten zur Verfügung stellen. Um es deutlicher zu sagen: Ich kenne niemanden, der nicht für solche Effizienzgewinne gerne seine Daten zur Verfügung stellen würde. Dabei geht es um unterschiedliche Kategorien von Daten. Einmal solche, die das KI-System braucht, um sich selbst zu verbessern. Und dann sind da noch die Daten, die unbedingt innerhalb des Unternehmens benötigt werden, weil sie die Basis für Analysen sind. All die Tabellen, Geschäftsberichte, E-Mails, Mitarbeiterdaten, Textdokumente, Geschäftsberichte, Kundeninformationen, Lieferantenbewertungen oder Metadaten über Benutzung von Systemen. Das bringt einige Herausforderungen mit sich. So müssen Unternehmen sicherstellen, dass alle Menschen, deren Informationen betroffen sind, genau Bescheid wissen, welche Arten von Daten gespeichert und von KI-Systemen analysiert werden. Ich sehe bereits eine Flut an Updates zu internen Datenschutz-Regelungen, Lieferanten-Vereinbarungen und AGB vor mir. Denn eins ist klar: Ein gutes Wirtschaftsunternehmen kann gar nicht anders, als dem Wettbewerb zu folgen und solche effizienten Systeme auch einzusetzen.
Eine zweite Herausforderung sind die Menschen. So ist ein System, das die Arbeitseffizienz aller Mitarbeitenden misst, immer am Durchschnitt orientiert. Was aber, wenn jemand nicht in diesen Durchschnitt fällt? Etwa die Kollegin mit Rheuma-Attacken, die manchmal tagelang gar nicht arbeiten kann und dann wieder Zeiten hat, in denen sie zwölf Stunden am Tag arbeiten möchte. Wird sie vom System ermahnt, regelmäßiger zu arbeiten? Oder der Kollege, der aus Datenschutzgründen seine Daten gar nicht erfasst haben möchte. Macht er sich dann von vornherein verdächtig und zu einem schlechteren Mitarbeiter?
Eine dritte Herausforderung sind die Analysen selbst. Denn auch die besten Systeme haben Schwächen. Und wie wir wissen, stecken in allen Trainingsdaten aller KI-Modelle bisher unerkannte Vorurteile, falsche Prioritäten, fehlende Aspekte. Doch je etablierter KI-Analysewerkzeuge im Arbeitsumfeld werden, desto normaler wird es auch, den Vorschlägen und der Expertise der Systeme zu folgen. In vielen Unternehmen herrscht sowieso die Kultur, sich grundsätzlich innerhalb der Hierarchie oder durch externe Berater abzusichern. In einer solchen Kultur wird es kein Mensch wagen, den Vorschlag eines KI-Systems zu bezweifeln und anders zu handeln. Denn ginge etwas schief, würde es auf die eigene Person zurückfallen. Wenn hingegen das System einen Fehler macht, trifft es zumindest keinen einzelnen Mitarbeiter. Ich muss immer lachen, wenn ich in Marketing-Publikationen den Satz lese: «In letzter Instanz entscheidet immer ein Mensch.» Man zeige mir die Bankberaterin, die in letzter Instanz entscheidet, einer Kundin doch den Kredit zu geben, obwohl die KI ihn vorher abgelehnt hat.
Wir werden also in naher Zukunft sehr viel mehr unserer persönlichen Daten, aber auch unserer Arbeitsergebnisse den Systemen zur Analyse zur Verfügung stellen. Und wir werden dagegen nicht rebellieren, denn das würde als fast revolutionärer Akt gegen die Effizienz gesehen werden. Aber warum sollten wir auch aufbegehren? Selbst in unserem Privatleben werden wir freimütig Daten hergeben, um in den Genuss der vielfältigen Vorteile von synthetischen Medien und KI-gestützten Dienstleistungen zu kommen. Ich nehme mich als schlechtes Beispiel. Ich trage eine Apple Watch, die aufzeichnet, welche Temperatur an meinem Handgelenk herrscht, wie viel ich mich bewege, wann ich esse, wann ich sitze, wann ich Sex habe. Ja, ich gehe sogar so weit, manchen Apps den Zugang zu diesen Daten zu gewähren, ohne zu wissen, wo diese Daten landen. Tatsächlich kann ich mir ziemlich sicher sein, dass der ein oder andere Datensatz in Zukunft von irgendeinem Server gestohlen, von irgendeinem gescheiterten Start-up verkauft oder von einem frustrierten Mitarbeiter mitgenommen wird. Warum mache ich das? Ich mache es, weil in der Analyse dieser Daten ein Vorteil für mich steckt. Die eine App zeigt mir, welches Verhalten mich besser schlafen lässt. Eine andere App analysiert, zu welchen Tageszeiten ich am effektivsten Sport machen kann. Und wieder eine andere warnt mich davor, dass mein Immunsystem nicht allzu stabil sein könnte.
Start-ups aus den USA bieten Produkte wie Rewind an, das 24 Stunden lang alles aufzeichnet, was seine Besitzer sehen, sagen und hören, aber natürlich auch speichert, was andere Leute in ihrer Nähe sagen. Die Daten werden in Texte transkribiert, und mittels künstlicher Intelligenz kann man seinem eigenen Leben Fragen stellen. «Wann habe ich zum ersten Mal Holger Volland getroffen?» Die App wird antworten: «Das war am 13. August 2023. Ihr hattet ein Abendessen um 19:00 Uhr und unterhieltet euch über Ferienorte.» Ich weiß nicht, ob es dieses Start-up noch gibt, wenn du dieses Buch liest. Vielleicht ist es ein Multi-Milliarden-Konzern geworden, vielleicht ist es schon nicht mehr existent. Aber ich weiß, dass es noch viele solcher Firmen und Produkte geben wird und wir uns daran gewöhnen werden. Warum? Weil wir ein Interesse daran haben, unser Leben zu optimieren. Ich sehe es vor mir. An dieser Stelle wird der ein oder die andere den Kopf schütteln und sagen: «Ich nicht. Das mache ich nicht mit.» Dann bitte ich dich, eine Liste mit Unternehmen zu machen, mit denen du bereits in das Geschäft Daten gegen Dienstleistung eingestiegen bist: Meta mit WhatsApp, Instagram oder Facebook könnte darunter sein. Samsung mit einem Smart-Fernseher. Vielleicht das neue Handy mit dem Betriebssystem von Google. Oder aber Apple, weil es dein iPhone hergestellt hat. Vielleicht ist es aber auch dein Einzelhändler, dessen Kundenkarte du benutzt, oder womöglich sogar ein großer Anbieter, wie die Deutschlandcard. Du siehst, das Geschäft ist gar nicht so neu, und wir haben keine Probleme damit, Daten herauszugeben. Eine kleine Notiz am Rande: Die vielen Milliarden Menschen, die gerade Textgeneratoren, Bildgeneratoren oder andere KI-Anwendungen ausprobieren, tun dies meist in vollem Bewusstsein, dass ihre Eingabedaten und die Outputs zum Verbessern der Systeme genutzt werden.
Das Verwirrende ist: Daten herauszugeben, ist nicht nur schlecht. Es kann auch dabei helfen, bessere Systeme zu schaffen, die weniger Vorurteile beinhalten, leistungsfähiger sind und womöglich anderen zu einem dramatisch viel besseren Leben verhelfen. Darin kann eine Chance liegen, aber auch die Gefahr, durch Technologieunternehmen manipuliert zu werden. Vereinfacht gesagt braucht jedes System echte Daten, um sie besser von falschen unterscheiden zu können. Je mehr Fotos ein Algorithmus analysiert hat, desto besser wird er in der Lage sein, reale Menschen von synthetisch erzeugten zu unterscheiden. Je mehr Fakten ein Sprachmodell über mich als Nutzer kennt, desto eher wird es in der Lage sein, Falschbehauptungen zu meiner Person richtigstellen zu können. Je besser Microsoft deinen E-Mail-Verkehr, deine Kontakte und deine Kommunikationsweisen kennt, desto eher wird ein Programm wie Outlook in der Lage sein, eine Phishingmail zu identifizieren, selbst wenn es personalisiert ist. Datengesteuerte Services könnten sich als beste Unterstützung im Kampf um authentische Informationen herausstellen – aber der Preis ist hoch.
Was geschieht mit den gesammelten Daten? Könnten sie dazu verwendet werden, uns in noch komplexere Filterblasen zu stecken oder uns manipulative Inhalte zu liefern, die als authentisch getarnt sind? Wie werden sie geschützt? Wem gehören die Daten? Ein Dilemma entsteht: Wie viel von unserer Privatsphäre sind wir bereit zu opfern, um uns in einer Welt der KI-generierten Informationen sicherer zu fühlen? Und wie sicher können wir sein, dass die Daten, die wir preisgeben, in sicherem Gewahrsam sind?
Zum Glück gibt es den gesunden Menschenverstand, Organisationen wie Algorithm Watch, die Europäische Union und den deutschen Skeptizismus, die uns davor schützen können. Die Frage, wie der Datenschutz in der Zukunft aussehen wird, muss unsere Debatten in der Politik, vor allem aber unsere Verhandlungen mit den Technologiekonzernen bestimmen und ist für mich eine der spannendsten und dauerhaftesten Verhandlungen des digitalen Zeitalters.