Ich unterhielt mich mit der Managerin eines US-Unternehmens über die Frage, wie wir das Thema Datenschutz zukünftig betrachten müssen. Sie rollte ein wenig mit den Augen und erklärte mir, dass dies die Standardsorge aller Deutschen sei. Für sie in den USA sei das nicht immer verständlich. So gäbe es in ihrem Unternehmen ein internes Bewertungssystem für die eigene Arbeit, das man freiwillig nutzen könnte. Sie zum Beispiel aktiviere es gerne, weil sie dadurch wichtige Erkenntnisse bekäme, zum Beispiel, dass sie immer häufiger zu spät zu Meetings komme und sich in letzter Zeit zu wenig Fokus-Zeit eingestellt habe. Diese Art der Beobachtung ihrer Arbeit und der Hinweise des Systems empfinde sie als Bereicherung und Hilfe.

Solche Optimierungssysteme des internen Workflows und der persönlichen Arbeit gibt es nicht überall, mancher Betriebsrat dürfte damit ein Problem haben. Was es aber überall gibt, ist Office-Software. Besonders Microsoft Office ist verbreitet. Mit Copilot hielt nun eine Version Einzug in deutsche Büros, die mehr Potenziale von KI nutzen will. Nicht umsonst hat das Unternehmen alleine in OpenAI Milliarden Dollar investiert. Copilot hat die Arbeitswelt jetzt schon revolutioniert, obwohl es noch am Anfang steht. Denn sind wir mal ehrlich: Nichts ist langweiliger und dröger, als die meisten Aufgaben, die wir mit Office-Software erledigen: Einladungen zu internen

Ich gebe zu, das ist eine verführerische Erleichterung und eine echte Zeitersparnis. Wie wir wissen, ist künstliche Intelligenz dann besonders gut, wenn sie über viele Daten verfügt. Wenn ein Unternehmen also einen gut funktionierenden Copilot (oder alternative Lösungen von anderen Anbietern von Office-Software) haben möchte, muss es dieser Software entsprechende Daten zur Verfügung stellen. Um es deutlicher zu sagen: Ich kenne niemanden, der nicht für solche Effizienzgewinne gerne seine Daten zur Verfügung stellen würde. Dabei geht es um unterschiedliche Kategorien von Daten. Einmal solche, die das KI-System braucht, um sich selbst zu verbessern. Und dann sind da noch die Daten, die unbedingt innerhalb des Unternehmens benötigt werden, weil sie die Basis für Analysen sind. All die Tabellen, Geschäftsberichte, E-Mails, Mitarbeiterdaten, Textdokumente, Geschäftsberichte, Kundeninformationen, Lieferantenbewertungen oder Metadaten über Benutzung von Systemen. Das bringt einige Herausforderungen mit sich. So müssen Unternehmen sicherstellen, dass

Eine zweite Herausforderung sind die Menschen. So ist ein System, das die Arbeitseffizienz aller Mitarbeitenden misst, immer am Durchschnitt orientiert. Was aber, wenn jemand nicht in diesen Durchschnitt fällt? Etwa die Kollegin mit Rheuma-Attacken, die manchmal tagelang gar nicht arbeiten kann und dann wieder Zeiten hat, in denen sie zwölf Stunden am Tag arbeiten möchte. Wird sie vom System ermahnt, regelmäßiger zu arbeiten? Oder der Kollege, der aus Datenschutzgründen seine Daten gar nicht erfasst haben möchte. Macht er sich dann von vornherein verdächtig und zu einem schlechteren Mitarbeiter?

Eine dritte Herausforderung sind die Analysen selbst. Denn auch die besten Systeme haben Schwächen. Und wie wir wissen, stecken in allen Trainingsdaten aller KI-Modelle bisher unerkannte Vorurteile, falsche Prioritäten, fehlende Aspekte. Doch je etablierter KI-Analysewerkzeuge im Arbeitsumfeld werden, desto normaler wird es auch, den Vorschlägen und der Expertise der Systeme zu folgen. In vielen Unternehmen herrscht sowieso die Kultur, sich grundsätzlich innerhalb der Hierarchie oder durch externe Berater abzusichern. In einer solchen Kultur wird es kein

Wir werden also in naher Zukunft sehr viel mehr unserer persönlichen Daten, aber auch unserer Arbeitsergebnisse den Systemen zur Analyse zur Verfügung stellen. Und wir werden dagegen nicht rebellieren, denn das würde als fast revolutionärer Akt gegen die Effizienz gesehen werden. Aber warum sollten wir auch aufbegehren? Selbst in unserem Privatleben werden wir freimütig Daten hergeben, um in den Genuss der vielfältigen Vorteile von synthetischen Medien und KI-gestützten Dienstleistungen zu kommen. Ich nehme mich als schlechtes Beispiel. Ich trage eine Apple Watch, die aufzeichnet, welche Temperatur an meinem Handgelenk herrscht, wie viel ich mich bewege, wann ich esse, wann ich sitze, wann ich Sex habe. Ja, ich gehe sogar so weit, manchen Apps den Zugang zu diesen Daten zu gewähren, ohne zu wissen, wo diese Daten landen. Tatsächlich kann ich mir ziemlich sicher sein, dass der ein oder andere Datensatz in Zukunft von irgendeinem Server gestohlen, von irgendeinem gescheiterten Start-up verkauft oder von einem frustrierten Mitarbeiter

Start-ups aus den USA bieten Produkte wie Rewind an, das 24 Stunden lang alles aufzeichnet, was seine Besitzer sehen, sagen und hören, aber natürlich auch speichert, was andere Leute in ihrer Nähe sagen. Die Daten werden in Texte transkribiert, und mittels künstlicher Intelligenz kann man seinem eigenen Leben Fragen stellen. «Wann habe ich zum ersten Mal Holger Volland getroffen?» Die App wird antworten: «Das war am 13. August 2023. Ihr hattet ein Abendessen um 19:00 Uhr und unterhieltet euch über Ferienorte.» Ich weiß nicht, ob es dieses Start-up noch gibt, wenn du dieses Buch liest. Vielleicht ist es ein Multi-Milliarden-Konzern geworden, vielleicht ist es schon nicht mehr existent. Aber ich weiß, dass es noch viele solcher Firmen und Produkte geben wird und wir uns daran gewöhnen werden. Warum? Weil wir ein Interesse daran haben, unser Leben zu optimieren. Ich sehe es vor mir. An dieser Stelle wird der ein oder die andere den Kopf schütteln und sagen: «Ich nicht. Das mache ich nicht mit.» Dann bitte ich dich, eine Liste mit Unternehmen zu machen, mit denen du bereits in das Geschäft Daten gegen Dienstleistung eingestiegen bist: Meta mit WhatsApp, Instagram oder Facebook könnte darunter sein. Samsung mit einem

Das Verwirrende ist: Daten herauszugeben, ist nicht nur schlecht. Es kann auch dabei helfen, bessere Systeme zu schaffen, die weniger Vorurteile beinhalten, leistungsfähiger sind und womöglich anderen zu einem dramatisch viel besseren Leben verhelfen. Darin kann eine Chance liegen, aber auch die Gefahr, durch Technologieunternehmen manipuliert zu werden. Vereinfacht gesagt braucht jedes System echte Daten, um sie besser von falschen unterscheiden zu können. Je mehr Fotos ein Algorithmus analysiert hat, desto besser wird er in der Lage sein, reale Menschen von synthetisch erzeugten zu unterscheiden. Je mehr Fakten ein Sprachmodell über mich als Nutzer kennt, desto eher wird es in der Lage sein, Falschbehauptungen zu meiner Person richtigstellen zu können. Je besser Microsoft deinen E-Mail-Verkehr, deine Kontakte und deine Kommunikationsweisen kennt, desto eher wird ein Programm wie Outlook in der Lage sein, eine Phishingmail zu identifizieren,

Was geschieht mit den gesammelten Daten? Könnten sie dazu verwendet werden, uns in noch komplexere Filterblasen zu stecken oder uns manipulative Inhalte zu liefern, die als authentisch getarnt sind? Wie werden sie geschützt? Wem gehören die Daten? Ein Dilemma entsteht: Wie viel von unserer Privatsphäre sind wir bereit zu opfern, um uns in einer Welt der KI-generierten Informationen sicherer zu fühlen? Und wie sicher können wir sein, dass die Daten, die wir preisgeben, in sicherem Gewahrsam sind?

Zum Glück gibt es den gesunden Menschenverstand, Organisationen wie Algorithm Watch, die Europäische Union und den deutschen Skeptizismus, die uns davor schützen können. Die Frage, wie der Datenschutz in der Zukunft aussehen wird, muss unsere Debatten in der Politik, vor allem aber unsere Verhandlungen mit den Technologiekonzernen bestimmen und ist für mich eine der spannendsten und dauerhaftesten Verhandlungen des digitalen Zeitalters.