Der vermessene Mensch

Wir kommen an der Erkenntnis längst nicht mehr vorbei: Unser ganzes Leben wird digitalisiert und entziffert. Die Vernetzung dieser Daten wird die Welt radikal verändern – zum Besseren, wenn wir klug damit umgehen

Von Christoph Kucklick

Warum nicht Fett? Auch Fett, gelb und zu Klumpen erstarrt, kann die Macht der Daten demonstrieren. Jedenfalls in New York City, der Metropole, die sich sehr weit in die Zukunft der Algorithmen und statistischen Vorhersagen gewagt hat.

Das liegt an Mike Flowers, dem „Director of Analytics“, der nun eine kleine, fünfköpfige Abteilung befehligt, die handfeste Probleme der Stadt durch Mathematik und möglichst viele Daten löst. Davon gibt es enorme Mengen, wie in jeder Großstadt: Daten über Stromverbrauch, Steueraufkommen und Sprinklersysteme, über die Zahl der Feueralarme und Herzinfarkte, über Luftverschmutzung und verdreckte Kantinen.

Aber sie werden meist nicht genutzt, nicht „abgebaut“, wie ein Fachbegriff es nahelegt: data mining. Als wären die Daten ein Bergwerk. Und der Mensch ein winziger Arbeiter darin.

Ein Terabyte Rohdaten wälzen sich jeden Tag durch Mike Flowers’ Computer, was nicht einmal überragend viel ist: Alle drei Wochen kommt er so auf die Datenmenge sämtlicher 21 Millionen Bücher der Deutschen Nationalbibliothek. Aber Flowers’ Daten halfen, den Fettklumpen auf die Spur zu kommen, hervorgerufen von Frittieröl, das von Restaurants in die Kanalisation geschüttet wird, wo es gerinnt. Die Hälfte aller Verstopfungen geht darauf zurück. Genauer: Ging darauf zurück. Die traditionelle Antwort auf das Problem bestand darin, Inspektoren loszuschicken, auf gut Glück. Die spürten manchmal einen Übeltäter auf. Aber meistens nicht. Die Ökonomen und Computerexperten in Flowers’ Abteilung durchwühlten also ihren Datenberg und fanden einen verblüffend simplen Zusammenhang: Restaurants, die in der Nähe eines Gullys liegen (deren Geopositionen bekannt sind) und die auf einen Fett-Abholservice verzichten (auch diese Daten sind verfügbar), waren mit hoher Wahrscheinlichkeit illegale Ölentsorger.

Die Daten-Meister schickten den Inspektoren eine Liste genau dieser Restaurants – und 95 Prozent der Fett-Blockaden wurden aufgeklärt.

Ein teures Problem gelöst. Und viel gelernt dabei: dass menschliche Experten wie die Inspektoren oft die einfachsten Zusammenhänge übersehen, jahrzehntelang. Dass Daten sogar ein so obskures Problem wie die Fettklumpen lösen können, weil sie eine neue Sicht auf die Welt erlauben, wie ein Röntgenstrahl.

„Die Daten erzählen dir eine Geschichte“, sagt Flowers’ Vorgesetzer, „aber du musst dir einiges einfallen lassen, um sie zum Sprechen zu bringen.“

Vorhersage-Maschinen

Die Welt intelligenter machen. Muster sehen, die vorher niemand erkannt hat. Entscheidungen treffen, die nicht mehr auf dem begrenzten Wissen von Experten, sondern auf dem gewaltigen Bestand von Daten aus der unübersehbaren Wirklichkeit beruhen. Das ist das Versprechen von big data – so wird die ungeheure Schwemme digitaler Daten bezeichnet, mit der die Menschheit seit einigen Jahren konfrontiert ist.

Das Versprechen erfasst alle Wissenschaften und Industrien, jeden Bereich des Lebens. Datengestützt sollen Ärzte bessere Diagnosen stellen, soll der Autoverkehr störungsfreier laufen, sollen Regierungen klügere Politik machen und Gesellschaften ganz neu durchleuchtet werden. Weil Daten uns eine neue Sicht auf die Dinge erlauben. Sollen.

Aber einfach so vorhanden ist gar nichts in der Datenwelt.

Bei Blue Yonder blicken sie jeden Tag in die Zukunft des Konsums. Die Karlsruher Softwarefirma errechnet unter anderem, wie sich Artikel in Supermärkten verkaufen werden. Das ist wichtig für die Planung und den Einkauf der Händler. Und dafür, dass nicht zu viele Lebensmittel unverkauft verrotten.

Die Softwarefirma, eine der innovativsten in Deutschland, belegt drei Etagen in einem Bürokasten am nördlichen Stadtrand, die Belegschaft wächst in großen Sprüngen, aber nichts würde verraten, woran die Datenwissenschaftler arbeiten.

Die humane Erscheinungsform von Big Data: Menschen vor Bildschirmen.

Das Herz der Firma ist unsichtbar. Es wird fast liebevoll NeuroBayes genannt. Und ist ein Algorithmus, den Michael Feindt mitentwickelt hat: ein komplexes Geflecht von Befehlen, die einer Maschine vorgeben, wie sie mit Daten umzugehen hat. Feindt, baumlang und herzlich, ist Professor am Karlsruher Institut für Technologie, Hochenergiephysiker, und hat am CERN gelernt, große Datenmassen kleinzukriegen. Der Teilchenbeschleuniger des CERN ist die größte Datenmaschine der Erde, sie erzeugt ein Petabyte Daten pro Sekunde, das sind jede Stunde mehr Daten, als die Menschheit bis zum 21. Jahrhundert insgesamt produziert hatte.

Supermärkte sind aber auch nicht ohne. Für einen Kunden – welchen, verrät Feindt nicht – errechnet Blue Yonder Nacht für Nacht 500 Millionen Vorhersagen: die Abverkaufsprognosen für alle Artikel in allen Filialen über die nächsten 21 Tage. Die Daten fließen allmorgendlich in das Bestellsystem des Kunden, aus dem der Nachschub geordert wird.

Kein Mensch greift dabei ein.

Das heißt nicht, dass der Mensch unwichtig ist. Er muss dem Algorithmus assistieren, die Daten erst einmal aufbereiten und die richtigen, weil relevanten, zusammenstellen.

Bei Absatzprognosen können das Hunderte von Variablen sein: historische Verkaufsdaten der Kassen, Beschreibung aller Artikel (Farbe, Größe), Preise, Ferienzeiten, Ereignisse (Fußball-WM), Werbeaktionen, Konkurrenten. Alles kann Auswirkungen haben. Fester Bestandteil vieler Modelle etwa ist der „Geldsamstag“, der erste Samstag nach der Lohnzahlung. Dann springen die Verkäufe bestimmter Produkte nach oben.

Bevor die ersten echten Prognosen errechnet werden, wird der Algorithmus mit einem Satz all dieser Variablen gefüttert. „Zum Trainieren“, sagt Feindt. Dabei schaut die Maschine, wie sich die Variablen so kombinieren lassen, dass sie möglichst nah an die bisherigen, tatsächlich gemessenen Verkaufszahlen herankommen. Die Daten-Trainer von Blue Yonder nennen diesen Zielwert: „die Wahrheit“. Auf sie wird das System geeicht.

Mathematisch gesehen geschieht bei diesem Training die „Optimierung der Kantengewichte im Netzwerk“, also die möglichst raffinierte Abstimmung der Variablen aufeinander. De facto lernt die Maschine schlicht den Menschen kennen. Wie er tickt. Was er so macht. Um dann menschliche Handlungen nach logischen Kriterien vorherzusehen.

Das nennt sich machine learning und findet auch bei jeder Suchanfrage bei Google, jeder Zahlung mit einer Kreditkarte, jedem Anruf per Handy statt: Immer lernen Algorithmen mit.

Ein bemerkenswertes Beispiel für die Kraft der großen Datenmenge hat Google geliefert, als es vor ein paar Jahren in den USA den kostenlosen Telefon-Infoservice „GOOG-411“ anbot. Menschen riefen an, nannten einen beliebigen Suchbegriff, und die Maschine las die Ergebnisse vor: Google-Suche per Stimme. Alle fragten sich, warum Google diesen Service kostenfrei anbot. Als die Firma ihn beendete, erfuhren sie, warum: Die Anfragen der Menschen hatten einen Computer trainiert, ihn mit einem gewaltigen Wortschatz versorgt – und Google zu einer der besten Spracherkennungen der Welt verholfen.

So ist bei keiner Begegnung von Mensch und Computer noch klar, wer eigentlich wen trainiert. Wer wem hilft. Wir schürfen nicht nur im Bergwerk der Daten, wir selbst sind die Mine.

Bei Blue Yonder hat die Maschine inzwischen so gut vom Menschen gelernt, dass sie ihn locker schlägt. Die Absatzprognosen aus dem Computer sind bis zu 40 Prozent genauer als die Vorhersagen von Verkaufsprofis. Ähnliche Algorithmen errechnen in Hollywood mit erstaunlicher Präzision, wie viel Geld ein Film einspielen wird – und zwar nur anhand des Drehbuches und bevor der Film überhaupt gedreht worden ist. Oder sie geben Börsenhändlern die nächste Investition vor. Und übertrumpfen Ärzte bei ihren Diagnosen, etwa das Programm „Isabel“, das mit bis zu 96-prozentiger Genauigkeit aus demografischen Daten und Angabe von Symptomen Krankheiten identifiziert.

„Unsere menschliche Intuition kann da einfach nicht mithalten.“ Michael Feindt sagt das nicht triumphal, es entspricht bloß seiner Erfahrung. Wann immer der Mensch gegen den Algorithmus antritt, gewinnt die Maschine. „Wir können höchstens drei Variablen in Beziehung zueinander setzen, die Computer können das mit Tausenden.“

Außerdem sehen Computer mehr: Ein Arzt trifft in seinem Leben vielleicht einige Tausend Patienten, ein Computer kennt Millionen Krankengeschichten. Damit wechseln wir von einer Welt, in der wir Entscheidungen aufgrund begrenzter individueller Erfahrungen treffen, in eine Welt, die wir viel umfassender verstehen können.

So züchten wir uns erstmals aber auch eine ernsthafte maschinelle Konkurrenz für kognitive Fähigkeiten heran. Für das, was bislang als Eigenschaft des Menschen galt.

Die Datenhülle

Big Data entstehen, weil mehrere Technologien miteinander verschmelzen: die Rechenkraft der Computer, enorme Datenspeicher, clevere Software, das Internet sowie Sensoren, die aus tausenderlei Quellen Daten aller Art einspeisen können. Schätzungen über die Gesamtmenge der Daten, die dabei anfallen, klaffen gewaltig auseinander, aber stets werden sie mit Begriffen angegeben, die einem nichts mehr sagen: Petabytes, Exabytes, Zettabytes. Werte mit sehr, sehr, sehr vielen Nullen jedenfalls.

Vorstellbar ist nichts davon: Facebook-Nutzer laden weltweit jede Stunde 15 Millionen Fotos hoch, Google beantwortet jeden Tag rund drei Milliarden Suchanfragen. Gewaltiger noch sind die Daten, die Maschinen im sogenannten Internet der Dinge erzeugen: Ein einziges Flugzeugtriebwerk erzeugt auf einem Flug Berlin–München 20 Terabyte Daten. Die Ölfirma Shell will Zigtausende winzige, hochempfindliche Sensoren ausbringen, um aus minimalsten Erdbewegungen auf neue Ölquellen zu schließen.

Der Mensch streift der Welt und sich selbst eine Haut aus Daten über.

Sie sind das am rasantesten wachsende Gebilde auf der Erde. Sie wuchern schneller, als jede biologische Spezies es könnte, nur begrenzt durch die ebenfalls rasant wachsende Speicherkapazität der Computer. Aus diesem Netzwerk von Daten, Sensoren und Rechnern soll eine intelligentere Welt entstehen. Nicht nur bei Verkaufsprognosen. Der Fantasie sind keine Grenzen gesetzt.

Der „Magic Carpet“ ist ein Teppich voller Sensoren, der in Altenheimen erkennen soll, ob ein Bewohner unsicher geht – und dann sofort Alarm schlägt.

In Boston können Autofahrer eine App auf ihr Smartphone laden, die beim Überfahren jedes Schlagloch erkennt und an die Stadtverwaltung meldet, die daraufhin gezielt Reparaturtrupps losschicken könnte. Andere Städte statten Mülleimer mit Sensoren aus, die deren Befüllungsgrad melden.

Und die australische Ärztin Carolyn McGregor hat ein Diagnosesystem für frühgeborene Babys entwickelt. Die Software erkennt subtile Veränderungen in den winzigen Körpern und schlägt notfalls Alarm; oft 24 Stunden bevor die Ärzte etwas bemerken. Eine Erkenntnis der Maschine etwa widerspricht allen bisherigen Annahmen: Besonders konstante Körperwerte deuten oft auf den Ausbruch einer schweren Infektion, sie sind die „Ruhe vor dem Sturm“.

Eine besonders umstrittene Daten-Anwendung ist das sogenannte predictive policing. Das ist das Gleiche, was Blue Yonder mit Frischgemüse und Zahnpasta macht – nur mit Verbrechen. In mehreren US-amerikanischen Städten errechnen Computer, wo und zu welcher Tageszeit die Wahrscheinlichkeit von Straftaten besonders hoch ist. Die anfänglichen Erfolge sind groß, allerdings sind diese Systeme zu jung, um zu wissen, wie sich die Gangster auf die Algorithmen einstellen: Womöglich führen die Vorhersagen ja dazu, dass die Verbrecher sich verstärkt um Unberechenbarkeit bemühen.

Einer der gewaltigsten Big-Data-Fälle wird das „Smart Grid“ sein, die intelligente Stromversorgung. Die Energiewende macht sie notwendig, denn die schwankende Einspeisung durch Windräder und Solarpaneele erfordert ständiges Nachsteuern im Netz. Außerdem sollen Waschmaschinen und Klimaanlagen möglichst dann laufen, wenn Strom reichlich vorhanden ist. Alles in diesem Netz der Zukunft, von der Lampe bis zum Windpark, misst, sendet und verarbeitet Daten, steuert und wird gesteuert.

Nach diesem Muster sollen auch Straßen und Innenstädte intelligent werden und sich Autos, Parksäulen und Ampeln aufeinander abstimmen. Dazu wird eines Tages auch das fahrerlose Auto gehören, eine mustergültige Big-Data-Anwendung: Ein menschlicher Fahrer absolviert bloß ein paar Tausend Fahrstunden in seinem Leben, im elektronischen Auto aber sind Abermillionen Stunden Verkehrserfahrung gespeichert, und jederzeit kann die Software neues Wissen laden – so werden Autos zuverlässiger von Daten als vom Menschen gesteuert.

Es wird, so viel ist sicher, keinen Bereich des Lebens geben, den die Daten nicht umhüllen. Und vielleicht sorgt diese Allgegenwart dafür, dass um die Daten eine nahezu religiöse Debatte aufglüht.

Die Metaphysik der Daten

Dank der Sensoren sehen wir heute „auf das menschliche Verhalten wie aus Gottes Auge“, sagt Alex Pentland vom Massachusetts Institute of Technology (MIT). Nicht nur er erhofft sich davon revolutionäre Verbesserungen: Big Data soll unsere Umwelt sauberer machen, unser Verhalten klüger, uns selbst gesünder und die Politik intelligenter.

Das alles soll es sogar ohne größere Anstrengung geben. Das „Ende der Theorie“ hat der ehemalige Chefredakteur des Technologie-Magazins „Wired“ ausgerufen, soll heißen: Lasst die Algorithmen einfach vor sich hinrechnen, dann finden wir schon Antworten auf unsere Fragen. Komplizierte Hypothesen zu bilden – das sei Schnee von gestern. Die Welt werde einfach und übersichtlich, schön geordnet durch Maschinen.

Als solutionism, als Lösungsgläubigkeit, bezeichnet dagegen der Internet-Kritiker Jewgeni Morosow diese Heilsversprechen der Datafizierung und weist darauf hin, dass auch Terroristen oder unberechenbare Staaten wie der Iran Algorithmen für ihre Zwecke nutzen könnten.

Und von diesen Warnern ist es nur noch ein kleiner Schritt zu jenen, die in den Daten nichts als Bedrohung sehen: „Es gibt keinen Unterschied zwischen Big Data und Big Brother“, schreibt der Journalist Tom Foremski. All die Millionen Brocken aus dem Datenbergwerk würden unsere Privatsphäre zermalmen und unser freies Leben verschütten, fürchtet er.

Gott oder Teufel – dazwischen gibt es in der Debatte wenig. Aber ist die Privatsphäre des Menschen wirklich das Hauptproblem? Oder kann er sie auch in der neuen Datenwelt schützen, mit einer Kombination aus technischen und politischen Vorkehrungen?

Fest steht: Die Verheißungen von Big Data können, sogar wo sie sich erfüllen, ganz unbeabsichtigte Auswirkungen haben. Widersprüchliche.

Das Ende der Individualität

Als eine amerikanische Kaufhauskette die Daten ihrer Kassen auswertete, stieß sie auf einen wundersamen Zusammenhang. Sie fand heraus, dass sie anhand bestimmter verkaufter Artikel ermitteln konnte, welche Kundinnen schwanger waren. Und das, obwohl diese Produkte gar nicht spezifisch für Schwangere waren, zum Beispiel parfümfreie Lotion oder Mineraltabletten. Aber die Abfolge, in der die Produkte gekauft wurden, war so verräterisch, dass die Kaufleute aus den Daten sogar die Geburtsdaten der Babys mit großer Genauigkeit voraussagen konnten. Die Frauen, um die es ging, lebten vermutlich im Gefühl der einmaligen Erfahrung ihrer Schwangerschaft – aber ihr Kaufverhalten war offenbar extrem standardisiert.

Als das Kaufhaus daraufhin gezielte Werbung verschickte, stürmte ein erboster Vater in eine Filiale: Wie man seine minderjährige Tochter mit solcher Reklame behelligen könne, keinesfalls sei sie schwanger! Ein paar Tage später gab der Mann kleinlaut zu: Er werde in der Tat bald Opa. Der Algorithmus hatte erkannt, was sogar die Eltern übersehen hatten.

Ähnlich gut sind Firmen darin, aus Milliarden Zahlungen ihrer Kunden noch die sonderbarsten Muster zu lesen. So fand eine kanadische Kette für Autozubehör heraus, dass die Besucher einer bestimmten Bar ein besonders hohes Bankrott-Risiko hatten. Warum – das konnte niemand beantworten. Und eine Kreditkartenfirma fand in ihren Daten die merkwürdige Koinzidenz, dass die Tageszeit, zu der Menschen ihre Autos betanken, etwas über die Höhe der späteren Einkäufe aussagt.

„Wir haben immer gedacht, Individuen seien unvorhersehbar“, sagt Johan Bollen, ein Netzwerkexperte der Universität Indiana. Jetzt aber stelle sich heraus, dass wir in vielem weniger überraschend, weniger einzigartig handeln, als wir glauben und vielleicht auch hoffen. Die Daten stören den Tanz der Unverwechselbarkeit, den wir Individuen in der Moderne aufführen. Sie zeigen, dass das Gefühl von unserer Einzigartigkeit auf einer perspektivischen Verkürzung beruht: In der alten, datenarmen Welt konnten wir uns nur mit wenigen Menschen und nach wenigen Kriterien vergleichen. Und verwechselten diese Informationsdürre mit Besonderheit. Die Datenfülle ruiniert diese Illusion.

Der Beginn der Hyper-Individualität

Daten vernichten Individualität. Andererseits offenbaren sie aber auch mehr davon. Und das ist nur vordergründig ein Widerspruch. Denn genauso wie die Datenwissenschaftler auf ihren Festplatten die Gemeinsamkeiten der Menschen finden, so spüren sie auch feinste Unterschiede auf.

BlueKai hat sich auf diese Differenzen spezialisiert. Die US-amerikanische Datenfirma versucht, Werbung im Internet möglichst treffsicher auszuspielen. Sie will Autowerbung nur solchen Kunden zeigen, die gerade ein Auto suchen; und Flugreisen nur denen, die einen Urlaub planen. Wenn es nach Omar Tawakol geht, dem Gründer der Firma, soll jeder Nutzer im Netz stets individuell bedient werden, zumindest als Werbekunde.

Wie Bluekai das macht, das ist technologische Zauberei: Der Datengigant pflegt Profile von über 150 Millionen Amerikanern – einem Großteil der Bevölkerung –, und wo immer einer von ihnen im Netz surft, versuchen die Datenbroker ihm passgenaue Werbung zu zeigen. Das geschieht durch sogenannte Echtzeit-Auktionen. In jenem Bruchteil einer Sekunde, in der ein Nutzer eine Website lädt, wird deren Werbefläche an Werbekunden versteigert. Automatisch. Der ganze Prozess dauert nur wenige Millisekunden. Und dann erscheint beim potenziellen Autokäufer eine Autowerbung und beim potenziellen Urlaubsplaner eine Flugreklame. 80 Milliarden solcher Hochgeschwindigkeitsauktionen finden jeden Tag allein in den USA statt.

Sie funktionieren nur, weil Bluekai die Nutzer nach 30000 verschiedenen Kriterien in kleinste Grüppchen sortiert: Zwanzigjährige im ländlichen Texas, die gern „Sex in the City“ schauen, oder „Kinofans in Los Angeles“, die sich außerdem „für Natur interessieren“. Je präziser die Kategorie, so die Annahme, desto effizienter können die Firmen werben.

Was Bluekai nicht mehr kennt, ist der Durchschnitt. Der war bisher stets das Maß der Masse, weil es so schwierig war, Daten zu sammeln, zu speichern und zu verarbeiten. Also musste man die Menschen und die Welt auf den Durchschnitt reduzieren, auf einen „gemeinsamen Nenner“, hinter dem sich viele andere Daten verbargen.

Das ist nun nicht mehr nötig. Digitale Daten erlauben auch in riesigen Beständen einzelne Datenpunkte zu erkennen. Diese Feinteiligkeit heißt im Computerjargon Granularität, und man muss sie sich so vorstellen, als könne man in einem Haufen Sand jedes einzelne Korn erkennen, vergrößern, und dessen Eigenschaften sowie die Interaktion mit dem Rest des Haufens analysieren.

Die Hyper-Individualisierung der Kunden erlaubt es sogar, Konsumenten unterschiedliche Preisniveaus anzubieten. Ein Reiseportal im Netz fand heraus, dass Nutzer mit einem Apple-Computer 30 Prozent mehr für Hotelzimmer ausgeben als PC-Nutzer. Daraufhin schickte die Firma ihnen Hotelanzeigen mit elf Prozent teureren Offerten.

Ein Casino nutzt solche Berechnungen etwa, um bei vermögenden Spielern den pain point, den Schmerzpunkt, vorherzusagen: den maximalen Verlust, den ein Spieler zu akzeptieren bereit ist.

Das kann man als ungerecht empfinden, weil das Prinzip der Gleichbehandlung verletzt wird. Auch kann man sich leicht ausmalen, dass bestimmte Gruppen womöglich gar keine Angebote mehr bekommen: Aus Preisdiskriminierung wird dann Menschendiskriminierung.

Man kann es aber auch als gesteigerte Gerechtigkeit sehen: Menschen werden nicht mehr über einen Kamm geschoren. Einige Versicherungen bieten etwa Autofahrern, die ihre Fahrweise elektronisch erfassen lassen, Rabatte an. Derzeit zahlen alle Kunden die höheren Schäden von Rasern mit; das wäre mit dem elektronischen Rabattsystem vorbei. Allerdings zum Preis umfassender Kontrolle.

Die Technologie formatiert unser Selbstverständnis neu: Wir werden ungleicher, weil die digitalen Systeme uns als solche erfassen können.

Seltene Körper

Ralf Belusa treibt die Vereinzelung auf die Spitze. Dabei hilft ihm seit Kurzem eine neue Waage, die sein Gewicht, sein Körperfett, seinen Puls und den CO2-Gehalt seiner Umgebungsluft misst. Er bestimmt auch per Sensor den Sauerstoffgehalt in seinen Adern. Er erfasst über ein elektronisches Armband seine Schlafzyklen. Auch ob er täglich die angestrebten 10000 Schritte tut, verrät ihm das Armband, wenn er dessen Daten am Abend auf sein Smartphone herunterlädt. Zudem notiert er täglich sein Befinden (etwa Kopfschmerzen). Nur ein „Ess-Messer“ ist er nicht, also keiner, der auch noch jede Banane und jede Stulle verzeichnet. „Bringt bei mir nichts“, sagt er.

Denn er hat längst erkannt, wie das bei ihm mit dem Essen funktioniert: Liegt sein Körperfett unter 12,8 Prozent, kann er essen, was er will, auch Schokolade. Steigt der Wert darüber, muss er seine Speisen sorgfältiger wählen. Warum 12,8 Prozent? „Keine Ahnung“, sagt er, „das ist der Wert, der sich herausgeschält hat. Andere haben andere Schwellenwerte. Der gilt nur für mich.“

Wer Ralf Belusa nun für einen zwanghaften Sonderling hält, täte ihm unrecht. Der drahtige 38-Jährige ist ein ansteckend fröhlicher, offener Mensch. Der promovierte Mediziner arbeitet als Senior Director bei der Berliner Firma Zanox, einem großen europäischen Werbenetzwerk-Anbieter. Ein Datenmensch durch und durch. Nicht Kontrollwahn treibt ihn um, sondern Neugier: Wer bin ich, aus Sicht der Daten? Wer kann ich werden, dank der Daten? Dafür erhebt er gewissermaßen Big Data über sich selbst. Er ist sein eigenes Datenbergwerk. Und gehört einer weltweiten Bewegung an, die unter dem Namen „Quantified Self“ um sich greift: das vermessene Ich.

Enthusiasten der Selbstbeobachtung wie Belusa sind wiederum nur die Avantgarde einer viel größeren Hoffnung. Diese nennt sich „personalisierte Medizin“. Damit es keine Missverständnisse gibt: Die individualisierte Medizin existiert noch nicht, jedenfalls nicht in nennenswertem Umfang. Aber auch als Gedankenspiel verrät sie viel darüber, wie die Granularität der Daten unsere Welt verändern wird.

„Wir haben heute die Technologie, jede Person in höchster Auflösung zu digitalisieren“, erklärt der US-Mediziner Eric Topol, einer der Vordenker der neuen Medizin. Vom Herzschlag bis zum Cholesterinspiegel, vom Genom bis zum Risiko durch ausgeübte Sportarten könne jeder Mensch in seiner Einzigartigkeit vermessen werden, dank Sensoren sogar in Echtzeit.

Entsprechend einzigartig werde bald die Therapie ausfallen: Arzneien individuell dosiert, Schwellenwerte persönlich justiert. 12,8 Prozent Körperfett beim einen, 21,3 Prozent beim anderen. Auch hier: das Ende des Durchschnitts.

Das klingt vielversprechend für jeden Einzelnen. Und ist ein Albtraum für Wissenschaft und Ärzte: „Das gesamte System der medizinischen Diagnosen müsste neu geschrieben werden“, sagt Topol. Doch wie sieht dieses System aus, wenn kein Körper mehr dem anderen gleicht? Topol fordert eine „Wissenschaft der Individualität“ – auch wenn das eine Wissenschaft wäre, die nicht mehr verallgemeinern kann, weil sie es nur noch mit seltenen (weil individuellen) Krankheiten zu tun hat.

Werden die Forscher irgendwann, hinter aller Individualität, wieder neue Gemeinsamkeiten erkennen? Neue Arten von Durchschnitten, raffiniertere vielleicht?

Die derzeitige Antwort lautet: keine Ahnung.

Absehbar ist nur, dass alle Institutionen, die sich an Durchschnitten ausrichten, radikal herausgefordert sind: Versicherungen, Krankenhäuser, Forschungsinstitute, vielleicht Steuerbehörden, sicherlich Schulen. Für die staubfeinen Daten müssen sie neue Verfahren finden. Und sich gründlich umbauen.

Flüssige Firmen

Ben Waber fängt schon einmal an mit dem Umbau. Allerdings von Unternehmen. Dazu vermisst er sie in einer Weise, wie das zuvor noch nie geschehen ist. Und die Menschen gleich mit. Waber hängt allen Mitarbeitern einer Firma graue Kästchen um die Hälse, die so groß sind wie Smartphones und voller Sensoren stecken. Er nennt sie Sociometer: Messgeräte des Sozialen.

Mit ihrer Hilfe kann er genau erfassen, wie lange welche Kollegen miteinander sprechen, wie nahe sie beieinander stehen, wo sich jeder zu jedem Zeitpunkt aufhält, auch die jeweilige Körperhaltung lässt sich errechnen und die Dynamik jeder Bewegung. Sogar der Ton der Stimme wird aufgezeichnet, um automatisch Stimmungen zu registrieren: Wut, Anspannung, Freude.

Das klingt wie ein Straflager der Überwachung, aber Wabers Firma Sociometric Solutions in Boston hat raffinierte Maßnahmen zum Schutz der Privatsphäre entwickelt. In den Unternehmen, in denen Waber die Sociometer einsetzt, nehmen mehr als 90 Prozent der Angestellten an den Messungen teil, wenn man sie gut aufklärt, sagt Waber.

So erhält er minutiöse Daten vom realen sozialen Netzwerk eines Unternehmens. Ein datenbasiertes Röntgenbild menschlicher Interaktionen. Aus ihm liest Waber, was Unternehmen produktiv macht. Und es ist immer die gleiche Antwort: persönlicher Kontakt. Reden von Angesicht zu Angesicht. In der Kantine, auf dem Flur, am Kaffeeautomaten.

Das gefällt vielen Managern nicht, die glauben, allein mehr Arbeit und weniger Quatschen würde die Effizienz steigern. Waber kann anhand seiner Daten das Gegenteil beweisen: Mehr Quatschen ist wichtiger als mehr Arbeit.

Das fand er zum Beispiel in dem Callcenter einer großen Bank heraus. Die Arbeitnehmer dort durften keine gemeinsame Pause machen, weil die Telefone stets besetzt sein sollten. Mit seinen Daten konnte Waber die Bank dazu bewegen, einzelnen Teams eine 15-minütige gemeinsame Unterbrechung zu erlauben. Sofort sprang die Produktivität, gemessen etwa an der Zahl der beantworteten Anrufe, in die Höhe. Und die Zufriedenheit der Mitarbeiter auch. Durch diese eine Pause am Tag sparte die Bank 15 Millionen Dollar an Callcenter-Kosten.

In einem IT-Unternehmen machte Waber eine andere spektakuläre Entdeckung. Jeder der 54 Mitarbeiter war immer dann besonders produktiv, nachdem er mit einem von vier ganz bestimmten Angestellten gesprochen hatte. Diese vier arbeiteten selbst zwar nicht sonderlich produktiv, konnten aber offenbar alle anderen befeuern. Nur erhielten sie dafür nie angemessene Anerkennung.

Der Detailgrad der Daten reicht so weit, dass Waber oft belegen kann, wie Produktivität und Zufriedenheit – die beiden hängen meist zusammen – steigen, wenn man nur die Kaffeemaschine um wenige Meter verschiebt, damit mehr Leute sich daran treffen.

Wabers Vision: Firmen sollen all die teuren Berater feuern, die ihnen eine Umstrukturierung nach der anderen empfehlen. Und stattdessen kleine Veränderungen ausprobieren und mit den Sociometern in Echtzeit messen, ob sich Stimmung und Leistung verbessern. Und wenn nicht, andere Maßnahmen testen. Bis es passt. Das Ziel dabei ist stets dasselbe: „Wir müssen die Zahl der Zufallsbegegnungen erhöhen, mehr spontane Kommunikation ermöglichen.“

Wie bitte? Ausgerechnet die Daten, die uns vorhersagbar machen (sollen), dienen dem Zufall? Der Spontaneität?

Die neue Arbeitsteilung

Der Technik-Philosoph Kevin Kelly sieht im Schatten der Datenmaschinen das „Jahrhundert einer schmerzlichen Identitätskrise“ auf uns Menschen zukommen. Je besser die Maschinen und Algorithmen werden, umso dringlicher werden wir uns fragen: „Was können wir eigentlich noch so richtig gut?“

Wir dachten, wir seien hervorragende Schachspieler. Oder Abverkaufsexperten. Oder Unternehmensberater. „Jetzt stellen wir fest, das war’s nicht. Und wir müssen eine bessere Vorstellung von uns selbst entwickeln.“

Vielleicht hat Ben Waber sie schon gefunden. Nicht mehr, wie seit der Aufklärung, als rationale Wesen werden wir uns deuten, sondern als diejenigen, die das Unvorhersehbare in die Welt bringen. Die dagegen kämpfen, sich ausrechnen zu lassen. Die sich auf das spezialisieren, was die Algorithmen nicht erfassen: das Unausgesprochene, das Noch-nicht-Gedachte, und vor allem das Gefühlte.

Die Datenmaschinen sorgen für die Struktur, die Menschen für die Störung – wird das die neue Arbeitsteilung der Big-Data-Welt?