«Sai che la DARPA finanzia parte del loro lavoro?» mi aveva detto Brent Clickard sul treno che ci avrebbe portati da Londra a Cambridge. «Se vuoi espandere il tuo team, sono quelli giusti.» Brent era uno degli psicologici dell’SCL, e si divideva tra la società e l’attività accademica presso un laboratorio di ricerca della University of Cambridge. Proprio come me, si stava appassionando alle possibilità insite nei nostri progetti, quindi si era dimostrato propenso a offrire alla società i contatti di alcuni dei ricercatori più importanti nel suo campo. Il dipartimento di Psicologia di Cambridge aveva introdotto diverse innovazioni nell’utilizzo a scopo di profiling dei dati provenienti dai social media; il che, a sua volta, aveva suscitato l’interesse delle agenzie governative di ricerca. E, in effetti, il futuro di CA sarebbe dipeso in gran parte dagli studi accademici pubblicati presso l’università da cui prendeva il nome.
Cambridge Analytica raccoglieva enormi dataset e li sfruttava per progettare e realizzare contenuti mirati, capaci di influenzare l’opinione pubblica su vasta scala. Niente di tutto ciò sarebbe stato possibile, tuttavia, senza l’accesso ai profili psicologici della popolazione di riferimento; un elemento che si era rivelato sorprendentemente facile da ottenere tramite Facebook, grazie a procedure di autorizzazione ben poco stringenti. La storia di come tutto ciò ebbe inizio risale ai miei primi tempi all’SCL, prima che nascesse la sua costola americana. Brent Clickard mi aveva portato a visitare lo Psychometric Centre a Cambridge. Avevo letto diverse delle sue pubblicazioni, e alcune di quelle dei suoi colleghi, ed ero rimasto affascinato dall’innovativa tecnica che avevano sviluppato per integrare il machine learning con test psicometrici. Sembrava che i loro obiettivi di ricerca combaciassero quasi alla perfezione con i progetti cui lavoravamo all’SCL, sebbene avessero uno scopo diverso. O così pensavo.
Gli studi sull’uso delle informazioni ricavabili dai social media per determinare la disposizione psicologica degli individui erano stati pubblicati su alcune delle maggiori riviste accademiche di psicologia, comprese Proceedings of the National Academy of Sciences, Psychological Science e Journal of Personality and Social Psychology. Il risultato era chiaro: i like lasciati da un utente, i suoi stati, i gruppi e i singoli profili che seguiva, il suo flusso di click... questi elementi erano indizi in grado di rivelare la personalità del soggetto, una volta elaborati tutti insieme. Come società, Facebook sosteneva spesso simili ricerche, e forniva agli accademici un accesso privilegiato ai dati privati degli utenti. Nel 2012 il colosso di Menlo Park aveva chiesto di registrare un brevetto negli Stati Uniti per «determinare le caratteristiche della personalità dell’utente tramite le comunicazioni e le caratteristiche del sistema di social network». La domanda precisava anche a cosa fosse dovuto l’interesse della società nel profiling psicologico: «le caratteristiche desunte della personalità sono archiviate insieme al profilo dell’utente, e possono essere utilizzate per individuare, classificare e selezionare prodotti differenti, oltre che per altri scopi». Insomma, se la DARPA puntava alle operazioni di guerra dell’informazione, a Facebook interessava aumentare la raccolta pubblicitaria.
Giunti al Downing Site, l’edificio principale della University of Cambridge, avevamo puntato la struttura con una targa che diceva LABORATORIO PSICOLOGICO. All’interno l’aria era viziata, e l’arredamento risaliva almeno agli anni Settanta. Avevamo imboccato le scale e, dopo qualche rampa, ci eravamo fermati di fronte alla porta dell’ultimo ufficio in fondo a uno stretto corridoio. Lì, Clickard mi aveva presentato il dottor Aleksandr Kogan, ricercatore associato specializzato in modellistica computazionale di tratti psicologici. Era un uomo dall’aspetto fanciullesco e dai modi maldestri quanto il suo look; se ne stava in mezzo alla stanza con un ghigno lezioso sulle labbra, tra mucchi di carte e ricordi dei tempi in cui studiava a Hong Kong.
Visto che parlava inglese con un marcato accento statunitense, non mi ero fatto domande sulle sue origini; solo più tardi avrei scoperto che era nato nella Repubblica Socialista Sovietica Moldava, negli ultimi anni dell’Unione Sovietica, e aveva trascorso parte dell’infanzia a Mosca. Poco dopo il crollo dell’URSS, nel 1991, la sua famiglia era emigrata negli Stati Uniti e lui aveva studiato a Berkeley; aveva poi conseguito un dottorato in Psicologia a Hong Kong, ed era quindi approdato a Cambridge.
Clickard mi aveva portato da lui perché era convinto che il suo lavoro potesse rivelarsi molto utile all’SCL. Ma, conoscendo lo stile di Nix, aveva deciso che la presentazione ufficiale si sarebbe tenuta davanti a tartine e calici di vino: Alexander era talmente volubile che poteva liquidare qualcuno solo perché non aveva gradito una cravatta o la scelta del ristorante. Così, per l’incontro di gruppo, Clickard aveva prenotato un tavolo al bar del Great London Hotel, accanto alla stazione ferroviaria di Kings Cross. Kogan quel giorno era già a Londra, e aveva trovato un po’ di tempo per parlarci del suo lavoro prima di tornare a Cambridge. Capitava spesso che Nix bevesse troppo durante un’uscita, ma non l’avevo mai visto lasciarsi ubriacare di parole da una voce che non fosse la sua. L’argomento, in quel caso, erano stati i social media.
«Sa più cose di voi Facebook che tutte le persone che vi stanno vicino, persino vostra moglie» ci aveva annunciato Kogan.
Nix era uscito dalla trance per tornare alla sua versione consueta, quella imbarazzante. «A volte è meglio che le mogli ignorino certi dettagli» aveva buttato lì sorseggiando il suo vino. «Perché dovrei desiderare che se li ricordi un computer, o che li ricordi a lei?»
«Potrà anche non desiderarlo» aveva risposto il professore, «ma i pubblicitari ci tengono.»
Quando Kogan si era alzato per andare in bagno, Nix aveva bofonchiato: «Un tipo interessante. Però non mi sembra di Cambridge».
«Perché non è di Cambridge, Alexander. Gesù... Insegna lì e basta!»
Clickard aveva roteato gli occhi: Nix non faceva che distrarci da questioni più pressanti. Alla fine la società aveva esaminato il lavoro di Kogan, e Alexander si era dimostrato ansioso di metterlo all’opera. L’SCL si era appena assicurata il finanziamento di Mercer ed era impegnata nella creazione della nuova entità americana. Prima che Nix gli permettesse di avvicinarsi a quel progetto, però, Kogan avrebbe dovuto dare prova di sé nei Caraibi. All’epoca, cioè l’inizio del 2014, Kogan collaborava con alcuni ricercatori dell’università statale di San Pietroburgo a un progetto di profiling psicologico finanziato dalla Russia tramite assegno di ricerca pubblico. Nello specifico, forniva consulenze a un team che estrapolava grandi quantità di dati dai profili social e li usava per analizzare il comportamento dei troll. Siccome il progetto era incentrato su soggetti disadattati e antisociali, l’SCL riteneva che avesse parecchi punti di contatto con il lavoro a Trinidad: in fondo il locale ministero per la Sicurezza nazionale era interessato a esperimenti di modellistica predittiva in merito alla propensione dei cittadini a commettere reati.
Così, in una mail al ministero e al relativo Consiglio riguardante il «profiling psicografico criminale tramite intercettazione» di dati, un membro dell’SCL aveva scritto: «Potremmo voler introdurre nella ricerca il dottor Alex Kogan, o comunque saperne di più sull’interessante lavoro che sta svolgendo per i russi, così da capire se e come si può adattare al nostro caso».
Kogan aveva dunque firmato un contratto per assistere l’SCL nel Progetto Trinidad, fornendo consulenze sulla modellazione di costrutti psicologici che ricerche precedenti avevano identificato come collegati a comportamenti antisociali o devianti. In cambio, Kogan voleva dati per i propri lavori: aveva cominciato a discutere con la società dell’accesso al dataset sul milione e passa di abitanti di Trinidad.
Ciò che apprezzavo di più in quell’uomo era la propensione a darsi da fare e portare a casa il risultato; un approccio insolito tra i ricercatori abituati alla calma glaciale della vita accademica. Inoltre sembrava onesto, ambizioso e schietto, anche se poteva apparire un po’ ingenuo visto quanto si gasava per un’idea nuova o una conquista intellettuale. All’inizio andavo piuttosto d’accordo con lui. Condivideva il mio interesse per i campi emergenti della psicologia e della sociologia computazionali, e potevamo parlare per ore delle promesse insite nella simulazione comportamentale. Quando poi discutevamo del futuro dell’SCL la sua eccitazione era palpabile. Al tempo stesso, però, lo trovavo in un certo senso «strano», e avevo notato che i suoi colleghi facevano commenti maligni sul suo conto quando non c’era. Non che la cosa mi avesse preoccupato, anzi: mi aveva semmai spinto a sentirlo ancora più affine. Dopotutto ero stato io stesso oggetto di commenti maligni. E poi bisognava essere un po’ strani per lavorare all’SCL.
Quando Kogan era entrato nell’organico del progetto Trinidad, nel gennaio del 2014, stavamo lanciando le prime fasi di prova dell’operazione americana con Bannon. Sulla base dei nostri studi qualitativi avevamo formulato alcune teorie da testare, ma i dati a disposizione erano insufficienti per un profiling psicologico. Le informazioni sulle abitudini di consumo – per esempio quelle ottenute tramite compagnie aeree, società di comunicazione e grandi magazzini – non erano abbastanza significative da permetterci di prevedere i tratti psicologici che stavamo ricercando. Il che non era una sorpresa: fare la spesa da Walmart non ti definisce come persona, al limite permette di ricavare sul tuo conto informazioni demografiche o economiche. Al supermercato ci vanno praticamente tutti, gli introversi come gli estroversi. A noi serviva un bacino di informazioni non solo ampio – capace di coprire una vasta percentuale della popolazione americana – ma anche tale da mettere in evidenza le caratteristiche psicologiche dei soggetti. Sospettavamo di aver bisogno di social data simili a quelli usati per i progetti in altre parti del mondo – per esempio i clickstream o le variabili registrate nei censimenti – e dai quali aveva attinto Kogan.
Lui, nel frattempo, aveva iniziato a lavorare al Progetto Trinidad, ma era molto più affascinato da quanto stavamo facendo negli Stati Uniti: mi aveva detto che, se l’avessero coinvolto in quella ricerca, avremmo potuto sfruttare il suo team allo Psychometric Centre per colmare le lacune in variabili e categorie, così da creare modelli più affidabili. Aveva anche chiesto l’accesso ad alcuni dei nostri archivi di dati, per controllare se mancasse qualcosa al training set, ovvero il dataset campione che si usa per «addestrare» un modello a identificare schemi ricorrenti. Ma il problema non era lì. Come gli aveva detto Clickard, avevamo già completato la modellizzazione preliminare e il training set; quel che ci serviva, ora, erano dati su vasta scala. Non riuscivamo a trovare fonti che contenessero le variabili necessarie a prevedere i tratti psicologici e tali da coprire una popolazione abbastanza vasta. Un ostacolo che si stava rivelando ostico. Kogan era convinto di poter risolvere il problema, ma voleva usare anche per la sua ricerca i dati che ci avrebbe procurato. Poi aveva aggiunto che, se fosse stato inserito nel progetto americano, avremmo potuto fondare il primo istituto internazionale di Psicologia sociale computazionale alla University of Cambridge. Avevo accettato all’istante.
Una delle sfide principali nel campo di scienze sociali quali psicologia, antropologia e sociologia è la relativa penuria di dati numerici, visto che è parecchio difficile misurare e quantificare elementi astratti come le dinamiche culturali o relazionali di un’intera società. A meno che, ovviamente, non si riesca a inserire in una simulazione in silico un clone virtuale di ognuno di noi, così da osservarne il comportamento. Insomma, sembrava che avessimo a portata di mano la chiave per aprirci il cammino verso un nuovo approccio agli studi sociali. Come potevo tirarmi indietro?
Nella primavera del 2014 Kogan mi presentò a un paio di docenti dello Psychometric Centre. Il dottor David Stillwell e il dottor Michael Kosinski stavano lavorando a un enorme dataset che avevano allestito – in modo del tutto legale – tramite Facebook. Erano pionieri della profilazione psicologica tramite social media. Nel 2007 Stillwell aveva creato un’applicazione chiamata myPersonality, che offriva agli utenti un ritratto della loro personalità. Dopo aver elaborato e fornito i risultati, l’app salvava il profilo a scopo di ricerca.
I due avevano pubblicato il primo studio scientifico su Facebook nel 2012, e lo scritto aveva subito destato l’attenzione degli accademici. Quando Kogan mi mise in contatto con loro, Kosinski e Stillwell mi parlarono degli immensi dataset che avevano allestito nel corso di anni. Spiegarono inoltre che tra i finanziatori del loro progetto c’era anche la DARPA, il che li rendeva idonei a lavorare con una società legata alle forze armate. L’approccio di Stillwell si rivelò piuttosto cauto, mentre l’ambizioso Kosinski fece pressioni affinché i contatti proseguissero: sapeva che i loro dati potevano valere una fortuna, se il collega ne avesse autorizzato la cessione.
«Come ve li siete procurati?» chiesi.
Risposero che avevano sfruttato app create ad hoc, e che in buona sostanza Facebook si era limitato a lasciarli fare. Anzi, il social network era felice che si facesse ricerca sulla piattaforma: più informazioni raccoglieva sul conto degli utenti, meglio poteva monetizzarli. Insomma, era palese che i controlli sulle autorizzazioni rilasciate da Menlo Park non fossero particolarmente severi, anzi... E infatti quando un soggetto usava la loro app Stillwell e Kosinski potevano raccogliere informazioni anche su tutti i suoi amici. Facebook non imponeva alle applicazioni di chiedere agli utenti un consenso esplicito per la raccolta di dati sui suoi contatti, poiché riteneva che essere iscritti alla piattaforma costituisse una forma implicita e più che sufficiente di autorizzazione. Persino se gli amici in questione non avevano idea che l’app stesse archiviando le loro informazioni personali. E l’utente medio di Facebook ha all’incirca tra i centocinquanta e i trecento amici. Il mio pensiero andò a Bannon e Mercer: sapevo che quella prospettiva li avrebbe mandati in estasi. Il che, a sua volta, avrebbe mandato in estasi Nix.
«Fatemi vedere se ho capito» dissi. «Io creo un’app su Facebook e convinco un migliaio di persone a usarla. A quel punto avrò informazioni su, diciamo... centocinquantamila profili? Sul serio? Facebook ve lo lascia fare davvero?»
Proprio così, risposero. E se due milioni di utenti avessero scaricato l’app, noi avremmo avuto accesso a trecento milioni di profili, meno gli amici in comune. Un dataset di dimensioni incredibili. Fino ad allora, il più grande su cui avessi lavorato era quello del Progetto Trinidad, che tra l’altro ritenevo piuttosto corposo, e quello conteneva i profili di un milione di persone o poco più. Qui si parlava di qualcosa di tutt’altro livello. In contesti diversi avremmo dovuto fare una richiesta speciale per accedere a dati simili, o sprecare mesi in un estenuante lavoro di raccolta, e per popolazioni infinitamente più piccole.
«Come convincete le persone a scaricare l’app?» domandai.
«Le paghiamo.»
«Quanto?»
«Un dollaro. A volte due.»
Ora, la nostra società aveva un budget potenziale di venti milioni di dollari, e quei signori mi avevano appena detto che potevo ottenere accesso a decine di milioni di profili Facebook per... un milione di dollari, grossomodo. Una bazzecola.
Chiesi a Stillwell di fare dei test sui loro database: volevo verificare se potevamo replicare i risultati di Trinidad, visto che per quel progetto avevamo sfruttato dati simili, legati alla navigazione online. Se i profili Facebook si fossero rivelati la miniera d’oro che speravo, avremmo potuto realizzare il potentissimo strumento desiderato da Robert Mercer; e, cosa per me più importante, avremmo potuto avviare un nuovo ambito di studio: la psicologia computazionale. Stavamo per aprire le porte a una nuova scienza della simulazione comportamentale, e io fremevo di eccitazione alla sola idea.
Facebook ha esordito, nel 2004, come piattaforma per mettere in contatto studenti e colleghi nei college, e nel giro di pochi anni è cresciuto al punto da diventare il più grande social network al mondo. Un sito su cui chiunque – persino i nostri genitori – condivide foto, posta innocui aggiornamenti di stato e organizza feste. Inoltre permette di mettere «like» a pagine di marchi, argomenti e post degli amici. Lo scopo è offrire agli utenti la possibilità di curare la propria identità virtuale e seguire gli aggiornamenti di aziende, gruppi o celebrità. Facebook considera like e condivisioni la base di ciò che definisce una «comunità». Certo, quelle sono anche le basi del suo modello d’impresa: gli inserzionisti possono ottimizzare il targeting usando i dati della piattaforma. Il social network ha persino aggiunto un’application programming interface, o API: un’interfaccia apposita che consente agli utenti di sfruttare applicazioni appositamente realizzate, le quali poi fagocitano le informazioni dei loro profili per garantire una «migliore user experience».
Entro il primo decennio del 2000 i ricercatori realizzarono che intere popolazioni stavano caricando e organizzando i propri dati in un unico posto. Una pagina Facebook contiene informazioni sul «comportamento naturale» di un soggetto nel suo ambiente, senza influenze dovute all’osservazione dello studioso. Ogni scroll, ogni movimento, ogni like è tracciato. È tutto lì – sfumature, interessi, antipatie – ed è tutto quantificabile. Quei dati hanno un’altissima validità ecologica, nel senso che non sono alterati dalle domande del ricercatore, che genererebbero inevitabilmente delle distorsioni. In altre parole, si conservano quasi tutti i vantaggi della tradizionale osservazione qualitativa passiva impiegata in antropologia o sociologia; e in più, man mano che aumenta il numero di interazioni sociali e culturali catturate dai dati digitali, vi si aggiungono i vantaggi della generalizzazione offerti dalla ricerca quantitativa. Prima, l’unico modo per ottenere informazioni simili sarebbe stato tramite le banche o le compagnie telefoniche, che però seguono regolamenti rigidi a garanzia della privacy. Ma, a differenza di banche e società di telecomunicazioni, i social media operavano in pratica senza regole: nessuna legge normava il loro accesso a dati personali così minuziosi ed estesi.
Anche se molti utenti tendono a distinguere ciò che succede online da ciò che capita nella vita reale, le informazioni ricavate dal loro uso dei social – il commento al finale di stagione di una serie tv, il like a una foto del sabato sera precedente... – nascono fuori dalla rete. Quelli raccolti da Facebook sono dati sulla vita di tutti i giorni. E non fanno che aumentare, perché l’esistenza delle persone passa sempre più attraverso Internet. Questo significa che, spesso, un analista non ha nemmeno bisogno di fare domande: basta creare un algoritmo capace di riconoscere schemi precisi nei dati caricati dall’utente. A quel punto, il sistema riesce a individuare da sé pattern che, altrimenti, lo studioso non avrebbe mai notato.
Gli utenti di Facebook si sono radunati e organizzati da sé in un unico luogo, in un solo modulo dati. Non dobbiamo più collegare milioni di dataset; non servono complicati calcoli matematici per ricavare le informazioni mancanti: sono già al loro posto, perché tutti caricano la propria autobiografia in tempo reale, proprio lì, sul sito. Se qualcuno avesse cercato di creare da zero un sistema per osservare e studiare le persone, non avrebbe potuto fare meglio.
Anzi, uno studio del 2015 di Kosinski, Stillwell e Wu Youyou dimostrò che, usando i like di Facebook, un modello informatico riusciva a prevedere il comportamento umano senza temere rivali. Con dieci like, il sistema anticipava il comportamento di un soggetto con più precisione dei suoi colleghi. Con centocinquanta like faceva meglio di un famigliare. Con trecento like a disposizione, il modello mostrava di conoscere quella persona persino meglio del suo coniuge. In parte, ciò è possibile perché amici, colleghi, compagni e genitori hanno in genere una visione limitata della nostra vita, e si rapportano con noi in situazioni in cui il nostro comportamento è influenzato da quella stessa relazione. È improbabile che i vostri genitori vi abbiano mai visti mentre vi scatenate alle tre del mattino durante un rave, dopo un paio di pasticche di MDMA; e magari i vostri amici non sanno quanto siete riservati e deferenti in ufficio, con il vostro capo. Ciascuno di loro ha un’idea leggermente diversa della vostra personalità. Facebook, invece, sbircia nelle vostre relazioni, vi segue nel vostro telefono, monitora i vostri click e i vostri acquisti online. Ecco perché i dati ricavati dal social network sono più veritieri rispetto al giudizio di amici o famigliari. Per alcuni versi, un modello informatico conosce le abitudini di una persona meglio di quanto si conosca lei stessa. Il che spinse Kosinski, Stillwell e Youyou a lanciare un monito: «I computer superano gli umani nel giudicare la personalità di un soggetto. Ciò apre la porta tanto a opportunità interessanti quanto a sfide significative negli ambiti della valutazione psicologica, del marketing e della privacy».
Con a disposizione una mole sufficiente di dati raccolti da Facebook, sarebbe stato finalmente possibile fare il primo passo verso la simulazione di una società in silico. Le implicazioni erano sbalorditive: si poteva, in teoria, simulare una società afflitta da problemi quali tensioni etniche o disuguaglianze economiche, e osservare come si sarebbero evolute le cose. Poi si sarebbe potuto «riavvolgere il nastro» e modificare gli input di partenza, per capire come migliorare la situazione. In altre parole, avremmo potuto iniziare a modellizzare soluzioni per i problemi della vita reale, ma all’interno di un computer. La società come un videogioco: una prospettiva che trovavo straordinaria. Ero ossessionato dall’idea dell’istituto che Kogan mi aveva prospettato, e mi feci sempre più ansioso di poterla in qualche modo realizzare. Oltretutto non era una fissazione solo nostra: professori di ogni dove si dimostravano altrettanto entusiasti.
Dopo una serie di incontri a Harvard, Kogan mi informò tramite mail dei feedback ricevuti: «Queste condizioni operative stanno ridefinendo le regole del gioco e rivoluzionando le scienze sociali». All’inizio anche Stillwell e Kosinki sembravano eccitati a tale prospettiva. Poi, però, Kogan si lasciò sfuggire con loro che CA aveva un budget di venti milioni di dollari, e di colpo il cameratismo accademico svanì del tutto.
Kosinski inviò a Kogan una mail, sostenendo che per concederci l’uso dei loro dati Facebook lui e il collega volevano subito mezzo milione, oltre al cinquanta per cento dei diritti sui futuri sviluppi. Ancora non avevamo nemmeno dimostrato che la cosa potesse funzionare su vasta scala, in una sperimentazione sul campo, e già ci stavano chiedendo una montagna di soldi. Nix mi disse di rifiutare, il che mandò nel panico Kogan: temeva che il progetto finisse alle ortiche prima ancora di partire. Così, il giorno dopo aver respinto la richiesta di Kosinski, disse di poter proseguire per conto proprio, alle sue condizioni originali: lui ci avrebbe aiutati a ottenere i dati, CA avrebbe pagato a prezzo di costo, e lui avrebbe potuto sfruttare le informazioni per le proprie ricerche. Aggiunse di aver accesso ad altre app autorizzate a raccogliere i dati degli utenti di Facebook e dei loro amici, e di poterle usare. La cosa mi insospettì: era possibile che Kogan intendesse usare in segreto il programma di Stillwell e Kosinski? Lui, però, mi assicurò che ne avrebbe sviluppato uno tutto suo. «D’accordo» dissi. «Dimostralo. Portami una vagonata di dati.» Per essere certi che non fossero estrapolati da altre applicazioni, gli concedemmo anche un finanziamento da diecimila dollari, con i quali creare un’applicazione pilota che assemblasse un nuovo dataset. Lui accettò e non chiese altro denaro, purché gli concedessimo di conservare una copia dei dati.
Anche se all’epoca non disse nulla a riguardo, Kosinski ha poi affermato che il suo intento era donare alla University of Cambridge i soldi richiesti. Tuttavia, l’ateneo ha negato con forza ogni coinvolgimento in progetti riguardanti dati raccolti da Facebook, quindi non è chiaro se l’università fosse a conoscenza del potenziale accordo economico o se avrebbe accettato i finanziamenti da esso derivanti.
La settimana seguente, Kogan inviò all’SCL le informazioni su decine di migliaia di utenti Facebook, e noi avviammo dei test per accertarci che fossero utili quanto speravamo. Si dimostrarono superiori a ogni attesa; avevamo accesso a profili completi: nome, genere, età, luogo di residenza, aggiornamenti di stato, like, amici... Tutto. Kogan ci tenne a specificare che la sua app poteva persino attingere ai messaggi privati. «D’accordo» gli dissi. «Partiamo.»
Quando iniziai a lavorare con Kogan, eravamo ansiosi di fondare un istituto che raccogliesse dati provenienti da Facebook, clickstream e informazioni sulle abitudini di consumo, così da metterli a disposizione di psicologi, antropologi, sociologi, analisti e di qualsiasi studioso fosse stato interessato.
Per la gioia dei miei professori alla UAL, Kogan acconsentì anche a farmi aggiungere categorie riguardanti la moda e l’estetica, sulle quali avrei potuto far ricerca per il mio dottorato. Progettammo di visitare diverse università in giro per il mondo, continuando ad allestire il dataset così da poter iniziare la modellizzazione nell’ambito delle scienze sociali. Quando alcuni professori dell’Harvard Medical School ci proposero di accedere ai milioni di profili genetici dei loro pazienti, persino io rimasi sorpreso da come la nostra idea stesse evolvendo. «Immagina il potere» mi disse Kogan, «di un database che colleghi il comportamento digitale di una persona alla mappatura dei suoi geni.» Era eccitato: con quel materiale avremmo potuto realizzare esperimenti per giungere a un verdetto conclusivo sul rapporto tra natura e cultura. Sapevamo di essere a un passo da qualcosa di grosso.
Ricevemmo la nostra prima infornata di dati da Amazon MTurk, un servizio online che consente di affidare a una community semplici incarichi ancora fuori portata per l’intelligenza artificiale. In origine, Amazon aveva creato MTurk come strumento interno a sostegno di un progetto di riconoscimento visivo: la società aveva bisogno di addestrare gli algoritmi a riconoscere le fotografie, e il primo passo era stato impiegare delle persone per etichettarle, così che l’AI avesse un set di foto correttamente identificate da cui imparare. Amazon offriva un centesimo per microtask completato, e le richieste di partecipazione erano arrivate a migliaia.
Nel 2005 il colosso di Seattle si era accorto delle potenzialità di guadagno offerte dal progetto, e aveva trasformato MTurk in un prodotto, definendolo «intelligenza artificiale artificiale». Società esterne potevano dunque pagare per accedere alla community di utenti che, nel tempo libero, erano disposti a svolgere semplici compiti – per esempio caricare scansioni di ricevute o identificare fotografie – in cambio di piccole somme di denaro. In buona sostanza si trattava di far svolgere alle persone dei compiti da macchine, e persino il nome MTurk alludeva alla cosa. MTurk era infatti l’abbreviazione di Mechanical Turk, o Turco Meccanico, un «automa» del Diciottesimo secolo in grado di giocare a scacchi e incantare le folle. In realtà, era un uomo nascosto nella struttura del macchinario a muovere i pezzi tramite apposite leve.
Ben presto, psicologi e ricercatori universitari si erano resi conto che MTurk era uno strumento fantastico per indurre un gran numero di persone a partecipare a test sulla personalità. Anziché dover raccattare studenti disposti a rispondere ai sondaggi, scelta che peraltro non offriva mai un campione realmente rappresentativo, potevano raggiungere persone di tutto il mondo. Invitavano gli utenti della piattaforma a fare un test di un minuto, in cambio di una piccola somma per il disturbo: al termine della sessione veniva fornito un codice da inserire nella propria pagina di Amazon, e il colosso provvedeva ad accreditare il denaro sull’account.
L’app di Kogan funzionava in sostanza come MTurk: le persone acconsentivano a sottoporsi a un test in cambio di un piccolo pagamento, solo che per ricevere il denaro dovevano scaricare l’applicazione via Facebook e inserire un codice speciale. Il programma si occupava poi di raccogliere le risposte e inserirle in una tabella, facendo lo stesso con i dati del profilo utente e quelli degli amici, che finivano in due tabelle distinte.
Gli utenti rispondevano a una vasta serie di quesiti a carattere psicometrico, ma la sessione iniziava sempre da un test di personalità approvato a livello internazionale e sottoposto a revisione paritaria, l’IPIP NEO-PI, che presentava centinaia di affermazioni da confermare o negare: «mi piace tenere gli altri a distanza», «amo confrontarmi con nuove idee», «agisco senza riflettere» e così via. Combinando le risposte fornite ai like su Facebook era possibile trarre conclusioni affidabili. Per fare qualche esempio, gli estroversi avevano più probabilità di apprezzare la musica elettronica, le persone aperte tendevano ad amare il fantasy, e chi aveva sviluppato tratti nevrotici tendeva a mettere like a pagine come Odio quando i miei mi guardano il telefono. Ma quella mole di dati non ci forniva indicazioni solo sulle caratteristiche psicologiche dei soggetti; per dirne una, era più probabile che gli uomini statunitensi cui piacevano le pagine Facebook di Britney Spears, MAC Cosmetics o Lady Gaga fossero gay. Anche se un singolo like non era abbastanza significativo da permettere di avanzare previsioni, quando se ne combinavano centinaia ai dati relativi ad abitudini di consumo e preferenze elettorali era possibile tracciare identikit affidabili. Dopo aver addestrato l’algoritmo e averne verificato l’efficacia, lo mettemmo al lavoro sul database «amici di Facebook»: soggetti che non avevano partecipato al nostro test, ma dei quali potevamo studiare i like. Da quelle informazioni, il sistema estrapolava le risposte che con tutta probabilità avrebbero dato ai quesiti del sondaggio.
Durante l’estate, man mano che il progetto andava avanti e furono esplorati altri tratti, i suggerimenti di Kogan cominciarono a coincidere con i desideri di Bannon. Secondo il ricercatore dovevamo iniziare a considerare la soddisfazione delle persone, la loro apertura agli altri (se erano sospettose o meno) e un costrutto chiamato sensational and extreme interests, sempre più usato nella psicologia forense per comprendere i comportamenti deviati. In quell’etichetta rientravano, per esempio: «militarismo» (fucili e pistole, arti marziali, balestre, coltelli), «occultismo violento» (stupefacenti, magia nera, paganesimo), «attività intellettuali» (canto, composizione musicale, viaggi internazionali, ambiente), «tendenza a credere nell’occulto» (paranormale, dischi volanti) e «interessi salubri» (campeggio, giardinaggio, escursionismo). Il mio elemento preferito, però, era una scala a cinque punti per valutare la «fede nell’astrologia»; molti degli omosessuali dell’ufficio, scherzando, proposero di declinare quella caratteristica in «compatibilità zodiacale», da studiare tramite Grindr, un’app per incontri tra gay.
Usando il programma di Kogan avremmo sviluppato un training set per un ottimo algoritmo – visto che i dati erano ricchi, densi e significativi – e al contempo ottenuto informazioni su centinaia di profili aggiuntivi, ovvero quelli degli amici di chi lo scaricava. Tutto al modico costo di uno o due dollari per download. Portammo a termine il primo ciclo di raccolta con un disavanzo di budget. Nel mondo del management, si dice che esista una regola aurea per gestire qualsiasi progetto: puoi portarlo a termine a buon mercato, alla svelta o bene. Il punto è che non otterrai mai tutte e tre le caratteristiche, dovrai accontentarti al massimo di due. Per la prima volta nella mia vita vidi quella regola infranta su tutti i fronti: l’app creata da Kogan era più economica, più veloce e migliore di qualsiasi cosa avessi potuto immaginare.
Il lancio ufficiale era previsto per giugno 2014. Ricordo che faceva un caldo terribile: nonostante l’estate fosse imminente, Nix teneva al minimo l’aria condizionata dell’ufficio, per risparmiare sulle bollette. Avevamo passato diverse settimane a calibrare il sistema e assicurarci che funzionasse, che estrapolasse i dati giusti e che tutto combaciasse una volta inserite le informazioni nei database interni. Di media, un utente dell’app ci avrebbe dato accesso ai profili di trecento persone, ciascuna con circa duecento like da analizzare, che noi dovevamo tracciare e organizzare. A quanti elementi, foto, link, status e pagine si può attribuire un like nell’intera piattaforma? Migliaia di miliardi. Per preparare il set di funzionalità bisogna tener conto di tutto, anche della pagina di una band dell’Oklahoma che magari ha ottenuto soli ventotto like da tutto il Paese. Un sacco di cose possono andare storte in un progetto di tale entità e complessità, perciò impiegammo parecchio tempo a testare il modo migliore per elaborare il dataset, prima di riproporlo su vasta scala. Una volta certi che tutto funzionasse, arrivò il momento di avviare il progetto. Accreditammo centomila dollari sul nostro account MTurk, per cominciare a reclutare gente, poi aspettammo.
Noi eravamo seduti alle nostre scrivanie, mentre Kogan si trovava a Cambridge. Lui lanciò l’app, poi qualcuno esclamò: «Urrà!» Eravamo attivi.
Fu forse l’avvio di progetto più deludente della storia: non successe niente. Passarono cinque, dieci, quindici minuti... I membri del team iniziavano a farsi irrequieti. «Che cazzo succede?» sbraitò Nix. «Perché siamo fermi?» Ma io sapevo che ci sarebbe voluto un po’ di tempo prima che la gente notasse il sondaggio su MTurk, lo compilasse e installasse l’app per farsi pagare. Nix aveva appena preso a lagnarsi quando assistemmo al nostro primo centro.
Poi arrivò l’inondazione. Una registrazione, due, venti, cento, mille... nel giro di pochi istanti. Jucikas aveva installato sul proprio computer un contatore con segnale sonoro, soprattutto perché sapeva che Nix aveva un debole per quelle stupidate: si scompisciava all’idea di quanto fosse facile impressionarlo con quei trucchetti. Il pc cominciò a emettere un bip dietro l’altro, che si trasformarono in un suono continuo mentre le interazioni raggiungevano un ritmo folle. Le cifre continuavano a salire, alimentando le tabelle man mano che i profili degli utenti e dei loro amici venivano aggiunti al database. Fu eccitante per tutti, ma per gli analisti di dati fu un’iniezione di adrenalina pura.
Jucikas, il nostro affabile direttore tecnico, prese una bottiglia per brindare. Era sempre di buon umore, l’anima della festa, e si assicurava che in ufficio non mancasse mai una cassa di champagne, per occasioni come quella. Era cresciuto in una fattoria poverissima, al tramonto della Repubblica Socialista Sovietica Lituana, e nel corso degli anni si era fatto un nome tra l’élite di Cambridge. Con il suo atteggiamento dandy sembrava dire: goditela oggi, perché domani potresti essere morto. Portava tutto all’eccesso, sopra le righe. E non a caso aveva comprato per l’ufficio un’antica sciabola risalente alle guerre napoleoniche, che adesso intendeva usare. Perché aprire lo champagne nel solito modo quando puoi farlo con una spada?
Prese un Perrier-Jouët Belle Epoque, il suo preferito, allentò la gabbietta che tratteneva il tappo, inclinò la bottiglia e, con eleganza, passò la sciabola lungo il collo. L’intera parte superiore si staccò di netto, lasciando sgorgare lo champagne. Riempimmo i flûte e brindammo al nostro successo, godendoci la prima delle tante bottiglie che avremmo vuotato quella sera. Più tardi, Jucikas mi avrebbe spiegato che sciabolare lo champagne non è questione di forza, si deve invece studiare la bottiglia per colpirne il punto debole con aggraziata precisione. Se eseguita nel modo giusto, la tecnica richiede pochissima pressione: in pratica, si lascia che la bottiglia si rompa da sola. Se ne attacca il difetto strutturale.
Quando Mercer aveva confermato il proprio investimento, ci eravamo convinti di avere un paio d’anni per portare il progetto a pieno regime. Bannon, però, stroncò subito ogni illusione. «Deve essere pronto per settembre» disse. Provai a ribattere che era troppo poco tempo, ma lui fu irremovibile: «Non mi interessa. Vi abbiamo affidato milioni di dollari, e quella è la scadenza. Trovate una soluzione». Le elezioni di metà mandato del 2014 erano imminenti, e Bannon voleva che il Progetto Ripon – come aveva preso a chiamarlo, dalla cittadina del Wisconsin in cui era stato fondato il Partito repubblicano – fosse attivo e funzionante. Molti di noi mal sopportavano Steve, le cui stranezze si erano andate palesando dopo l’investimento, ma pensavamo che appagare le ossessioni legate alla sua stramba visione politica fosse un piccolo prezzo per ciò che avremmo ottenuto: la possibilità di creare qualcosa di rivoluzionario a livello scientifico. Il fine giustifica i mezzi, continuavamo a ripeterci.
Cominciò a venire a Londra sempre più spesso, per controllare i nostri progressi. Una delle visite seguì di poco il lancio dell’app: ci ritrovammo nella sala riunioni con il gigantesco schermo, e Jucikas fece una breve presentazione prima di rivolgersi a Bannon.
«Mi dica un nome.»
Disorientato, Steve lo assecondò, scegliendo un nome femminile.
«Bene. Adesso uno Stato.»
«Non so» rispose. «Nebraska?»
Jucikas lanciò l’interrogazione del database e apparve un elenco di link. Cliccò per selezionare una delle tante donne del Nebraska con quel nome. Di colpo, il monitor fu invaso dalle informazioni sul suo conto: foto, posto di lavoro, casa, figli, scuola dei figli, auto. Aveva votato per Mitt Romney nel 2012, amava Katy Perry, guidava un’Audi; un po’ sempliciotta, forse... Sapevamo tutto di lei. E molti dei dati venivano verificati e aggiornati in tempo reale: se avesse postato qualcosa su Facebook l’avremmo visto in diretta.
Ma non ci eravamo limitati a raccogliere le informazioni dal suo profilo sociale: le avevamo unite a quelle comprate da database commerciali e amministrativi, completandole poi con quelle desunte dai dati del censimento statunitense. Sapevamo delle sue richieste di mutuo, quanto guadagnava, se possedeva una pistola. Avevamo acquisito i dati sulle miglia aeree che aveva accumulato, quindi sapevamo quanto spesso prendeva l’aereo. Potevamo vedere se era sposata (non lo era). Avevamo un’idea del suo stato di salute fisica e persino una foto satellitare della sua casa, facilmente ottenibile tramite Google Earth. Avevamo ricreato la sua intera vita nel nostro database. E lei ne era all’oscuro.
«Me ne dica un altro» chiese Jucikas, e Bannon obbedì. Poi lo fecero ancora. Al terzo profilo, Nix – che fino a quel momento aveva dimostrato ben poco interesse per la dimostrazione – drizzò d’un tratto le antenne.
«Un attimo» esclamò, sgranando gli occhi dietro le lenti cerchiate di nero. «Quanti ne abbiamo di questi?»
«Ma che cazzo...» Bannon trovava irritante lo scarso impegno riversato da Alexander nel progetto.
«Siamo ormai nell’ordine delle decine di milioni» rispose Jucikas. «Di questo passo, potremmo arrivare a duecento milioni entro la fine dell’anno, con un finanziamento sufficiente.»
«E sappiamo praticamente tutto di queste persone?» chiese Nix.
«Sì» confermai. «È proprio questo il punto.»
Si era accesa la lampadina: per la prima volta, Nix afferrava davvero ciò che stavamo facendo. Dati e algoritmi non potevano interessarlo meno, ma vedere sullo schermo tutte quelle informazioni di persone reali, conoscere ogni aspetto delle loro vite... Ecco, questo catturava la sua immaginazione.
«Abbiamo i loro numeri di telefono?» domandò. Gli dissi di sì. E poi, in uno di quei lampi di bizzarra genialità che ogni tanto mostrava, mise il telefono in vivavoce e si fece dettare il numero da Jucikas.
Dopo un paio di squilli, qualcuno rispose. La voce di una donna.
«Pronto?»
«Salve, signora» la salutò Nix sfoderando il suo accento più snob. «Mi spiace terribilmente disturbarla. Chiamo dalla University of Cambridge: stiamo conducendo un sondaggio. Potrei parlare con Ms Jenny Smith, per favore?»
La donna confermò di essere Jenny, e Nix cominciò a farle delle domande sfruttando quanto sapevamo di lei.
«Ms Smith, vorrei sapere cosa ne pensa della serie tv Il Trono di Spade.»
Jenny ne parlò in termini entusiastici, proprio come aveva fatto su Facebook.
«Ha votato per Mitt Romney alle ultime elezioni?»
Jenny confermò. Nix le chiese se i suoi figli frequentassero la tale scuola, e lei confermò anche quello.
Mi voltai verso Bannon: un ghigno enorme gli si era disegnato sul volto. Quando Nix ebbe riattaccato, Steve esclamò: «Voglio chiamare anche io!»
A turno, tutti noi facemmo una prova. Era surreale pensare che quelle persone fossero sedute nelle loro cucine in Iowa, Oklahoma o Indiana, e parlassero con tizi a Londra che stavano osservando le immagini satellitari delle loro case o le loro foto di famiglia, estrapolandole da un mare di informazioni personali. A posteriori, è surreale anche il fatto che Bannon – all’epoca un signor nessuno, che solo un anno dopo avrebbe raggiunto la fama come consulente di Trump – fosse nel nostro ufficio e chiamasse statunitensi a caso per far loro simili domande. E che quelli si dimostrassero tanto felici di rispondere.
Ce l’avevamo fatta: avevamo ricreato in silico le vite di decine di milioni di americani, che presto sarebbero diventati centinaia di milioni. Fu un momento epico. Ero orgoglioso che avessimo creato qualcosa di così potente. Ed ero convinto che la gente ne avrebbe parlato per decenni.