EPILOGO

SULLA NORMATIVA:

NOTA PER IL LEGISLATORE

Se vogliamo impedire a un’altra Cambridge Analytica di attaccare le nostre istituzioni civili, dobbiamo mirare all’ambiente viziato che le ha fatto da incubatore. Per troppo tempo Congressi e Parlamenti sono stati vittima di una visione errata secondo cui «la legge non riesce a stare al passo con la tecnologia». Il settore tecnologico ama rafforzare tale convinzione, perché tende a far sentire il legislatore troppo stupido o arretrato per sfidare il loro potere. Ma la legge è in grado di stare al passo con la tecnologia, proprio come ha fatto con la medicina, l’ingegneria civile, gli standard alimentari, l’energia e innumerevoli altri ambiti specialistici. I legislatori non hanno bisogno di capire la chimica degli isomeri molecolari presenti in un nuovo farmaco anticancro per creare efficaci procedure di valutazione, né hanno bisogno di conoscere la conduttività del rame negli impianti elettrici ad alto voltaggio per stabilire standard di isolamento sicuro. Non pretendiamo che i nostri legislatori siano esperti conoscitori di ogni settore dello scibile, perché deleghiamo la responsabilità della supervisione tecnica alle autorità di regolazione. La normativa funziona perché ci fidiamo di persone che ne sanno più di noi e che sorvegliano comparti anche innovativi, a salvaguardia della sicurezza pubblica. «Normativa» può anche essere una delle parole meno sexy al mondo, visto che evoca un’immagine di burocrati armati di incontestabili liste di controllo, e avremo sempre da ridire sui dettagli dell’imperfetto operato di quelle persone; nondimeno, però, la normativa sulla sicurezza in genere funziona. Quando fate la spesa al supermercato, andate dal medico o salite a bordo di un aereo e sfrecciate a migliaia di metri dal terreno vi sentite sicuri? Molti risponderanno sì. Vi sentite mai in dovere di pensare agli aspetti chimici o ingegneristici di tutto ciò? Probabilmente no.

Le aziende tecnologiche non dovrebbero potersi muovere in fretta e rompere le cose. Le strade hanno limiti di velocità per un motivo: rallentare l’andatura garantisce l’incolumità delle persone. Un laboratorio farmaceutico o una società aerospaziale non possono introdurre innovazioni in un mercato senza prima superare standard di sicurezza ed efficacia, quindi perché i sistemi digitali dovrebbero essere rilasciati senza alcun controllo? Perché dovremmo consentire alle Big Tech di condurre esperimenti su vasta scala, solo per accorgerci che sono diventate un problema troppo grande da gestire? Abbiamo visto radicalizzazione, stragi, pulizia etnica, disturbi alimentari, cambiamenti nei ritmi del sonno e aggressioni su vasta scala alla nostra democrazia, il tutto influenzato direttamente dai social media. Potranno anche essere ecosistemi intangibili, ma i danni che causano alle loro vittime sono concreti.

Il punto che nessuno vuole affrontare è legato alle dimensioni dei social network. Quando i dirigenti della Silicon Valley si giustificano dicendo che, data la scala così grande, è davvero difficile impedire che le stragi vengano trasmesse o la pulizia etnica venga incitata attraverso le loro piattaforme, quella non è una scusa: stanno tacitamente ammettendo che quanto hanno creato è troppo grande per gestirlo da soli. Inoltre, sono tacitamente convinti che il loro diritto di trarre profitto da quel sistema sia più importante dei suoi costi sociali. Perciò, quando società come Facebook dicono: «Abbiamo ricevuto feedback che ci incitano a fare di più», come è successo con le stragi in Nuova Zelanda trasmesse in diretta dal social network, dovremmo porre loro una domanda. Se quei problemi sono troppo grossi per essere risolti in poco tempo, allora perché dovremmo consentire loro di distribuire prodotti non testati, dei quali ancora non si comprendono i potenziali effetti sulla società?

Abbiamo bisogno di nuove regole che contribuiscano a creare su Internet una sorta di «sano attrito», un po’ come dei dissuasori di velocità digitali, per garantire la sicurezza nelle nuove tecnologie ed ecosistemi. Non sono un esperto di normative né sostengo di avere tutte le risposte, perciò non prendete queste parole come vangelo. Piuttosto, dovrebbe aprirsi un dibattito al quale partecipi la comunità nel suo insieme. E mi piacerebbe offrire degli spunti di riflessione, degli stimoli per interrogarsi. Alcune di queste idee potrebbero funzionare, altre magari no, ma dobbiamo iniziare a pensare a questo pressante problema. La tecnologia è potente, e ha il potenziale di elevare l’umanità in svariati modi, ma quel potere dev’essere impiegato in sforzi costruttivi.

1. UN «REGOLAMENTO EDILIZIO» PER INTERNET

La storia dei regolamenti edilizi risale al 64 d.C., quando Nerone decise di normare l’altezza degli edifici, l’ampiezza delle strade e i servizi di fornitura idrica, dopo che un rovinoso incendio devastò Roma per nove giorni. Un altro incendio, nel 1631, indusse Boston a mettere al bando comignoli di legno e tetti di paglia, ma il primo regolamento edilizio moderno scaturì dalla terribile carneficina del grande incendio di Londra, nel 1666. Come a Boston, le case di Londra erano costruite perlopiù di legno e paglia, cosa che consentì al fuoco di propagarsi rapidamente nel corso di quattro giorni. Le fiamme rasero al suolo 13.200 abitazioni, 84 chiese e quasi tutti gli edifici governativi della città. In seguito, Carlo II sancì che nessuno avrebbe «eretto case o palazzi, grandi e piccoli, se non di mattoni o pietra». Il decreto, inoltre, imponeva di allargare le strade principali per impedire a incendi futuri di diffondersi da un lato all’altro della via. Dopo altri storici incendi nel XIX secolo, molte città seguirono l’esempio di Londra, e alla fine gli ispettori pubblici furono incaricati di effettuare verifiche e assicurare che la costruzione di edifici privati fosse sicura per i residenti e la popolazione in generale. Furono stabilite nuove regole e il concetto di sicurezza pubblica divenne un principio onnicomprensivo, tanto potente da fermare progetti edilizi non sicuri o non collaudati, a prescindere dai desideri dei proprietari o persino dal consenso dei residenti. Una piattaforma come Facebook è andata a fuoco per anni, causando disastri noti come Cambridge Analytica, ingerenza russa, pulizia etnica in Myanmar, stragi in Nuova Zelanda; e, come successo con le riforme successive al grande incendio, dobbiamo iniziare a occuparci dei problemi strutturali che minacciano la nostra armonia sociale e il benessere dei cittadini.

Internet contiene innumerevoli tipi di architetture con cui la gente interagisce ogni giorno, a volte ogni ora. E, man mano che il mondo digitale continua a fondersi con quello fisico, queste strutture avranno un impatto sempre maggiore sulla nostra vita. La privacy è un diritto umano fondamentale e dovrebbe essere apprezzato come tale. Tuttavia, troppo spesso viene svalutata tramite il semplice atto di cliccare ACCETTA sotto un indecifrabile insieme di termini e condizioni. Questo consenso-farsa ha permesso a grandi piattaforme tecnologiche di difendere le proprie pratiche manipolatorie attraverso il linguaggio ipocrita della «scelta del consumatore». Ciò distoglie la nostra mente dalla struttura – e dagli ideatori – di queste architetture viziate, inducendola invece a concentrarsi inutilmente sull’attività di un utente che non ha né la comprensione né il controllo sulla struttura in questione. Non consentiamo alla gente di «dare il consenso» a edifici con l’impianto elettrico difettoso o privi di uscite antincendio. Non sarebbe sicuro, e nessuna richiesta di consenso o avviso affisso a una porta permetterebbe a un architetto di progettare impunemente spazi pericolosi. Perché per gli ingegneri e gli architetti di software e piattaforme online dovrebbe essere diverso?

In quest’ottica, il consenso non dovrebbe essere l’unico requisito perché una piattaforma possa gestire una funzione che interessa i diritti fondamentali degli utenti. Seguendo l’approccio canadese ed europeo al trattamento della privacy come una questione di costruzione e progettazione – la cosiddetta privacy by design, o «privacy a partire dalla progettazione» – dovremmo ampliare questo principio per creare un intero codice di costruzione: un regolamento edilizio per Internet. Questo includerebbe nuovi principi oltre alla privacy, come il rispetto per l’agentività e l’integrità degli utenti finali. Un regolamento del genere creerebbe anche un nuovo principio – l’agentività a partire dalla progettazione – per richiedere alle piattaforme l’uso di strutture che valorizzino la scelta. Questo principio vieterebbe inoltre i dark pattern, comuni interfacce che, di proposito, confondono, ingannano o manipolano gli utenti perché acconsentano a una funzione o si comportino in un certo modo. L’agentività a partire dalla progettazione richiederebbe anche la proporzionalità degli effetti, per cui l’effetto della tecnologia sull’utente è proporzionale allo scopo e al beneficio per l’utente stesso. In altre parole, ci sarebbe un divieto di influenza indebita nella progettazione della piattaforma, laddove si possono prevedere effetti durevoli e sproporzionati, come schemi che danno dipendenza o conseguenti problemi di salute mentale.

Come con i tradizionali regolamenti edilizi, il principio di prevenzione del danno sarebbe una caratteristica centrale in un regolamento edilizio digitale. Richiederebbe a piattaforme e applicazioni di condurre verifiche di abusabilità e test di sicurezza prima di lanciare o distribuire al pubblico un prodotto o una funzione. Le aziende tecnologiche avrebbero l’onere di dimostrare che i loro prodotti sono sicuri per l’impiego su vasta scala. Implementare nuove funzioni non testate sarebbe proibito, e i cittadini non potrebbero più essere usati come cavie. Questo contribuirebbe a evitare crisi come quella in Myanmar, con Facebook che non aveva pensato a misure preventive per evitare che le sue funzioni potessero scatenare la violenza in aree interessate da conflitti etnici.

2. UN CODICE DEONTOLOGICO PER GLI INGEGNERI INFORMATICI

Se vostro figlio si fosse perso e avesse bisogno di aiuto, a chi vorreste che si rivolgesse? Forse a un dottore? O magari a un insegnante? E cosa ne direste di un trader di criptovalute o uno sviluppatore di app ludiche? La nostra società considera affidabile chi svolge certe professioni – medici, avvocati, infermieri, insegnanti, architetti e simili – in gran parte perché il loro lavoro richiede che si attengano a codici deontologici e leggi che regolano la sicurezza. Il posto speciale che queste professioni occupano nella nostra società comporta che esigiamo da chi le pratica un più alto standard di condotta e obblighi particolari di diligenza. Di conseguenza, in molti Paesi esistono organismi ufficiali che regolano e garantiscono la condotta etica di tali soggetti. Perché la società funzioni, dobbiamo poterci fidare del fatto che i nostri dottori e avvocati agiscano sempre nel nostro interesse, e che i ponti e i palazzi che usiamo tutti i giorni siano stati costruiti in base al regolamento vigente e con competenza. Nel caso di tali professioni regolamentate, azioni contrarie all’etica possono avere gravi conseguenze: sanzioni, gogna pubblica, sospensioni temporanee e persino interdizioni permanenti per le trasgressioni più eclatanti.

Software, intelligenza artificiale ed ecosistemi digitali permeano ormai la nostra vita, eppure coloro che realizzano i programmi e i sistemi che usiamo ogni singolo giorno non sono obbligati da nessuno statuto o regolamento vincolante a tenere in debita considerazione gli impatti del loro operato sugli utenti o la società in generale. La professione dell’ingegnere informatico ha un serio problema deontologico, che va affrontato. Le aziende tecnologiche non creano magicamente dal nulla piattaforme problematiche o pericolose; ci sono persone all’interno di queste società incaricate di sviluppare tali tecnologie. Ma c’è un problema evidente: gli ingegneri del software e gli analisti di dati non hanno voce in capitolo, né interessi da difendere a parte il proprio posto di lavoro. Se il loro responsabile richiede la creazione di sistemi manipolatori, eticamente dubbi o implementati in modo sconsiderato, senza alcuna considerazione per la sicurezza dell’utente, non ci sono le condizioni per rifiutare. Al momento, il rifiuto di agire in modo contrario all’etica mette il dipendente a rischio di ripercussioni o licenziamento. E se anche quel progetto entrasse poi in conflitto con alcune norme particolari, la società se ne assumerà la responsabilità e pagherà le sanzioni, così non ci saranno conseguenze professionali per gli ideatori della tecnologia in questione, come invece ce ne sarebbero nel caso di un dottore o un avvocato che commettano una seria violazione dell’etica professionale. Si tratta di un incentivo perverso che non esiste in altri campi. Se un datore di lavoro chiedesse a un avvocato o a un infermiere di agire in modo contrario all’etica, essi sarebbero obbligati a rifiutare, pena la revoca della licenza professionale. In altre parole, gli interessi che devono difendere permettono loro di opporsi a tali richieste.

Se come ingegneri informatici o analisti vogliamo definirci professionisti degni della stima e degli alti salari che percepiamo, deve esserci un obbligo corrispondente ad agire secondo etica. I regolamenti imposti alle aziende tecnologiche non saranno mai efficaci quanto potrebbero se non iniziamo a far sì che chi lavora in queste società abbia degli interessi da difendere. Dobbiamo imporre agli ingegneri informatici di interessarsi a ciò che creano. Un seminario pomeridiano o un corso semestrale sull’etica sono soluzioni inadeguate per affrontare i problemi causati dalle nuove tecnologie. Non possiamo continuare su questa strada, perché il paternalismo tecnologico e l’isolata utopia di una fratellanza nella Silicon Valley stanno creando una razza di pericolosi padroni che non considerano i danni potenziali derivanti dal loro lavoro.

Abbiamo bisogno di un codice che sia sostenuto da un organismo ufficiale, come per gli ingegneri civili e gli architetti di molti Paesi, che preveda conseguenze concrete per quegli ingegneri informatici e analisti che usano le proprie capacità e know how al fine di creare tecnologie pericolose, manipolatrici e contrarie a ogni principio etico. Un codice che non si culli in affermazioni vaghe e ambiziosi principi, ma indichi ciò che è accettabile e ciò che non lo è, in modo chiaro, specifico e inequivocabile. Dovrebbe contenere la richiesta di rispettare l’autonomia degli utenti, di individuare e documentare i rischi e di sottoporre i software a vaglio e revisione. Dovrebbe inoltre prevedere l’obbligo di considerare l’impatto del lavoro sulle popolazioni vulnerabili e sulle minoranze, senza distinzione di genere, etnia, sessualità o capacità fisiche e mentali. E se, dopo debita considerazione, la richiesta di un datore di lavoro fosse ritenuta contraria all’etica da parte del professionista, dovrebbe essere previsto il diritto di rifiutare e il diritto di denunciare. Anzi, l’omissione in tal senso dovrebbe avere serie conseguenze. La legge dovrebbe inoltre proteggere da eventuali rappresaglie quanti si rifiutano di assecondare richieste contrarie all’etica e decidono di denunciare.

Fra tutte le possibilità normative a nostra disposizione, un codice deontologico per gli ingegneri informatici sarebbe con tutta probabilità lo strumento più efficace per impedire i danni peggiori, poiché costringerebbe gli ideatori stessi a valutare il proprio lavoro prima che qualcosa sia distribuito al pubblico e a non sottrarsi alla responsabilità morale limitandosi a eseguire gli ordini. Spesso la tecnologia riflette un’incarnazione dei nostri valori, perciò diffondere una cultura dell’etica è essenziale se, come società, vogliamo dipendere sempre più dalle creazioni degli ingegneri del software. Se si tratta di professionisti responsabili, essi potrebbero diventare la nostra miglior linea di difesa contro i futuri abusi della tecnologia. E, come ingegneri informatici, dovremmo tutti aspirare a guadagnare la fiducia della gente nel realizzare le nuove architetture della nostra società.

3. INTERNET UTILITIES E INTERESSE PUBBLICO

Il termine utilities individua quelle reti e quei servizi – tradizionalmente fisici – che si dicono «condizionati dall’interesse pubblico». Le aziende che se ne occupano hanno una posizione unica sul mercato, nel senso che simili infrastrutture sono a tal punto essenziali per il corretto funzionamento dell’economia e della società che consentiamo loro di operare in modo diverso dalle altre società. Le aziende di servizio pubblico si configurano spesso, per necessità, in una forma di monopolio naturale. In un mercato, la competizione bilanciata porta in genere innovazione, qualità migliore e prezzi ridotti per i consumatori. Ma in certi settori, come l’energia, l’acqua o le strade, non ha senso costruire elettrodotti, gasdotti o metropolitane concorrenti se destinati agli stessi posti: ne deriverebbe un’enorme ridondanza dell’offerta e costi maggiori per i consumatori. D’altro canto, con l’accresciuta efficienza del singolo fornitore privato, c’è anche il rischio di un’influenza e un potere eccessivi: i consumatori, impossibilitati a passare a nuovi elettrodotti, gasdotti o metropolitane, potrebbero finire ostaggio di aziende prive di scrupoli.

Su Internet ci sono operatori decisamente dominanti: Google si aggiudica oltre il novanta per cento di tutto il traffico di ricerca, e quasi il settanta per cento degli adulti attivi sui social media usa Facebook. Ma questo non rende tali infrastrutture di per sé fondamentali. Quando le piattaforme tecnologiche subiscono un blackout, possiamo sopravvivere molto più a lungo (anche se non a tempo indeterminato) di quanto faremmo se la stessa cosa accadesse con l’elettricità. Nelle rare occasioni in cui il motore di ricerca di Google ha avuto un down, gli utenti hanno reagito passando ad altri motori di ricerca meno noti, finché la società non ha risolto il problema. Ci sono anche cicli di popolarità per grandi operatori di servizi Internet, cosa che non si riscontra allo stesso livello per le strutture fisiche. Un tempo MySpace era la principale piattaforma social, prima che Facebook la schiacciasse, mentre è raro riscontrare cicli simili per le società elettriche o dell’acqua.

Detto ciò, gli operatori dominanti di Internet hanno elementi in comune con le utilities fisiche. Al pari di esse, spesso fungono da spina dorsale del commercio e della società, nel senso che la loro esistenza è diventata un elemento fondante del nostro quotidiano. Le aziende hanno finito per affidarsi passivamente all’esistenza del motore di ricerca di Google per il loro organico, per esempio. E questa non è una cosa negativa. Motori di ricerca e social media beneficiano degli effetti di rete, nel senso che più persone usano il servizio più utile esso diventa. Come con le utilities fisiche, le politiche di scala possono offrire enormi benefici ai consumatori, e non vogliamo ostacolare il bene pubblico. Tuttavia, proprio come con altri monopoli naturali, gli utenti sono anche esposti a rischi, potenziali danni che dobbiamo tenere in conto per un nuovo sistema di regole.

Perciò, pur riconoscendo che esistono differenze fondamentali tra le infrastrutture fisiche e Internet, userò Internet utilities come espressione di comodo per intendere qualcosa di simile ma al contempo diverso dalle tradizionali aziende di servizi pubblici. Un’Internet utility è un servizio, un’applicazione o una piattaforma la cui presenza è diventata così dominante nella rete da essere condizionata dall’interesse pubblico, per via della sua stessa scala. La normativa di riferimento per le Internet utilities dovrebbe riconoscere il posto speciale che occupano nella società e nell’economia, e imporre un più alto standard di attenzione nei confronti degli utenti. Tali norme dovrebbero assumere la forma di obblighi giuridici, con sanzioni commisurate ai profitti annuali, così da combattere il pensiero ora dominante tra molte grandi aziende: ovvero che le sanzioni siano un piccolo prezzo da pagare per ottenere enormi profitti, e comunque siano sempre negoziabili.

Al contempo, proprio come non penalizziamo le società elettriche per via delle loro dimensioni, il fattore scala nelle Internet utilities non dovrebbe risultare penalizzato laddove ci siano effetti di rete di autentico vantaggio sociale. In altre parole, non si tratta di smantellare grandi aziende tecnologiche, bensì di renderle responsabili delle proprie azioni. Alle Internet utilities dovrebbe essere richiesto di agire proattivamente come amministratori responsabili di quanto si sviluppa nelle nostre comunità digitali. Devono capire che le loro enormi dimensioni comportano lo sviluppo di inalienabili interessi pubblici; i quali, in alcuni casi, andranno a sostituirsi ai loro interessi privati. Come con altri servizi, bisogna dunque prevedere l’ottemperanza a più elevati standard di sicurezza in relazione alle applicazioni software, e un nuovo codice di diritti del consumatore digitale. Tali diritti dovrebbero essere la base per condizioni e termini universali, nel senso che gli interessi degli utenti devono essere tenuti in debita considerazione in ambiti in cui le aziende tecnologiche hanno continuamente fallito.

4. AMMINISTRAZIONE PUBBLICA DELLE COMUNITÀ DIGITALI

Anche il potere illimitato che queste Internet utilities hanno di impattare sul nostro dibattito pubblico, sulla nostra coesione sociale e salute mentale (tanto con scelte intenzionali quanto per incompetenza o incuria) deve essere soggetto a responsabilità pubblica. Andrebbero istituiti enti chiamati a normare l’universo digitale, e dotati di poteri giuridici e sanzionatori. In particolare, simili agenzie dovrebbero impiegare ispettori competenti dal punto di vista tecnico e autorizzati a eseguire controlli proattivi delle piattaforme nell’interesse del pubblico. Dovremmo anche fare ricorso a meccanismi di rinforzo basati sul mercato, come l’obbligo di stipulare un’assicurazione per i danni causati dall’uso illecito dei dati. Richiedendo una polizza simile, collegata al valore di mercato dei dati in questione, potremmo creare una pressione economica correttiva che spinga a far meglio.

Abbiamo visto quanto valgano i dati personali: tanto da far nascere nuovi modelli di business e generare profitti enormi per le società che gestiscono i social media. Piattaforme come Facebook hanno affermato con forza di essere «gratuite», e se i consumatori non devono pagare per il servizio la piattaforma non può essere ritenuta colpevole di pratiche anticoncorrenziali. Tuttavia, questo ragionamento si fonda sul presupposto che lo scambio tra dati personali e accesso alla piattaforma non costituisca una forma di pagamento, quando invece lo è. Ci sono interi mercati che valutano, vendono e danno in licenza dati personali. La falla degli attuali orientamenti antitrust nei confronti delle grandi società tecnologiche è che il valore dei dati dei consumatori non è stato considerato a dovere dalle autorità di controllo.

Se considerassimo il crescente valore dei dati personali forniti alle piattaforme dai consumatori, concluderemmo che questi ultimi sono stati truffati dai social network, il cui valore per i consumatori non è cresciuto parimenti al «pagamento». Il valore dei dati ceduti dai consumatori alle principali piattaforme non è bilanciato da benefici corrispondenti. In base all’attuale legge americana antitrust, si potrebbe ribattere che, semplicemente, il costo dei servizi agli utenti è aumentato. Tuttavia, se anche così fosse, sarebbe solo una dimostrazione di quanto sia poco equo il sistema per i consumatori. Se invece volessimo creare una nuova classificazione delle Internet utilities, potremmo usare un più ampio test dell’interesse pubblico per l’operato, la crescita e le attività di fusione e acquisizione di queste società.

Tuttavia, a differenza delle utilities fisiche, i social media e i motori di ricerca non sono così essenziali da essere insostituibili, perciò le normative dovrebbero anche tenere conto degli effetti benefici dell’evoluzione del settore. Vogliamo evitare norme che consolidino la posizione delle attuali Internet utilities a danno di offerte migliori o più innovative; ma dobbiamo anche respingere l’idea che un’eventuale regolamentazione dei giganti del settore possa in qualche modo intralciare nuovi sfidanti. In base a questo ragionamento, la normativa che regola sicurezza e attenzione all’ambiente nel settore petrolifero inibirebbe l’emergere di nuove società legate alle energie rinnovabili. Non ha senso. E se siamo preoccupati per l’effetto di potenziale impoverimento del mercato, allora potremmo chiedere alle Internet utilities di condividere la loro infrastruttura dominante con sfidanti più piccoli e competitivi, allo scopo di ampliare la scelta del consumatore. Proprio come grandi società di telecomunicazioni offrono le proprie infrastrutture a operatori minori. Gli standard di sicurezza e di condotta degli attuali grandi operatori non sono incompatibili con l’evoluzione tecnologica. In quest’ottica, bisognerebbe creare una normativa basata sui principi piuttosto che sulla tecnologia, in modo da non legare le leggi a tecnologie o modelli superati.

Grazie. E buona fortuna.