Possibili impatti futuri dell’intelligenza artificiale
Il progresso nel campo dell’intelligenza artificiale sta accelerando?
Non tutti i sottosettori dell’IA procedono allo stesso passo, in parte perché sfruttano il progresso in altri campi. Per esempio, i passi avanti fatti nelle abilità fisiche dei robot sono stati relativamente lenti, perché dipendono dagli sviluppi nei materiali, nella progettazione dei macchinari e così via. Al contrario, il machine learning procede a passo spedito, in buona parte anche perché la quantità di dati disponibili in forma digitale, necessari a questo tipo di apprendimento, sta aumentando sempre più, soprattutto per via di Internet. A volte un nuovo algoritmo o un nuovo concetto dà impulso a notevoli progressi, ma spesso avviene il contrario – sono i progressi informatici, nelle capacità di archiviazione, connessione o disponibilità di dati, o ancora nella comunicazione, a fornire l’opportunità di sviluppare nuove tecnologie di IA che ne traggano vantaggio.
In altre parole, gran parte del progresso nell’IA avviene come conseguenza di sviluppi in altri campi, facendo leva su progressi sostanziali nell’hardware e nel software.
Che cos’è la “singolarità”?
La singolarità, per come si rapporta all’IA, è l’idea che, a un certo punto, le macchine saranno sufficientemente intelligenti da programmarsi e migliorarsi da sole, fino al punto da rendersi indipendenti. L’idea viene presentata in numerose varianti. I transumanisti sostengono che saremo noi, e non le macchine, a provocare questa evoluzione accelerata. Esiste una vasta letteratura – e un infervorato dibattito – sulle virtù e i rischi del transumanesimo, secondo il quale arriveremo a progettare protesi per i nostri stessi organi, incluso forse il cervello, e a studiare fusioni uomo /macchina, con il risultato di una longevità estesa (o, forse, l’immortalità), oppure sensi e abilità infinitamente più sviluppati, al punto tale che la nostra progenie potrebbe ragionevolmente essere definita “una nuova razza” 1 . Altri pensatori, tra i quali il più autorevole è Nick Bostrom dell’Università di Oxford, si concentrano sulla necessità di muoversi con cautela, se non vogliamo che macchine superintelligenti si rivoltino, prendano il sopravvento e il controllo su di noi – facendoci del male, distruggendoci, o forse solo ignorandoci 2 .
Alcuni futurologi come Ray Kurzweil ritengono che la singolarità debba essere accolta come una sorta di destino manifesto guidato della tecnologia 3 . Altri, come Francis Fukuyama, lo ritengono uno sviluppo pericoloso, che rischia di farci perdere il senso stesso di umanità 4 . Se l’idea di una singolarità tecnologica ha origini rintracciabili fin nel Diciottesimo secolo (anche se ovviamente prive di riferimenti all’IA), la moderna popolarizzazione del concetto, se non l’invenzione del termine, è da molti attribuita all’informatico e popolare autore di science fiction Vernor Vinge, che nel 1993 scrisse un paper chiamato “The Coming Technological Singularity: How to Survive in the Post-human Era” (“La singolarità tecnologica in arrivo: come sopravvivere nell’era post-umana”) 5 . Il concetto è inoltre lo spunto di numerosi dei suoi lavori di fiction.
Il presupposto dietro racconti di questo tipo è che esiste un’essenza eterea, forse addirittura magica, che costituisce la consapevolezza e la coscienza (o, in termini religiosi, l’anima), e che può, in linea di principio, essere trasferita da un luogo all’altro, da un contenitore all’altro, e in particolare dall’uomo alla macchina. Se questo può essere vero o falso, in ultima analisi non esiste alcuna prova oggettiva condivisa di questa credenza, non più di quante ne esistano a supporto dell’esistenza di spiriti e fantasmi. La prevalenza di questa visione nelle principali religioni è ovvia, ma è interessante notare che questa concezione appartenga anche al pensiero secolare. Per esempio, l’idea che “tu possa” cambiare o scambiare corpo è pane quotidiano per i film di Hollywood 6 , e le produzioni Disney sembrano apprezzare particolarmente questo espediente narrativo 7 .
Poco sotto la superficie, in gran parte del dibattito sulla singolarità c’è un certo fervore mistico, a volte chiamato con disprezzo “l’estasi dei nerd” – la convinzione che siamo vicini alla fine dell’era umana, e che entreremo in una nuova epoca in cui i morti potrebbero ricevere nuova vita (anche se forse in forma elettronica) e in cui trasferiremo la nostra coscienza all’interno di macchine oppure la conserveremo nel cyberspazio, e una nuova epoca di vita post-biologica avrà inizio. Prevedendo questi avvenimenti, alcuni credenti hanno fondato nuove religioni 8 .
Per capire meglio il carattere fondamentalmente religioso di questa visione del mondo e il suo fascino seducente ci è utile osservarla nel contesto storico. Per millenni sono esistiti chierici, indovini e sette che hanno elaborato visioni del futuro curiosamente simili a quelle dei moderni seguaci della singolarità. L’esempio più ovvio nella cultura occidentale sono le profezie cristiane ed ebraiche sul ritorno di Dio, che punirà i non credenti e salverà coloro i quali avranno avuto fede, che lasceranno il loro corpo fisco e/o si trasformeranno in una nuova forma di vita eterna libera dal dolore e dal desiderio, per giungere infine in Paradiso.
La persistenza di questi temi ricorrenti ha fatto nascere una specializzazione tra gli studiosi di religione – lo studio della struttura, tempistica e contesto delle visioni apocalittiche –, che si sono occupati anche del movimento legato alla singolarità. Nel 2007, Robert Geraci, professore di studi religiosi al Manhattan College, è stato invitato a visitare l’AI Lab della Carnegie Mellon University, dove ha avuto modo di intervistare numerosi ricercatori, professori e studenti, oltre a membri di comunità virtuali online. I suoi risultati sono stati pubblicati in un’interessante monografia sui principi e le credenze di chi abbraccia una prospettiva singularitarian 9 . Sarebbe allettante presumere che questo movimento moderno abbia solide basi scientifiche (al contrario della religione o della mitologia), ma sfortunatamente il libro di Geraci suggerisce, in modo convincente, qualcosa di diverso. In effetti, Geraci vede la tecnologia (in senso astratto) come elevata al ruolo di solito riservato a Dio in visioni di questo tipo, e le stesse dubbie argomentazioni a sostegno dell’imminente arrivo della rivelazione.
Se anche un racconto apocalittico del genere sia molto affascinante per il pubblico generico, ovviamente amplificato da un po’ di fantascienza e dall’appoggio tacito o esplicito di qualche esperto autorevole (in qualche caso motivato in parte dall’opportunità di vedere accresciuto il proprio prestigio oppure di assicurarsi del supporto per la propria ricerca), è importante notare che questa prospettiva è tutt’altro che ampiamente condivisa dagli ingegneri e dai ricercatori effettivamente al lavoro sull’IA. Molti, tra cui io stesso, stentano a vedere le linee di connessione tra l’attuale tecnologia e queste lontane visioni future. In effetti, la prosaica verità è che non ci sono prove a supporto della visione secondo la quale le tecnologie odierne siano i primi segnali di macchine onniscienti e superintelligenti in arrivo. Un contesto più realistico per comprendere opportunità e potenziale dell’IA è vedere questa tecnologia come un’estensione degli sforzi per l’automazione in atto da lungo tempo.
Questo non significa che chi esalta i benefici o mette in guardia dai pericoli dall’avvento di un’imminente apocalisse dell’IA abbia necessariamente torto, non più di quelli che predicono l’imminente ritorno di Dio e la fine del mondo, ma le loro tempistiche e i loro annunci non trovano fondamento nella realtà odierna. Per esempio, il moderno machine learning rappresenta un enorme passo avanti con notevole importanza pratica, ma niente lascia presupporre che sia il precursore dell’imminente creazione di esseri artificialmente intelligenti, e ancor meno che sia la potenziale scintilla di un improvviso e inatteso risveglio, almeno in una cornice temporale rilevante per le persone vive oggi.
Quando potrebbe avvenire la singolarità?
La previsione più famosa è probabilmente quella di Ray Kurzweil, che prevede che la singolarità arriverà attorno al 2045. La sua previsione, così come altre, è basata su grafici, tabelle e analisi statistiche di trend storici che cercano di individuare un tempo in cui il progresso tecnologico sarà così rapido da diventare essenzialmente infinito, oppure attraverserà un punto di inflessione qualitativamente significativo. Altri, tra cui Paul Allen, il filantropo co-fondatore di Microsoft e sostenitore dell’Allen Institute for Brain Science, hanno un’idea più cauta, e sostengono che non ci sono prove sufficienti per stimare una data – sempre che tale data esista 10 . Da una raccolta di predizioni sul sito Acceleration è risultato che, per la maggior parte di esse, la singolarità avverrà tra il 2030 e il 2080 11 . Un’indagine dal taglio più accademico (e più divertente), in parte supportata dal Future of Humanity Institute, ha studiato più in generale le previsioni per l’IA “di livello umano”, concludendo che “l’affidabilità generale del giudizio di esperti di IA si è dimostrata essere scarsa, un risultato coerente con i precedenti studi sull’affidabilità degli esperti” 12 .
In generale, la critica di specifiche previsioni è che perlopiù non mostrano altro che tendenze “fatte su misura” sulla base di dati selezionati o coerenti con “leggi” che non sono in realtà niente del genere, come la legge di Moore. La legge di Moore è un esempio di previsione fatta sulla base di ciò che chiamiamo curve esponenziali. Le curve esponenziali sono progressioni numeriche nelle quali ogni numero successivo nella sequenza è una potenza del precedente. La potenza può essere piccola, per esempio, quando si calcola l’interesse composto (un interesse del 5% aumenta la somma dovuta di solo 1,05 volte da un periodo al successivo). A volte, tuttavia, la potenza è maggiore, per esempio quando il numero di chip su un transistor raddoppia ogni anno e mezzo – la legge di Moore.
Gli esseri umani, notoriamente, non sono bravi a stimare gli effetti dei trend esponenziali. Forse avete sentito la storia del saggio che chiede al re di dargli solo un piccolo compenso, e cioè di dargli ogni giorno un numero di chicchi di riso doppio rispetto al giorno precedente, cominciando da un chicco e proseguendo per un numero di giorni pari alle caselle su una scacchiera. Più o meno a metà dell’operazione il re fa decapitare il saggio. La ragione di base per la quale le persone hanno problemi con le curve esponenziali è che non esistono in natura. Il problema con il raddoppiare ogni ciclo è che la metà dell’attuale ammontare è già stato aggiunto al ciclo precedente, cosicché se la scelta del periodo o dell’esponente sono sbagliate anche di poco, la cosa può provocare enormi errori di previsione. Per metterla in prospettiva, immaginate di osservare il lago Michigan che si riempie seguendo una progressione esponenziale, cominciando con un litro d’acqua il primo giorno, poi due, poi quattro, e così via. Quanto ci vorrebbe a riempire il lago? Sarete forse sorpesi dallo scoprire che ci vorrebbero circa due mesi, ma circa una settimana prima del totale riempimento il lago sembrerebbe ancora sostanzialmente vuoto – sarebbe cioè pieno per meno dell’1% della sua capienza.
Sebbene ci siano stati notevoli progressi nell’IA, resta il fatto che gran parte dei passi avanti fatti nel machine learning siano il risultato di un hardware più potente. Dal lato software, stiamo più che altro girando attorno a varie idee su come sfruttare la potenza di queste macchine – tutte idee in giro ormai da un bel po’. Non c’è niente che sia in realtà del tutto nuovo – anzi, spesso ci ritroviamo a ripescare vecchi spunti o ad affinare tecniche in uso da decenni. Ed è tutto da dimostrare che il progresso dell’hardware, fin qui inarrestabile, proseguirà imperterrito per altri trent’anni, e sempe seguendo una progressione esponenziale, anche nel caso in cui da esso scaturissero significativi progressi nell’intelligenza apparente.
In difesa di chi sostiene che ciò avverrà, tuttavia, non ci sono molte alternative alle informazioni che loro stessi menzionano a supporto delle loro convinzioni, e qualche stima, per quanto speculativa, è un prerequisito per giustificare la discussione sull’argomento. Osservando spassionatamente le tante posizioni diverse degli esperti, si può concludere che è molto improbabile che la singolarità avvenga a breve termine, ammesso che accada mai qualcosa del genere. Avremmo numerosi segnali prima che accada, e tempo sufficiente per prendere le necessarie contromisure correttive.
Bisogna davvero preoccuparsi della superintelligenza fuori controllo?
Personalmente ritengo che questa possibilità sia sufficientemente remota e ipotetica da non meritare tutta l’attenzione che suscita. Come gran parte dell’IA, la nozione di macchine che diventano così indipendenti da minacciare l’umanità è talmente semplice da capire ed è talmente d’impatto che nel dibattito pubblico le è dedicato più spazio di quanto ne meriterebbe. La mia prospettiva è influenzata dalla mia storia personale di progettazione e ingegneria di prodotti pratici, e altri, di sicuro, ritengono queste teorie meritevoli di maggiore considerazione. Detto ciò, il mio scetticismo è giustificato da numerosi fatti.
In precedenza, nel tentativo di definire l’IA, ho spiegato che le misure numeriche dell’intelligenza sono ingannevoli. C’è un vecchio modo di dire secondo il quale, a una persona che ha un martello in mano, tutto sembra un chiodo, e le misure numeriche possono dare una falsa impressione di precisione e oggettività. Ad esempio, pensate a cosa potrebbe significare dire che Brad Pitt è del 22,75% più bello di Keanu Reeves. Anche se definire una persona più bella di un’altra ha senso, è molto più difficile sostenere che l’attrattività possa essere modellata secondo semplici scale numeriche. Può ben darsi che Pitt sia più bello di Reeves nell’opinione di molti, ma usare i numeri per misurare la differenza è a dir poco opinabile. Allo stesso modo, quando rappresentiamo l’intelligenza sotto forma di linea su un grafico e la proiettiamo nel futuro, è molto probabile che un modello così semplicistico perda efficacia e ci conduca a fraintendimenti e a decisioni poco corrette.
C’è poi il problema di determinare esattamente il procedere di una curva. Una data misura che sembra crescere esponenzialmente può facilmente stabilizzarsi e avvicinarsi a un limite (detto “asintoto”). Non importa quale modo scegliamo per pensare e misurare l’intelligenza: ci sono poche possibilità che essa seguirà un percorso di crescita perenne o, perlomeno, è probabile che i frutti che darà saranno soggetti alla legge dei rendimenti decrescenti.
Per comprendere perché seguo l’idea secondo la quale i benefici di un’IA aumentata potrebbero essere limitati, proviamo a immaginare un ipotetico futuro degli algoritmi di ricerca di Google. Se un’operazione del genere fosse oggi eseguita da una persona con notevoli capacità, non c’è dubbio che la riterremmo dotata di una conoscenza sovrumana di pressoché tutto. E, come i presunti computer superintelligenti del futuro, la funzione di ricerca di Google è un sistema capace di automigliorarsi, dal momento che i suoi algoritmi di machine learning regolano e aggiornano costantemente i propri risultati sulla base di ciò che i clienti dell’azienda fanno dopo aver effettuato una ricerca.
Avrete senz’altro notato che Google fa molto di più che elencare una serie di pagine web: spesso raccoglie informazioni, dà loro una forma e ve le consegna direttamente invece di reindirizzarvi da qualche altra parte per trovare la risposta alla vostra ricerca, come avveniva agli albori dell’azienda. Immaginate un futuro entusiasmante in cui Google sia diventato veloce e preciso fino ai limiti di ciò che è teoricamente possibile, e consegna velocemente risposte congrue e accurate sulla base della conoscenza derivata dall’intera storia umana, attentamente modellata per soddisfare i vostri bisogni unici. Immaginate che con il tempo impari a rispondere a domande sempre più soggettive, con risultati somiglianti più a opinioni informate e saggi consigli che a dichiarazioni fattuali. Per quale università devo fare domanda? Cosa regalo alla mia fidanzata a San Valentino? Quando si estinguerà più probabilmente l’umanità? Combinando tutto ciò con le capacità di fare conversazioni, in costante miglioramento, è probabile che Google, o qualcosa del genere, diventerà sostanzialmente un consigliere fidato per chiunque. Questo stupefacente servizio, che offre una immensa quantità di saggi consigli e conoscenza, potrebbe diventare indispensabile per la vita quotidiana.
Ma corriamo davvero pericoli dovuti a un automiglioramento fuori controllo e con conseguenze imprevedibili per il genere umano? Io ritengo di no. La possiamo chiamare “intelligenza artificiale generale”, ma in fin dei conti si tratta sempre di risposte alle nostre domande. Forse un giorno vorrà candidarsi alle elezioni, o deciderà di fomentare rivolte dando risposte pensate a questo scopo, o cercherà di prolungare la sua stessa esistenza a nostre spese, o ancora giungerà alla conclusione che le forme di vita biologiche sono inefficienti e devono essere eliminate? Personalmente, non vedo ragioni perché debba avvenire un simile salto di qualità da strumento utile a pericoloso essere intelligente, senza la volontà o il tacito consenso di nessuno.
Le macchine possono essere in grado di porsi da sole degli obiettivi e modificarli, ma la loro capacità è intrinsecamente limitata agli scopi primari già previsti nella loro progettazione. Una macchina pensata per piegare la biancheria, per quanto sofisticata nel compiere questo compito adattandosi alle condizioni via via differenti, non deciderà di punto in bianco che preferisce dedicarsi alla mungitura delle mucche. Tuttavia, una macchina progettata per prolungare la propria esistenza a qualsiasi costo potrebbe in effetti sviluppare strategie e obiettivi che i suoi creatori non avevano previsto – persino spazzare via il genere umano. Come si dice in questi casi, attenti a ciò che desiderate, perché potreste ottenerlo.
Ciò non significa che la progettazione di un sistema non possa essere così carente da avere effetti indesiderati, persino devastanti, di ogni tipo. Questo, però, sarebbe un fallimento dell’ingegneria e non un’inevitabile, imprevedibile “prossimo passo” nella scala evolutiva dell’universo. In breve, le macchine non sono persone, e, almeno allo stato attuale, non abbiamo ragione di temere che da un momento all’altro superino un qualche invisibile confine nell’automiglioramento per mettere appunto da sole obiettivi, bisogni e istinti indipendenti, aggirando in qualche modo la nostra capacità di supervisione e controllo. Il pericolo principale è che accettiamo, seppur a malincuore, qualche orribile effetto collaterale dell’ingegneria più sciatta, pur di sfruttare gli enormi benefici di una nuova tecnologia, così come oggi tolleriamo decine di migliaia di morti ogni anno per incidenti stradali in cambio della comodità di guidare un’automobile.
Arriverà mai il giorno in cui i sistemi artificialmente intelligenti si libereranno e faranno tutto ciò che vogliono?
La possibilità, se non la probabilità, di sistemi essenzialmente “allo stato brado” è in effetti molto concreta. Già oggi ne esistono degli esempi. I programmatori di virus informatici, a volte, perdono il controllo delle loro creature. Estirpare programmi di questo tipo è molto difficile, perché continuano a fare copie di sé stessi e a diffondersi attraverso le reti informatiche come le vecchie catene postali. Gli ecosistemi di valute virtuali come il Bitcoin sono al di fuori dell’ordinario controllo dei governi sovrani (o di qualsiasi altra autorità). Possono essere messi fuori legge, ma non cancellati, fintanto che soddisfano un bisogno di chi ne fa uso.
Questo potrebbe mai accadere con un sistema artificialmente intelligente, e come? Al contrario di applicazioni con scopi maggiormente mirati, i punti forti di sistemi del genere sono l’automaticità, l’autonomia e l’adattabilità. L’obiettivo di molti progetti IA è che riescano a operare senza bisogno di intervento o supervisione di un essere umano, che prendano decisioni in modo indipendente e siano in grado di adattarsi a circostanze differenti. Se il progettista tuttavia non ha calibrato bene le capacità del suo sistema sui confini operativi dell’uso per cui lo aveva pensato, è effettivamente possibile che gliene sfugga il controllo, con conseguenze anche gravi. Per fare un esempio semplificato, i droni volanti oggi disponibili in commercio pongono l’ovvio rischio di sfuggire dal controllo di chi li manovra. Per affrontare questa debolezza, la maggior parte di essi è programmata per riconoscere una lunga interruzione nelle comunicazioni e, in quel caso, tornare al punto esatto da cui erano partiti. Ma la possibilità che essi perdano l’orientamento e vadano persi, con conseguenti possibili danni personali o patrimoniali, è una delle molte ragioni per le quali le licenze per guidare questi apparecchi sono oggi, negli Stati Uniti, severamente limitate.
Tuttavia un errore tecnico o di programmazione non è l’unica ragione per cui un sistema IA può “liberarsi”: ciò potrebbe accadere anche intenzionalmente. Molti imprenditori intraprendenti, nel tentativo di preservare la propria eredità, hanno impiegato mezzi legali come fondi fiduciari e piani immobiliari per essere certi che, dopo la propria morte, gli eredi non mandino all’aria il frutto del loro lavoro. Tecniche simili potrebbero benissimo essere usate per mantenere in vita una macchina intelligente.
Nel corso sull’etica e l’impatto dell’IA che tengo a Stanford, sono solito raccontare la storia della Curbside Valet, un’azienda immaginaria al cui fondatore capita una cosa strana 13 . Il suo grande orgoglio sono i suoi addetti ai bagagli robot, e in particolare l’intelligente progettazione che consente ai passeggeri di avere le mani libere. Sotto contratto con l’aeroporto di San Francisco, i passeggeri possono effettuare il check-in utilizzando uno dei suoi graziosi carrelli vaganti, su cui possono poggiare i bagagli in un compartimento chiuso a chiave perché venga consegnato sull’aereo. Quando le batterie sono in esaurimento, i carrelli cercano una presa elettrica, preferibilmente in un angolo appartato e buio, e si collegano per ricaricarsi. Se individuano un guasto, trasmettono un messaggio a una ditta di riparazioni sotto contratto per svolgere interventi sul campo, indicando loro le informazioni tecniche e l’esatto luogo in cui si trovano. I proventi sono automaticamente depositati su un conto PayPal, e i pagamenti per le riparazioni (e le altre spese) vengono inviati in automatico in risposta a fatture inviate in forma elettronica. Quando i profitti superano una certa soglia, quanto in eccesso viene utilizzato per ordinare unità aggiuntive di consegna e attivazione.
Dopo la prematura scomparsa del fondatore a causa di un incidente con la moto, il sistema, diventato popolare, continua a operare per molti anni da solo finché l’aeroporto stesso viene chiuso a causa della popolarità crescente dei velivoli a decollo verticale, che operano da una struttura più piccola e più vicina alla città. Alla fine, all’aeroporto viene tagliata la corrente, e i carrelli robot sono costretti ad avventurarsi anche oltre il perimetro, di solito di notte, in cerca di prese di corrente. Gli abitanti della vicina San Bruno sono inizialmente divertiti da questi apparecchi che, al calar della sera, si attaccano da soli alle prese fuori dai garage e dalle officine. Tuttavia, dopo un po’, le bollette astronomiche, gli animali terrorizzati e i giardini messi a soqquadro spingono la città ad assumere una squadra di abbattitori di robot perché cerchino e mettano fuori uso i disturbatori meccanici.
Questo racconto inventato illustra uno scenario plausibile in cui apparecchi autonomi dotati di intelligenza artificiale potrebbero sopravvivere all’uso per cui erano stati progettati causando problemi imprevisti. Avrete notato che ha ben poco a che fare con le profonde capacità di ragionamento che preoccupano chi crede nella singolarità.
Come possiamo minimizzare i rischi futuri?
Una delle iniziative pratiche che possiamo intraprendere da subito è stabilire standard professionali e ingegneristici per lo sviluppo e la verifica dei sistemi intelligenti. I ricercatori IA dovrebbero essere obbligati a specificare l’ambito operativo entro il quale intendono far funzionare le loro creazioni, e includere modi per limitare i danni nel caso in cui i limiti vengano superati. Detto altrimenti, i sistemi IA abbastanza capaci e autonomi dovrebbero anche essere in grado di monitorare da soli l’ambiente in cui si trovano e determinare se si trovano all’interno dei confini previsti dai propri creatori, o se stanno invece ricevendo informazioni sensorie non interpretabili o contraddittorie. In questo caso, dovrebbero entrare nella “modalità sicura” prevista per il loro specifico dominio per minimizzare le potenziali conseguenze, fino a includere l’auto-spegnimento (non sempre, in realtà, la cosa più sicura da fare) e l’invio di una segnalazione a un supervisore umano o elettronico. Come esempio pratico, immaginate un tagliaerba automatico che ha ricevuto istruzioni per tagliare il prato entro un certo spazio rettangolare. Se all’improvviso determinasse che è uscito dallo spazio e si trova su una superficie di ghiaia, o se si accorge di star tagliando fiori, dovrebbe fermarsi e chiedere assistenza o ulteriori istruzioni.
Un meccanismo di sicurezza correlato potrebbero essere le licenze d’uso su concessione governativa. Un avvocato robot dovrebbe passare gli esami, le automobili autonome prendere la patente, i barbieri automatici dovrebbero avere i criteri richiesti per la licenza cosmetica, e così via. I vari esami richiesti, naturalmente, sarebbero diversi per esseri umani e macchine, ma applicherebbero standard qualitativi condivisi e identificare coloro ai quali è permesso svolgere attività altrimenti proibite, alla lunga, servirà ad eliminare programmi e apparecchi difettosi o “colpevoli”. L’identificazione sarà utile anche a fornire un meccanismo standard per revocare la loro autorizzazione a operare.
C’è anche il bisogno – già oggi – di sviluppare teorie e principi morali trattabili su base computazionale, utili come ripiego in caso di circostanze insolite, o come metodo aggiuntivo di mitigare comportamenti indesiderati. Possiamo progettare un robot perché non travolga i pedoni, ma cosa ci aspettiamo che faccia una self-driving car nel caso in cui qualcuno decida di saltare sul tetto (una circostanza difficilmente prevedibile da chi l’ha costruita)? Il semplice principio di non mettere a rischio gli esseri umani, in nessun caso, la qual cosa probabilmente accadrebbe se la self-driving car non si fermasse, potrebbe aiutarla a “fare la cosa giusta”. Questo non significa che le macchine debbano effettivamente avere una morale, ma semplicemente che devono essere progettate in modi eticamente accettabili.
Questo requisito comportamentale si estende oltre la pura morale, a una sfera meramente sociale. Di sicuro vorremo robot che lascino il posto ai passeggeri umani, facciano la fila, condividano risorse limitate in caso di bisogno, e generalmente sappiano riconoscere il contesto sociale delle loro azioni. Prima di dare definitivamente vita alla prossima generazione di sistemi dotati di IA, dobbiamo assicurarci che rispettino le nostre usanze e le nostre pratiche, perché, in un mondo umano, avremo bisogno di robot civilizzati.
Quali sono i benefici e i rischi di costruire computer e robot che si comportano come persone?
Che le macchine abbiano o meno sentimenti, è di sicuro possibile creare apparecchi che esprimano emozioni in modo convincente. Esiste un’intera branca della computer science – l’affective computing – che punta al riconoscimento e alla riproduzione dei sentimenti umani 14 . Sforzi del genere possono portare tanti benefici, e anche qualche rischio.
Dal lato positivo, i sistemi affettivi possono migliorare l’interazione uomo-computer (un campo di ricerca noto perlopiù con il suo acronimo inglese, HCI, human-computer interaction ). Sistemi in grado di percepire stati emotivi e reagire in modo appropriato possono rendere questo tipo di interazione più fluida e naturale. I vantaggi sono di entrambi: un sistema capace di cogliere lo stato mentale dell’utilizzatore può aggiungere un fattore importante nella valutazione delle sue intenzioni, e la sua capacità di esprimere emozioni, dallo spavento, alla curiosità, all’empatia, può aumentare il comfort umano nel relazionarsi a sistemi del genere, e ovviamente a comunicare informazioni importanti in modo familiare, semplice da capire. Il potenziale dei sistemi affettivi va tuttavia molto al di là del potenziare l’utilità dei computer. Essi possono essere anche un importante modo per studiare le emozioni umane, migliorando la nostra comprensione degli strumenti istintivi che utilizziamo per decidere se un oggetto animato è dotato di arbitrio oppure no, e se rappresenta per noi un amico o una minaccia. Un lavoro classico in questo campo è il robot Kismet, notevolmente espressivo, messo a punto da Cynthia Breazeal al MIT nei tardi anni ’90 del Ventesimo secolo 15 . Era stato progettato per interagire socialmente al livello di un bambino, reagendo in modo appropriato alle parole e al comportamento di un soggetto umano. (Non provava a “capire” quanto era detto, ma semplicemente a estrarre il tenore emozionale.) Sapeva esprimere gioia, sorpresa, delusione, vergogna, interesse, eccitazione e paura, e altre emozioni ancora, tramite il movimento di testa, occhi, labbra, sopracciglia e orecchie. Una successiva generazione di robot antropomorfi, prodotta dal geniale artista diventato informatico David Hanson, è capace di ricreare versioni spaventosamente realistiche ed espressive di persone realmente esistite, come Albert Einstein e lo scrittore di fantascienza Philip K. Dick 16 .
Ci sono numerosi progetti che stanno esplorando l’uso del riconoscimento facciale delle emozioni (o altri indizi) e l’espressione di sentimenti simili per mezzo di avatar, immagini visive di volti o umanoidi. Per alcuni compiti emotivamente delicati, come facilitare il reinserimento nella società civile dei veterani di guerra affetti da sindrome post-traumatica, la relativa semplicità e sicurezza di una sessione di terapia con un avatar capace di cogliere le emozioni può eliminare lo stress a volte associato all’interazione con psicologi umani, e peraltro ridurre i costi. In un progetto del genere all’Università di California, supportato dal DARPA, uno psicologo virtuale di nome Ellie intervistava i veterani cercando di contribuire a identificare problemi psicologici, con risultati sorprendentemente precisi 17 .
Come già segnalato nel capitolo 3, l’industria dei giocattoli ha una lunga storia di apparecchi meccanici dotati di una certa quantità di intelligenza, apparentemente dotati di emozioni e capaci di esprimerle. Dal Furby della Hasbro al famoso cane robot AIBO della Sony (l’abbreviazione sta per artificial intelligence robot , ma suona anche simile alla parola giapponese per “amico”), questi artefatti teneri e amichevoli riescono bene a provocare reazioni emotive nei bambini e anche negli adulti facendo appello alla nostra tendenza istintiva a attribuire intenzionalità e arbitrio, in questi casi anche amicizia, sulla base di indizi percettivi 18 .
Ci sono però anche notevoli pericoli nel costruire apparecchi che esprimano presunte emozioni. Se un robot capace di esprimere sentimenti in modo convincente può farci agire contro i nostri stessi interessi, cioè sottraendoci ogni impulso altruistico di mettere i bisogni degli altri prima dei nostri, spalanchiamo la porta a qualsiasi tipo di disastro sociale.
L’istinto di personificare oggetti inanimati è molto forte, soprattutto se ci sembra che dipendano da noi o riempiano un vuoto emozionale. C’è una famosa scena del film Castaway 19 con Tom Hanks che esprime in modo conciso questo pericolo. Per sopravvivere ad anni di isolamento su un’isola deserta, il protagonista crea un amico immaginario usando un pallone portato dalle onde, e lo chiama Wilson, come la marca del pallone. Quando alla fine viene salvato, il pallone va alla deriva, e il protagonista rischia la vita per salvarlo. D’altra parte, creare babysitter o badanti elettronici capaci di esprimere comprensione, pazienza, fedeltà e altri sentimenti esemplari può essere giusto e desiderabile.
Cosa penseranno i nostri figli dell’IA?
A volte, le tecnologie viste con preoccupazione e allarme da coloro che vivono il momento della loro introduzione, sono accettate come scontate e non particolarmente notevoli dalle generazioni successive. Tra gli esempi ci sono il televisore e il suo ingresso nelle case, la fertilizzazione in vitro e, più di recente, il dominio dei social media sulle nostre relazioni personali con amici e familiari.
Se le persone a volte si affezionano al loro Roomba (l’aspirapolvere robot), l’impatto emozionale di programmi che ti consolano quando sei tristi, ti danno saggi consigli sull’amore e il lavoro, badano a te quando sei piccolo, con pazienza ti fanno da guida e ti tirano su il morale, e ti proteggono dai pericoli, rischia di essere irresistibile. Oggi forse consideriamo l’affetto per una macchina intelligente un uso inappropriato dei sentimenti che si sono evoluti per legarci ai nostri cari, ma le generazioni future potrebbero vivere questo tipo di attaccamento come normale e ragionevole.
Nei film, alla domanda se le macchine possono avere una coscienza o provare sentimenti si risponde spesso sottolineando che non si può essere poi certi che tutti gli esseri umani abbiano queste caratteristiche: tutto ciò su cui ci si può basare è il loro comportamento (non è del tutto vero, ma funziona a fini drammatici) 20 . Così come oggi molti ritengono un dovere morale il permettere agli animali di esprimere la loro natura, e non conta se li consideriamo dotati di consapevolezza o meno, forse nel futuro considereremo i sistemi intelligenti e autonomi come una nuova forma di vita, diversa da noi ma meritevole di diritti. Dopotutto, la nostra relazione con queste entità può essere più simbiotica di quella tra uno schiavo e il suo padrone, forse analoga alla nostra relazione con creature utili come cavalli da tiro e cani da caccia, la cui forza e le cui capacità sensoriali sono molto superiori alle nostre.
La questione importante non è però se le future generazioni riterranno o meno le macchine dotate di coscienza, ma se le considereranno meritevoli di considerazione etica. Se o quando una nuova “razza” di macchine intelligenti coesisterà con noi, è plausibile che i nostri discendenti riterrà che lo stesso trattamento morale che riserviamo agli altri esseri umani dovrà essere applicato anche a certe entità non biologiche, quale che sia la loro composizione psicologica interna.
Se oggi definiamo qualcuno “umanista”, è un complimento, ma se o quando le macchine intelligenti saranno perfettamente integrate nella società, il termine potrebbe finire per diventare più simile al chiamare qualcuno razzista.
Riusciremo mai a caricare noi stessi in un computer?
Questa frase apparentemente fantascientifica assume un’aria diversa se osservata con sobrietà. Un secolo fa, non c’erano altro che racconti o ricordi per ricordare i propri antenati, o forse un ritratto. Più di recente, le registrazioni audio e video permettono di farlo in modo più dinamico e dettagliato. Se riuscissimo a riprodurre noi stessi in una macchina, fino a livello neurale, saremmo proprio noi, o solo qualcosa di simile a noi? Chiamiamola per ciò che è: una macchina che riproduce i nostri ricordi e almeno alcune delle nostre caratteristiche mentali e intellettuali.
Anche se ritenere una cosa del genere “noi” potrebbe darci un po’ di conforto facendoci pensare che abbiamo in qualche modo ingannato la morte, la realtà potrebbe essere deludente rispetto alle aspettative. Essere conservati in forma elettronica non ci darebbe più conforto di quanto le piramidi non ne dessero ai loro occupanti, ma le generazioni future potrebbero considerare qualcosa del genere nella stessa categoria di una vecchia Bibbia di famiglia più che in quella dei parenti vivi – qualcosa da consultare per avere un po’ di saggi consigli in occasioni speciali.
D’altro canto, il livello di conforto e il senso di continuità che ne deriverebbe potrebbe essere sufficiente per pensare che si tratti proprio di “te”, in particolare se, come si dice relativamente ai problemi della vecchiaia, si considera qual è l’alternativa.
Proprio come l’equipaggio dell’Enterprise entra allegramente in un trasportatore che distrugge il tuo corpo e ne ricostruisce una copia con nuovo materiale sul luogo di destinazione, forse le generazioni future considereranno l’upload di sé stessi in un computer non più rilevante di un nuovo taglio di capelli. (Almeno finché la mancata disattivazione del sé originario risulti in due rivendicazioni di legittimità tra loro equivalenti.)
Dubito che i nostri lontani discendenti apprezzeranno particolarmente andare al cinema e prendere un gelato con il loro bis-bisnonno in un barattolo, e l’entità stessa forse sentirà solo dolore e sofferenza avendo perso il contenitore biologico con cui fare esperienza del mondo, sempre che questi sentimenti in forma elettronica abbiano senso. Forse questa chimera futuristica perderà la voglia di vivere? Verrà confinata al pensionamento perpetuo in un ospizio di esseri simili che chattano online per l’eternità? E se continuasse a sviluppare ricordi ed esperienze per secoli, cosa avrebbe a che fare alla fine con l’essere umano originale, da tempo morto e sepolto? Dovrebbe ancora avere controllo del suo patrimonio a spese dei suoi eredi? E che tipo di legittimazione avrà nel caso in cui venissero prodotte numerose copie, o se in un lontano futuro diventerà possibile far rivivere l’umano originale in forma biologica?
Personalmente, spero che queste preoccupazioni non diventino mai le mie.
1 . Per un primo sguardo alla discussione sul transumanesimo, si veda il sito della Humanity+Inc., una non profit a scopo educativo che sostiene la ricerca, organizza conferenze e pubblica la rivista H+ : humanityplus.org .
2 . La materia è esposta in modo eccellente da N. Bostrom, Superintelligence: Paths, Dangers, Strategies (Oxford: Oxford University Press, 2014). Per un approfondimento sull’IA fuori controllo, si veda il Future of Life Institute: futureoflife.org/home .
3 . Si veda ad esempio R. Kurzweil, The Singularity is Near (London: Penguin 2005), trad. it. La singolarità è vicina (Milano: Apogeo, 2008).
4 . Francis Fukuyama, Our Posthuman Future: Consequences of the Biotechnology Revolution (New York: Farrar, Straus & Giroux,2000), tr. it. L’uomo oltre l’uomo. Le conseguenze della rivoluzione biotecnologica .
6 . “The Definitive List of Body Swap Movies,” Hollywood.com, http://www.hollywood.com/movies/complete-list-of-body-switchingmovies-60227023/ .
7 . “Freaky Freakend” è una compilation Disney di show che implicano lo scambio di corpi: http://childrens-tvshows.wikia.com/wiki/Freaky_Freakend .
8 . Ad esempio, è il caso della fede Terasem: terasemfaith.net .
9 . R.M. Geraci, Apocalyptic AI: Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality (Oxford: Oxford University Press, 2010).
10 . P. Allen, M. Greaves, “Paul Allen: The Singularity Isn’t Near,” MIT Technology Review, October 12, 2011, http:// www.technologyreview.com/view/425733/paul-allen-the-singularity-isntnear/ .
11 . John Smart, “Singularity Timing Predictions,” Acceleration Watch, http://www.accelerationwatch.com/singtimingpredictions.html .
12 . Stuart Armstrong, Kaj Sotala, and Sean OhEigeartaigh, “The Errors, Insights and Lessons of Famous AI Predictions— and What They Mean for the Future,” Journal of Experimental & Theoretical Artificial Intelligence 26, no. 3 (2014): 317– 42, http://dx.doi.org/10.1080/0952813X.2014.895105 .
13 . CS122: Artificial Intelligence: Philosophy, Ethics, and Impact, Stanford University Computer Science Department, cs122.stanford.edu .
14 . Rosalind Picard del MIT è in genere considerata la fondatrice dell’affective computing, anche grazie alla pubblicazione del libro che ha dato nome a questo campo di ricerca (R. Picard, Affective Computing , Cambdige, MA: MIT Press, 1997).
16 . Hanson Robotics: http://www.hansonrobotics.com .
17 . The USC Institute for Creative Technologies: http://ict.usc.edu .
18 . Hasbro’s Furby: http://www.hasbro.com/en-us/brands/furby ; Sony’s AIBO: http://www.sony-aibo.com .
19 . Castaway , directed by Robert Zemeckis (2000), http://www.imdb.com/title/tt0162222/ .
20 . Al contrario delle macchine, il fatto che biologicamente gli altri esseri umani siano simili a noi è una prova aggiuntiva del fatto che probabilmente pensano come noi e provano le stesse cose come noi.