Molte decisioni si basano su opinioni che riguardano la probabilità di eventi incerti, come il risultato di un’elezione, la colpevolezza di un imputato o il valore futuro del dollaro. Queste opinioni sono di solito espresse con dichiarazioni come «penso che…», «le probabilità sono…», «è improbabile che…», e così via. A volte, le credenze riguardanti eventi incerti sono espresse in forma numerica come pronostici o probabilità soggettive. Che cosa determina tali opinioni? Come stimano, le persone, il valore di una quantità incerta o la probabilità che si verifichi un evento? Questo articolo dimostra come ci si affidi a un numero limitato di princìpi euristici che riducono il compito complesso di valutare le probabilità e predire valori a un’operazione di giudizio più semplice. Perlopiù queste euristiche sono assai utili, ma a volte conducono a errori gravi e sistematici.

La valutazione soggettiva della probabilità ricorda la valutazione soggettiva di quantità fisiche come la distanza o le dimensioni. Questi giudizi si basano tutti su dati di limitata validità, che sono elaborati secondo regole euristiche. Per esempio, la distanza apparente di un oggetto è in parte determinata dalla nitidezza con cui lo distinguiamo. Più i contorni sono nitidi, più vicino esso appare. Questa regola ha una certa validità, perché in qualsiasi scenario gli oggetti più distanti appaiono meno chiari degli oggetti più vicini. Tuttavia, facendo assegnamento su questa regola finiamo per commettere errori sistematici nella stima della distanza. In particolare, spesso sovrastimiamo la distanza quando la visibilità è scarsa, perché i contorni degli oggetti sono confusi, mentre altrettanto spesso la sottostimiamo quando la visibilità è buona, perché i contorni degli oggetti sono nitidi. Dunque, ricorrere alla nitidezza come parametro per valutare la distanza conduce a comuni bias. Tali bias si osservano anche nel giudizio di probabilità intuitivo. In questo articolo descriviamo tre euristiche che sono impiegate per stimare probabilità e predire valori, enumeriamo i bias a cui conducono e analizziamo le implicazioni teoriche e pratiche di tali osservazioni.

Rappresentatività

Molti dei problemi probabilistici che ci si trova ad affrontare appartengono a uno dei seguenti tipi: «Qual è la probabilità che l’oggetto A appartenga alla classe B?»; «Qual è la probabilità che l’evento A origini dal processo B?»; «Qual è la probabilità che il processo B generi l’evento A?». Nel rispondere a tali quesiti, ci si affida in genere all’euristica della rappresentatività, nella quale le probabilità sono valutate in base al grado in cui A è rappresentativo di B, ovvero al grado in cui A assomiglia a B. Per esempio, quando A è altamente rappresentativo di B, la probabilità che A origini da B è giudicata elevata. Se invece A non è simile a B, la probabilità che A origini da B è ritenuta bassa.

Per illustrare il giudizio dato in base alla rappresentatività, consideriamo un individuo che sia stato descritto da un ex vicino di casa in questo modo: «Steve è molto timido e chiuso. Sempre disponibile, ha però scarso interesse per le persone o il mondo della realtà. Anima mite e ordinata, ha bisogno di ordine e struttura, e una passione per il dettaglio». Come valutano, i soggetti cui sia stato dato un elenco di potenziali mestieri di Steve (per esempio, agricoltore, commesso, pilota d’aerolinea, bibliotecario e medico), la probabilità che egli faccia l’uno piuttosto che l’altro? Come classificano questi mestieri in ordine decrescente di probabilità? Nell’euristica della rappresentatività, la probabilità che Steve sia per esempio un bibliotecario è stimata in base al grado in cui egli è rappresentativo dello stereotipo del bibliotecario, cioè a quanto vi assomigli. Di fatto, da indagini effettuate su questo tipo di problemi risulta che le persone procedono a classificare la probabilità dei mestieri nello stesso esatto modo in cui classificano la somiglianza con lo stereotipo.1 Questo metodo di giudicare la probabilità conduce a gravi errori, perché la somiglianza, o rappresentatività, non è influenzata da molti dei fattori che devono influenzare il giudizio di probabilità.

Insensibilità alla probabilità a priori dei risultati. Uno dei fattori che non hanno effetto sulla rappresentatività, ma che ne dovrebbero avere parecchio sulla probabilità, è la probabilità a priori, o frequenza di base, dei risultati. Nel caso sopra descritto, per esempio, qualsiasi stima ragionevole della probabilità che Steve sia un bibliotecario piuttosto che un agricoltore deve prendere in considerazione il fatto che vi sono molti più agricoltori che bibliotecari nella popolazione. Invece le considerazioni sulla probabilità a priori non influenzano la somiglianza di Steve con gli stereotipi del bibliotecario e dell’agricoltore. Se si valuta la probabilità in base alla rappresentatività, quindi, la probabilità a priori sarà ignorata. Questa ipotesi è stata verificata nel corso di un esperimento in cui le probabilità a priori erano state manipolate.2 Ai soggetti venivano mostrate brevi descrizioni della personalità di numerosi individui, di cui si diceva che erano stati scelti a caso da un gruppo di 100 ingegneri e avvocati. Si chiedeva poi di valutare, per ciascuna descrizione, la probabilità che il tipo descritto fosse un ingegnere piuttosto che un avvocato. In una versione dell’esperimento, ai volontari fu detto che il gruppo descritto era composto da 70 ingegneri e 30 avvocati; in un’altra, fu detto invece che gli ingegneri erano 30 e gli avvocati 70. La probabilità che una data descrizione si riferisca a un ingegnere piuttosto che a un avvocato dovrebbe essere più elevata nel primo caso, dove c’è una maggioranza di ingegneri, che nel secondo, dove c’è una maggioranza di avvocati. In particolare, si può dimostrare applicando la legge di Bayes che il rapporto tra queste probabilità dovrebbe essere (0,7/0,3),2 cioè 5,44, per ogni descrizione. In netta violazione della legge di Bayes, i soggetti, nei due suddetti esperimenti, produssero sostanzialmente gli stessi giudizi di probabilità. A quanto pareva, valutavano la probabilità che un dato profilo descrivesse un ingegnere piuttosto che un avvocato in base al grado in cui il profilo stesso era rappresentativo dei due stereotipi, senza praticamente considerare le probabilità a priori delle rispettive categorie.

Si servivano correttamente della probabilità a priori quando non avevano altre informazioni. In mancanza di una descrizione della personalità, giudicavano che la probabilità che un ignoto individuo fosse un ingegnere fosse, rispettivamente, di 0,7 e 0,3, nelle due condizioni di base. Invece le probabilità a priori erano del tutto ignorate appena era introdotta una descrizione, anche se per nulla informativa. Le risposte alla seguente descrizione illustrano il fenomeno:

Dick, trent’anni, è sposato e non ha figli. Uomo di notevole capacità e grande voglia di fare, promette di avere molto successo nel suo campo. È assai apprezzato dai colleghi.

Questa descrizione non trasmetteva volutamente alcuna informazione che potesse far capire se Dick fosse un ingegnere o un avvocato. Di conseguenza, la probabilità che fosse un ingegnere avrebbe dovuto essere pari alla percentuale di ingegneri del gruppo, come se non fosse stata data alcuna descrizione. Invece i soggetti giudicarono del 50 per cento la probabilità che Dick fosse un ingegnere, indipendentemente dal fatto che fosse stata data, negli esperimenti, una percentuale di ingegneri del 70 o del 30 per cento. Evidentemente, le persone rispondono in un modo quando non viene data loro alcuna prova e in un altro quando viene data loro una prova priva di valore. Quando non hanno alcuna evidenza specifica, utilizzano propriamente le probabilità a priori, mentre, quando ricevono evidenze prive di valore, ignorano le probabilità a priori.3

Insensibilità alle dimensioni del campione. Per valutare la probabilità di ottenere un particolare risultato in un campione estratto da una data popolazione, la gente perlopiù usa l’euristica della rappresentatività, ovvero valuta la probabilità di un risultato di campionamento (per esempio che l’altezza media di un campione casuale di dieci uomini sia un metro e ottanta) in base alla somiglianza di tale esito con il parametro corrispondente (cioè l’altezza media della popolazione maschile). La somiglianza del dato statistico del campione con il parametro non dipende dalle dimensioni del campione, sicché, se le probabilità sono valutate in base alla rappresentatività, la probabilità stimata del dato del campione sarà sostanzialmente indipendente dalle dimensioni di quest’ultimo. Di fatto, quando i soggetti valutarono le distribuzioni dell’altezza media per campioni di varie dimensioni, fornirono distribuzioni identiche. Per esempio, alla probabilità di ottenere un’altezza media maggiore di un metro e ottanta assegnarono lo stesso valore per campioni di 1000, 100 e 10 uomini.4 Inoltre, non riuscivano a capire il ruolo delle dimensioni del campione nemmeno quando esso era sottolineato nella formulazione del problema. Consideriamo il seguente quesito:

Una data città è servita da due ospedali. In quello più grande nascono 45 bambini al giorno, in quello più piccolo 15. Come sapete, circa il 50 per cento dei bambini che nascono sono maschi, ma l’esatta percentuale varia di giorno in giorno: a volte è superiore, altre volte è inferiore al 50 per cento.

Per un anno ciascun ospedale annota i giorni in cui oltre il 60 per cento dei neonati sono maschi. Quale ospedale pensate abbia registrato un maggior numero di giorni del genere?

L’ospedale più grande (21)

L’ospedale più piccolo (21)

Circa uguale (ovvero, entro il 5 per cento di scarto) (53)

I numeri tra parentesi indicano il numero di studenti universitari che diedero la relativa risposta.

La maggior parte dei soggetti giudicò che la probabilità di registrare la nascita di oltre il 60 per cento di maschi fosse uguale nell’ospedale grande e in quello piccolo, forse perché questi eventi sono descritti dalla stessa statistica e sono quindi parimenti rappresentativi della popolazione generale. Secondo la teoria del campionamento, invece, il numero atteso di giorni in cui oltre il 60 per cento di neonati sono maschi è molto maggiore nell’ospedale piccolo che in quello grande, perché è meno probabile che un campione grande devii dal 50 per cento. Questo concetto fondamentale della statistica non fa evidentemente parte del repertorio di intuizioni delle persone.

Un’analoga insensibilità alle dimensioni del campione è stata osservata quando si giudica la probabilità a posteriori, ossia la probabilità che un campione sia stato estratto da una popolazione piuttosto che da un’altra. Consideriamo il seguente esempio:

Immaginate un vaso pieno di palline, 2/3 delle quali sono di un colore e 1/3 di un altro. Qualcuno ha estratto cinque palline dal vaso e scoperto che quattro erano rosse e una bianca. Qualcun altro ha tirato fuori venti palline e scoperto che dodici erano rosse e otto bianche. Quale dei due individui sarà più sicuro che il vaso contenga 2/3 di palline rosse e 1/3 di palline bianche, anziché viceversa? Quale giudizio di probabilità dovrebbe formulare ciascuno di loro?

In questo problema, le corrette probabilità a posteriori sono, assumendo vi siano uguali probabilità a priori, 8 a 1 per il campione 5:1 e 16 a 1 per il campione 12:8. Eppure la maggior parte della gente ritiene che il primo campione fornisca prove molto più convincenti dell’ipotesi che il vaso contenga prevalentemente palline rosse, perché la percentuale di palline rosse è più elevata nel primo che nel secondo campione. Ancora una volta, i giudizi intuitivi sono dominati dalla percentuale del campione e non sono sostanzialmente influenzati dalle sue dimensioni, che svolgono un ruolo cruciale nella determinazione delle reali probabilità a posteriori.5 Inoltre, le stime intuitive delle probabilità a posteriori sono molto meno estreme dei valori corretti. Si è osservato ripetutamente che veniva sottostimata l’influenza delle prove nei problemi di questo tipo.6 Il fenomeno è stato denominato «conservatorismo».

Errata concezione di caso. Le persone in genere si aspettano che una sequenza di eventi generata da un processo casuale rappresenti le caratteristiche essenziali di quel processo anche quando la sequenza è breve. Per esempio nel lancio di una moneta per vedere se viene testa o croce, si considera la sequenza T-C-T-C-C-T più probabile della sequenza T-T-T-C-C-C, che non pare casuale, e ancora più probabile della sequenza T-T-T-T-C-T, che non rappresenta l’equità della moneta.7 Dunque la gente si aspetta che le caratteristiche essenziali del processo siano rappresentate non solo globalmente nell’intera sequenza, ma anche localmente in ciascuna delle sue parti. Una sequenza localmente rappresentativa, invece, si scosta sistematicamente dalla frequenza attesa, in quanto contiene troppe alternanze e troppo poche ripetizioni. Un’altra conseguenza della credenza nella rappresentatività locale è la nota «fallacia del giocatore». Dopo aver osservato per esempio una lunga sequenza di rossi nella roulette, la maggior parte della gente crede erroneamente che il prossimo sia il nero, presumibilmente perché l’uscita del nero produrrebbe una sequenza più rappresentativa dell’uscita di un altro rosso. Quello casuale è considerato di solito un processo autocorrettivo in cui la deviazione in una particolare direzione induce una deviazione nella direzione opposta che ristabilisce l’equilibrio. In realtà, le deviazioni non sono «corrette», ma solo diluite a mano a mano che si svolge il processo casuale.

A interpretare male il concetto di caso non sono solo i soggetti inesperti. Uno studio sulle intuizioni statistiche condotto su un campione di esperti psicologi ricercatori8 ha rivelato come fosse radicata anche in loro la credenza in quella che potremmo chiamare «legge dei piccoli numeri», secondo la quale anche campioni piccoli sarebbero altamente rappresentativi della popolazione da cui sono estratti. Dalle loro risposte, risultava chiaro che questi psicologi pensavano che un’ipotesi valida riguardo a una popolazione fosse rappresentata dal risultato statisticamente significativo di un campione quasi indipendentemente dalle dimensioni dello stesso. Di conseguenza, essi si affidavano troppo ai risultati di campioni piccoli e sovrastimavano gravemente la loro replicabilità. Nella concreta conduzione di una ricerca, questo bias induce a scegliere campioni di dimensioni inadeguate e ad attribuire eccessivo peso alle scoperte.

Insensibilità alla prevedibilità. A volte ci tocca fare previsioni numeriche, come la quotazione futura di un’azione, la domanda di un prodotto di consumo o il risultato di una partita di calcio. Tali previsioni sono spesso formulate in base alla rappresentatività. Per esempio, supponiamo che a qualcuno sia descritta una certa azienda e chiesto di prevederne i futuri profitti. Se la descrizione fosse molto positiva, un altissimo profitto apparirebbe il più rappresentativo; se la descrizione fosse piuttosto negativa, apparirebbe più rappresentativa una performance mediocre. Il grado di positività della descrizione non è influenzato né dall’attendibilità della descrizione stessa né dalla sua capacità di consentire una previsione accurata. Se quindi le persone predicono solo in base alla positività o negatività della descrizione, i loro pronostici saranno insensibili all’attendibilità delle prove e all’accuratezza attesa della predizione.

Questa modalità di giudizio viola la teoria statistica normativa, secondo la quale gli estremi e il campo di variazione delle previsioni sono controllati da considerazioni di prevedibilità. Quando la prevedibilità è nulla, si dovrebbe fare la stessa previsione per tutti i casi. Per esempio, se le descrizioni di aziende non fornissero informazioni riguardanti il profitto, si dovrebbe prevedere lo stesso valore (come il profitto medio) per tutte le aziende. Se la prevedibilità è perfetta, naturalmente, i valori previsti corrisponderanno ai valori reali e lo scarto delle previsioni sarà uguale allo scarto dei risultati. In generale, più alta è la prevedibilità, più ampio è il campo di variazione dei valori previsti.

Diversi studi sulle previsioni numeriche hanno dimostrato che le previsioni intuitive violano questa norma e che le persone mostrano poco o punto interesse per considerazioni di prevedibilità.9 In una di queste indagini, ai soggetti furono fatti leggere diversi brani che descrivevano la performance di uno studente tirocinante durante una lezione pratica di insegnamento. Ad alcuni veniva chiesto di valutare in punti percentili la qualità della lezione descritta rispetto a una popolazione specifica. Ad altri si chiedeva di prevedere, sempre in punti percentili, il successo di ciascun tirocinante cinque anni dopo la lezione di tirocinio. I giudizi formulati nelle due condizioni risultarono identici. In altre parole, la previsione di un criterio spostato nel futuro (successo di un insegnante dopo cinque anni) era identica alla valutazione delle informazioni su cui la previsione si basava (la qualità del tirocinio). Gli studenti che fecero quelle previsioni erano indubbiamente consapevoli di quanto fosse limitata la capacità di prevedere quanto bene il tirocinante avrebbe insegnato sulla base di un’unica lezione di prova risalente a cinque anni prima, eppure le loro previsioni erano estreme come le loro valutazioni.

L’illusione di validità. Come abbiamo visto, le persone spesso prevedono scegliendo il risultato (per esempio, un mestiere) che è molto rappresentativo dell’input (per esempio, la descrizione di una persona). La fiducia che hanno nella loro previsione dipende soprattutto dal grado di rappresentatività (ovvero dalla qualità della corrispondenza tra il risultato scelto e l’input), e i fattori che limitano l’accuratezza predittiva non sono tenuti praticamente in considerazione. Così la gente si mostra pressoché sicura che un soggetto descritto sia un bibliotecario quando legge una descrizione della sua personalità che corrisponde allo stereotipo del bibliotecario, anche se tale descrizione è inadeguata, inattendibile o datata. L’ingiustificata sicurezza che è prodotta da una buona corrispondenza tra il risultato previsto e l’input informativo si potrebbe definire «illusione di validità». Questa illusione persiste anche quando chi giudica è consapevole dei fattori che limitano l’accuratezza delle sue predizioni. Come si è spesso osservato, gli psicologi che conducono colloqui di selezione del personale sono molto sicuri delle loro previsioni anche quando sanno dalla vasta letteratura sull’argomento che quel genere di colloqui è spesso inaffidabile. Il fatto che si continui a ricorrere ai colloqui clinici per la selezione, benché se ne sia ripetutamente dimostrata l’inadeguatezza, attesta ampiamente la forza di questo effetto.

La congruenza interna di una serie di input è un fattore importante nel determinare la fiducia di un soggetto nelle previsioni basate su quegli input. La gente, per esempio, è più sicura di poter prevedere la media dei voti finale di uno studente il cui libretto del primo anno comprenda tutti B che quella di uno studente il cui libretto del primo anno sia un misto di A e C. Si osservano spesso e volentieri schemi molto coerenti quando le variabili di input sono molto ridondanti o correlate, e questo induce la gente ad avere grande fiducia nelle predizioni basate su tali variabili. Eppure, secondo un risultato elementare della statistica delle correlazioni, date variabili di input di una determinata validità, una previsione basata su molti di questi input raggiunge un’accuratezza maggiore quando gli input sono indipendenti l’uno dall’altro che quando sono ridondanti o correlati. Dunque la ridondanza dei dati informativi riduce l’accuratezza proprio nel momento in cui accresce la fiducia, e le persone sono spesso sicure di previsioni che sono con tutta probabilità sbagliate.10

Errate concezioni della regressione. Supponiamo che un folto gruppo di bambini sia stato sottoposto a due versioni equivalenti di un test attitudinale. Se si selezionano dieci bambini tra quelli che hanno avuto la miglior performance in una delle due versioni, si scoprirà che spesso il loro rendimento nella seconda sarà piuttosto deludente. Viceversa, se si scelgono dieci bambini tra quelli che hanno avuto i risultati peggiori, si scoprirà che, in media, avranno un rendimento un po’ migliore nella seconda versione. Più in generale, consideriamo due variabili X e Y che seguano la stessa distribuzione. Se si scelgono individui il cui punteggio X medio si scosta dalla media di X di k unità, la media dei loro punteggi Y di solito si scosterà dalla media di Y di un valore inferiore a k unità. Queste osservazioni illustrano un fenomeno generale, noto come «regressione verso la media», che fu documentato per la prima volta da Galton più di un secolo fa.

Nel normale corso della vita, si incontrano molti esempi di regressione verso la media, come accade quando si confrontano la statura dei padri con quella dei figli, l’intelligenza dei mariti con quella delle mogli, la performance di determinati soggetti in una serie di prove. Tuttavia le persone non maturano intuizioni corrette riguardo a questo fenomeno. In primo luogo non si aspettano vi sia regressione in molti contesti in cui essa si verifica inevitabilmente. In secondo luogo, quando anche la riconoscono, tendono a inventarsi spiegazioni causali spurie per giustificarla.11 Noi ipotizziamo che il fenomeno della regressione resti elusivo perché è incompatibile con la convinzione di molti che il risultato previsto sia massimamente rappresentativo dell’input e che quindi il valore della variabile di risultato sia estremo come quello della variabile di input.

L’incapacità di riconoscere la rilevanza della regressione ha conseguenze perniciose, come illustra il caso seguente.12 In una discussione sull’addestramento piloti, esperti istruttori di volo osservarono che, quando si lodava un allievo per un atterraggio eccezionalmente morbido, quello stesso allievo la volta successiva faceva un atterraggio peggiore, mentre, quando si criticava aspramente un atterraggio brusco, di solito l’allievo migliorava nelle prove seguenti. Gli istruttori conclusero che gli elogi verbali sono deleteri per l’apprendimento, mentre i rimproveri sono, contrariamente alla dottrina psicologica comunemente accettata, benefici. Questa conclusione è infondata, a causa della presenza della regressione verso la media. Come in altri casi di prove ripetute, di solito a una cattiva performance segue un miglioramento e a una prova eccellente segue un peggioramento anche quando l’istruttore non abbia commentato il rendimento precedente. Poiché avevano lodato gli allievi dopo un atterraggio morbido e li avevano sgridati dopo un atterraggio brusco, gli istruttori pervennero alla conclusione errata e potenzialmente perniciosa che la punizione sia più efficace della ricompensa.

Dunque l’incapacità di capire l’effetto della regressione induce a sovrastimare l’efficacia della punizione e a sottostimare l’efficacia della ricompensa. Come nell’addestramento piloti, così nell’interazione sociale vengono date in genere ricompense quando ci si comporta bene e punizioni quando ci si comporta male; perciò, per effetto della sola regressione verso la media, il comportamento tende a migliorare dopo la punizione e a peggiorare dopo la ricompensa. Così la condizione umana fa sì che, per puro caso, si sia spesso e volentieri ricompensati per avere punito qualcuno e puniti per averlo ricompensato. La gente non si rende quasi mai conto di questa contingenza. Anzi, il ruolo elusivo della regressione nel determinare le conseguenze apparenti della ricompensa e della punizione pare sia sfuggito anche all’attenzione degli studiosi del settore.

Disponibilità

Vi sono situazioni in cui si valutano la frequenza di una classe o la probabilità di un evento in base alla facilità con cui vengono in mente esempi o casi in cui quell’evento si è verificato. Qualcuno potrà magari valutare il rischio di infarto nella popolazione di mezz’età ricordando chi ha avuto un infarto tra i suoi conoscenti. Analogamente, potrà valutare la probabilità che una data iniziativa imprenditoriale fallisca immaginando le varie difficoltà che incontrerebbe. Questa euristica del giudizio è chiamata «euristica della disponibilità». La disponibilità è un utile indizio per valutare frequenza o probabilità, perché di solito si ricordano con maggior prontezza e facilità gli esempi di classi ampie che quelli di classi meno frequenti. Tuttavia, la disponibilità è influenzata anche da fattori diversi dalla frequenza e dalla probabilità, e quindi affidarvisi conduce a bias prevedibili, alcuni dei quali sono illustrati qui di seguito.

Bias dovuti alla recuperabilità degli esempi. Quando le dimensioni di una classe sono giudicate in base alla disponibilità dei suoi esempi, una classe i cui esempi siano facilmente recuperati apparirà più numerosa di una classe di uguale frequenza, ma i cui esempi appaiano meno disponibili. In un esperimento elementare volto a dimostrare questo effetto, ai soggetti fu letto un elenco di famosi personaggi di entrambi i sessi e chiesto di giudicare se la lista contenesse più nomi maschili che femminili. Furono lette liste distinte a gruppi distinti di volontari: in alcune gli uomini erano relativamente più famosi delle donne, in altre erano le donne a essere relativamente più famose degli uomini. Ogni volta, i soggetti giudicarono erroneamente che la classe (il sesso) che comprendeva i personaggi più famosi fosse la più numerosa.13

Oltre alla familiarità, vi sono altri fattori, come la salienza, a influenzare la recuperabilità degli esempi. Per esempio, vedere una casa che brucia induce il soggetto ad assegnare più peso alla probabilità soggettiva di una tale disgrazia che leggere la notizia di un incendio sul quotidiano locale. Inoltre, gli avvenimenti recenti tendono a essere relativamente più disponibili degli avvenimenti più lontani nel tempo. Tutti tendono a ritenere temporaneamente maggiore la probabilità soggettiva che capiti un incidente stradale quando vedono una macchina rovesciata sul ciglio della strada.

Bias dovuti all’efficacia di un sistema di ricerca. Supponiamo di campionare a caso una parola (di tre o più lettere) da un testo inglese. È più probabile che inizi per «R» o che abbia «R» come terza lettera? I soggetti affrontano il problema ricordando parole che cominciano per «R» (road, strada) e parole che hanno la «R» in terza posizione (car, auto), e valutano la frequenza relativa in base alla facilità con cui le parole dei due tipi vengono loro in mente. Poiché è molto più facile cercare parole che comincino per una data consonante che parole che abbiano quella consonante in terza posizione, la maggior parte della gente giudica le parole inizianti con una data consonante più numerose di quelle in cui la medesima consonante appare al terzo posto, e formula questo giudizio anche per quelle che, come «R» e «K», sono più frequenti in terza posizione che in prima.14

Compiti diversi ispirano sistemi di ricerca diversi. Supponiamo per esempio che ci venga chiesto di valutare la frequenza con cui parole astratte («pensiero», «amore») e parole concrete («porta», «acqua») compaiono nella lingua scritta. Un modo naturale di rispondere al quesito è cercare contesti in cui appaiano quelle parole. Pare più facile pensare a contesti in cui è menzionato un concetto astratto (l’amore nei romanzi rosa) che a contesti in cui è menzionata una parola concreta (come «porta»). Se la frequenza dei termini è giudicata in base alla disponibilità dei contesti in cui essi appaiono, i termini astratti saranno ritenuti relativamente più numerosi dei termini concreti. Il bias è stato osservato nel corso di un recente studio15 che ha dimostrato come la frequenza con cui comparivano parole astratte in un testo fosse giudicata molto superiore a quella con cui comparivano parole concrete, mentre la frequenza obiettiva avrebbe dovuto essere del 50-50. I soggetti ritenevano inoltre che le parole astratte apparissero in una varietà molto maggiore di contesti delle parole concrete.

Bias di immaginabilità. A volte bisogna valutare la frequenza di una classe i cui esempi non sono recuperati dalla memoria, ma vengono generati secondo una data regola. In tali situazioni, tendiamo a produrre diversi esempi e a valutare la frequenza o la probabilità in base alla facilità con cui ce li siamo costruiti. Tuttavia la facilità con cui si producono esempi non riflette sempre la loro reale frequenza, e questa modalità di valutazione è soggetta a bias. Per illustrare il concetto, consideriamo un gruppo di 10 persone che abbiano il compito di formare commissioni di k membri secondo la formula 2 ≤ k ≤ 8. Quante distinte commissioni di k membri si possono costituire? La risposta corretta a questo problema è data dal coefficiente binomiale (10/k) che raggiunge un massimo di 252 per k = 5. Chiaramente, il numero di commissioni di n membri è uguale al numero di commissioni di (10 – k) membri, perché qualsiasi commissione di n membri definisce un unico gruppo di (10 – k) non membri.

Un modo di rispondere a questo quesito senza fare calcoli è costruire mentalmente commissioni di k membri e valutare il loro numero in base alla facilità con cui vengono in mente. Le commissioni di pochissimi membri, come 2, sono più disponibili delle commissioni di molti membri, come 8. Il più semplice schema di costituzione di commissioni è suddividere il gruppo in insiemi disgiunti. Si osserva subito che è facile creare cinque commissioni disgiunte di 2 membri, mentre è impossibile generare anche solo due commissioni disgiunte di 8 membri. Di conseguenza, se la frequenza è valutata in base all’immaginabilità, o alla disponibilità di costruzione, le commissioni piccole appariranno più numerose delle commissioni più grandi, in contrasto con la corretta funzione a campana. Di fatto, quando a soggetti sprovveduti fu chiesto di stimare il numero di distinte commissioni di varie dimensioni, le loro stime risultarono essere una funzione monotona decrescente delle dimensioni della commissione.16 Per esempio, la stima mediana del numero di commissioni di 2 membri era 70, mentre quella delle commissioni di 8 membri fu 20 (la risposta corretta è 45 in entrambi i casi).

L’immaginabilità svolge un ruolo importante nel giudizio di probabilità riguardo a situazioni della vita reale. Per esempio, il rischio che comporta una spedizione avventurosa è valutato immaginando le contingenze che la spedizione non è equipaggiata ad affrontare. Se molte difficoltà del genere sono vividamente rappresentate, la spedizione apparirà incredibilmente pericolosa, anche se la facilità con cui sono immaginati i disastri non è detto rispecchi la reale probabilità che quei disastri accadano. Viceversa, i rischi di un’impresa possono essere fortemente sottostimati se alcuni dei potenziali pericoli sono difficili da immaginare o semplicemente non vengono in mente.

Correlazione illusoria. Chapman e Chapman17 hanno descritto un interessante bias del giudizio della frequenza con cui due eventi accadono in concomitanza. Fornirono a soggetti inesperti informazioni su diversi ipotetici malati di mente. I dati su ciascun paziente consistevano nella diagnosi clinica e in una figura umana disegnata dal paziente stesso. In seguito, i soggetti stimavano la frequenza con cui ciascuna diagnosi (come paranoia o sospettosità) si accompagnava a varie caratteristiche del disegno (come occhi strani). I soggetti sovrastimarono parecchio la frequenza della concomitanza di correlazioni spontanee, come quella tra sospettosità e occhi strani. Questo effetto fu denominato «correlazione illusoria». Con i loro giudizi erronei sui dati ai quali erano stati esposti, i volontari «riscoprirono» gran parte di quella diffusa dottrina clinica che trae interpretazioni infondate dal test della figura umana. L’effetto correlazione illusoria risultò estremamente resistente ai dati che lo contraddicevano. Persistette anche quando la correlazione tra sintomi e diagnosi era in realtà negativa, e impedì ai soggetti di individuare relazioni di fatto presenti.

La disponibilità spiega facilmente l’effetto di correlazione illusoria. Quando si giudica la frequenza con cui due eventi accadono in concomitanza, ci si basa sulla forza del legame associativo tra essi. Se l’associazione è forte, è probabile si concluda che gli eventi sono stati concomitanti e si giudichi quindi che le forti correlazioni si siano presentate spesso insieme. Secondo questa visione, la correlazione illusoria tra la sospettosità e il disegno di due occhi strani, per esempio, è dovuta al fatto che la sospettosità è più facilmente associata agli occhi che a qualsiasi altra parte del corpo.

Una lunga esperienza di vita ci ha insegnato che, in generale, gli esempi di classi ampie sono richiamati più facilmente alla memoria di quelli di classi meno frequenti, che gli eventi probabili sono più facili da immaginare di quelli improbabili e che le connessioni associative tra eventi sono rafforzate quando gli eventi stessi si presentano spesso in concomitanza. Di conseguenza, l’uomo dispone di una procedura (l’euristica della disponibilità) che gli permette di stimare l’ampiezza di una classe, la probabilità di un evento o la frequenza di una concomitanza in base alla facilità con cui si possono eseguire le relative operazioni mentali di recupero, costruzione e associazione. Tuttavia, come hanno dimostrato i precedenti esempi, questa utilissima procedura di stima produce errori sistematici.

Aggiustamento e ancoraggio

In molte situazioni, facciamo stime cominciando da un valore iniziale che è aggiustato in maniera da fornire la risposta finale. Il valore iniziale, o punto di partenza, può essere suggerito dalla formulazione del problema o essere il risultato di un calcolo parziale. Nell’uno o nell’altro caso, gli aggiustamenti sono in genere insufficienti.18 In altre parole, punti di partenza diversi danno stime diverse, ognuna con un bias tendente verso i valori iniziali. Chiamiamo questo fenomeno «ancoraggio».

Aggiustamento insufficiente. In un esperimento volto a dimostrare l’effetto ancoraggio, si chiese ai soggetti di stimare varie quantità espresse in punti percentuali (per esempio, la percentuale di paesi africani in seno alle Nazioni Unite). Prima di ciascuna valutazione, veniva fatta ruotare in presenza del soggetto una roulette con numeri compresi tra 0 e 100. Si diceva poi ai soggetti di indicare in primo luogo se il numero uscito era superiore o inferiore alla quantità in esame, e in secondo luogo di stimare il valore di detta quantità aumentando o diminuendo il numero dato. A distinti gruppi furono dati distinti numeri arbitrari di partenza, e questi numeri arbitrari ebbero un sensibile effetto sulle stime. Per esempio, due gruppi che avevano ricevuto come punti di partenza rispettivamente 10 e 65 diedero 25 e 45 come stime mediane della percentuale di paesi africani in seno alle Nazioni Unite. I premi per l’accuratezza non ridussero l’effetto ancoraggio.

L’ancoraggio si verifica non solo quando viene fornito al soggetto il punto di partenza, ma anche quando egli basa la sua stima sul risultato di un calcolo incompleto. Uno studio sulla stima numerica intuitiva illustra l’effetto. Due gruppi di liceali stimarono, in cinque secondi, il risultato di un’espressione numerica scritta sulla lavagna. Un gruppo stimò il prodotto:

8 × 7 × 6 × 5 × 4 × 3 × 2 × 1

Mentre un altro gruppo stimò un altro prodotto:

1 × 2 × 3 × 4 × 5 × 6 × 7 × 8

Per rispondere rapidamente a tali quesiti, si eseguono di solito due o tre calcoli e si stima il prodotto totale per estrapolazione o aggiustamento. Poiché in genere gli aggiustamenti sono insufficienti, questa procedura dovrebbe condurre a una sottostima. Inoltre, poiché il risultato delle prime operazioni di moltiplicazione (eseguite da sinistra a destra) è più alto nella sequenza discendente che in quella ascendente, il prodotto della prima espressione dovrebbe essere in genere giudicato superiore al prodotto della seconda. Entrambe le predizioni furono confermate. La stima mediana della sequenza ascendente era 512, mentre la stima mediana della sequenza discendente era 2250. La risposta esatta è 40.320.

Bias della valutazione di eventi congiuntivi e disgiuntivi. In un recente studio di Bar-Hillel,19 ai soggetti venne proposto di scommettere su un elemento di una coppia di eventi. Gli eventi erano di tre tipi: (I) eventi semplici, come estrarre una biglia rossa da un sacchetto che conteneva il 50 per cento di biglie rosse e il 50 per cento di biglie bianche; (II) eventi congiuntivi, come estrarre una biglia rossa sette volte di seguito (rimettendo dentro ogni volta la biglia estratta) da un sacchetto contenente il 90 per cento di biglie rosse e il 10 per cento di biglie bianche; (III) eventi disgiuntivi, come estrarre una biglia rossa almeno una volta in sette tentativi consecutivi (rimettendo dentro la biglia estratta) da un sacchetto contenente il 10 per cento di biglie rosse e il 90 per cento di biglie bianche. In questo problema, una larga maggioranza di soggetti preferiva scommettere sull’evento congiuntivo (la probabilità del quale è del 48 per cento) che sull’evento semplice (la probabilità del quale è del 50 per cento). I soggetti preferivano anche l’evento semplice all’evento disgiuntivo, che ha una probabilità del 52 per cento. Così, in entrambi i confronti, la maggior parte scommise sull’evento meno probabile. Il modello di scelta illustra una scoperta generale. Dagli studi sulla scelta tra azzardi e sui giudizi di probabilità risulta che le persone tendono a sovrastimare la probabilità di eventi congiuntivi20 e a sottostimare la probabilità di eventi disgiuntivi. Questi bias sono facilmente spiegabili con l’effetto ancoraggio. La probabilità risultante dall’evento elementare (successo a un dato stadio dell’estrazione) costituisce il punto di partenza naturale della stima delle probabilità degli eventi sia congiuntivi sia disgiuntivi. Poiché l’aggiustamento a partire dal punto di partenza è in genere insufficiente, le stime finali rimangono, in entrambi i casi, troppo vicine alle probabilità degli eventi elementari. Si noti che la probabilità complessiva di un evento congiuntivo è più bassa della probabilità di ciascun evento elementare, mentre la probabilità complessiva di un evento disgiuntivo è più alta della probabilità di ciascun evento elementare. Come conseguenza dell’ancoraggio, la probabilità complessiva sarà sovrastimata nei problemi congiuntivi e sottostimata nei problemi disgiuntivi.

I bias nella valutazione degli eventi composti sono particolarmente importanti nel contesto della pianificazione. Portare a termine con successo un’iniziativa, come lo sviluppo di un nuovo prodotto, ha in genere carattere congiuntivo: perché l’iniziativa abbia successo, bisogna che ogni evento di una serie di eventi si verifichi. Anche quando ognuno di questi eventi è molto probabile, la probabilità complessiva di successo è molto bassa se il numero di eventi è elevato. La generale tendenza a sovrastimare la probabilità di eventi congiuntivi induce a valutare con ingiustificato ottimismo la probabilità che un piano abbia successo o che un progetto sia portato a termine puntualmente. Viceversa, ci si imbatte di solito nelle strutture disgiuntive quando si valutano i rischi. Un sistema complesso, come un reattore nucleare o un corpo umano, funziona male se qualcuno dei suoi componenti essenziali si inceppa. Anche quando la probabilità che si inceppi ciascun componente è minima, la probabilità complessiva che il sistema vada in tilt è elevata se sono coinvolti molti componenti. A causa dell’ancoraggio, si tende a sottostimare la probabilità di un malfunzionamento dei sistemi complessi. Così, la direzione del bias di ancoraggio viene dedotta a volte dalla struttura dell’evento: la struttura a catena delle congiunzioni conduce alla sovrastima, quella a imbuto delle disgiunzioni alla sottostima.

Ancoraggio nella stima di distribuzioni di probabilità soggettive. Nell’analisi delle decisioni, si chiede spesso agli esperti di dare un giudizio su una certa quantità, come l’indice Dow Jones un dato giorno, sotto forma di distribuzione di probabilità. Di solito, tale distribuzione è costruita chiedendo al soggetto di scegliere valori della detta quantità corrispondenti a specifici percentili della sua distribuzione di probabilità soggettiva. Per esempio, a chi deve giudicare si può magari chiedere di scegliere un numero X90 tale che la sua probabilità soggettiva di essere superiore al valore dell’indice Dow Jones un certo giorno sia del 90 per cento. In altre parole, l’esperto dovrebbe scegliere un valore X90 che lo inducesse ad accettare di scommettere con 9 probabilità contro 1 che l’indice Dow Jones non lo superi. A partire da molti giudizi del genere corrispondenti a distinti percentili, si può costruire una distribuzione di probabilità soggettiva per il valore dell’indice Dow Jones.

Raccogliendo distribuzioni di probabilità soggettiva di molte quantità distinte, è possibile verificare se l’esperto sia capace di un giudizio calibrato. Colui che giudica dà giudizi calibrati (o di visione esterna) in una serie di problemi se esattamente il Π per cento dei valori reali delle quantità stimate cade al di sotto dei valori da lui dichiarati di XΠ. Per esempio, i valori reali devono essere inferiori a X01 e superiori a X99 per l’1 per cento delle quantità. Perciò i valori reali dovrebbero cadere nell’intervallo di confidenza compreso tra X01 e X99 nel 98 per cento dei problemi.

Diversi studiosi21 hanno costruito distribuzioni di probabilità per molte quantità in base a una ricca messe di dati degli esperti. Queste distribuzioni indicavano che i «giudici» si erano spesso e sistematicamente scostati dalla giusta calibrazione. Nella maggior parte delle analisi, i valori reali delle quantità stimate risultavano o inferiori a X01 o superiori a X99 in circa il 30 per cento dei problemi. In altre parole, i soggetti stabilivano intervalli di confidenza troppo stretti, che rispecchiavano una certezza maggiore di quella giustificata dalla loro conoscenza delle quantità stimate. In questo bias incappano sia persone sprovvedute sia persone esperte, ed esso non viene eliminato introducendo adeguate regole di correzione che forniscano incentivi alla calibrazione esterna. Questo effetto è attribuibile, almeno in parte, all’ancoraggio.

Per scegliere l’X90 relativo all’indice Dow Jones, per esempio, è naturale riflettere innanzitutto sulla propria migliore stima del Dow Jones e aggiustare il valore verso l’alto. Se questa correzione, come la maggior parte delle altre, è insufficiente, allora X90 non sarà sufficientemente estremo. Un analogo effetto ancoraggio si verificherà scegliendo X10, che si ottiene presumibilmente aggiustando la propria migliore stima verso il basso. Di conseguenza, l’intervallo di confidenza compreso tra X10 e X90 sarà troppo piccolo e la distribuzione di probabilità stimata risulterà troppo ristretta. A sostegno di questa interpretazione si può dimostrare che le probabilità soggettive sono sistematicamente modificate se nella procedura la propria migliore stima non funge da ancora.

Le distribuzioni di probabilità soggettiva per una data quantità (l’indice Dow Jones) si possono ottenere in due distinti modi: (I) chiedendo al soggetto di scegliere valori del Dow Jones che corrispondano a percentili specifici della sua distribuzione di probabilità; (II) chiedendogli di valutare la probabilità che il valore vero del Dow Jones sia superiore a determinati valori. Le due procedure sono formalmente equivalenti e dovrebbero dare distribuzioni identiche, ma è lecito pensare che facciano uso di modalità di aggiustamento diverse a partire da ancore diverse. Nella procedura (I), il punto di partenza naturale è la propria migliore stima della quantità; nella procedura (II), invece, si tende ad ancorarsi al valore espresso nella domanda o a probabilità pari, del 50-50, che rappresentano un punto di partenza naturale nella stima delle probabilità. Nell’uno o nell’altro caso, la procedura (II) dovrebbe dare probabilità meno estreme della procedura (I).

Per mettere a confronto le due procedure, a un gruppo di soggetti fu presentata una serie di 24 quantità (come la distanza in linea d’aria tra New York e Pechino) e si chiese loro di valutare l’X10 o l’X90 per ciascun problema. A un altro gruppo fu fornito il giudizio mediano del primo gruppo relativo alle 24 quantità, e chiesto di stimare le probabilità, in termini di rapporto, che ciascun valore superasse il valore vero della rispettiva quantità. In assenza di qualsiasi bias, il secondo gruppo avrebbe dovuto dare come risposta lo stesso rapporto del primo gruppo, che era di 9:1; se invece fungono da ancore anche le probabilità al 50-50 o il valore dichiarato, il rapporto espresso dal secondo gruppo avrebbe dovuto essere meno estremo, ovvero più vicino a 1:1. In effetti, i rapporti mediani dichiarati da quel gruppo, in ciascun problema, furono di 3:1. Quando i giudizi dei due gruppi furono sottoposti a calibratura esterna, si scoprì che i soggetti del primo gruppo erano troppo estremi: gli eventi a cui avevano assegnato una probabilità media del 10 per cento risultavano averne invece una del 24 per cento. Invece i soggetti del secondo gruppo erano troppo conservatori: gli eventi a cui avevano assegnato una probabilità media del 34 per cento risultavano averne una del 26 per cento. Da questi risultati si evince che il grado di calibratura dipende dalla procedura con cui si ottengono le stime.

Sintesi

Nell’articolo abbiamo analizzato i bias cognitivi che insorgono quando si ricorre a euristiche del giudizio. Questi bias non sono attribuibili a effetti motivazionali come il wishful thinking o la distorsione del giudizio indotta da ricompense e punizioni. In realtà, molti dei gravi errori di giudizio che abbiamo testé elencato si verificavano nonostante che i soggetti fossero incoraggiati a essere precisi e fossero compensati quando davano le risposte corrette.22

Il ricorso all’euristica e la forte diffusione dei bias non sono fenomeni che riguardano solo i profani. Anche i ricercatori esperti, quando pensano intuitivamente, cadono nelle stesse trappole. Per esempio, la tendenza a prevedere il risultato più rappresentativo dei dati disponibili, senza considerare a sufficienza la probabilità a priori, è stata osservata nei giudizi intuitivi di persone che avevano studiato a fondo la statistica.23 Benché gli individui con studi di statistica alle spalle evitino in genere gli errori elementari, come la fallacia del giocatore d’azzardo, quando emettono giudizi intuitivi in problemi più complessi e meno trasparenti incappano in analoghe fallacie.

Non sorprende che euristiche utili, come quelle della rappresentatività e della disponibilità, resistano pervicacemente anche se ogni tanto conducono a errori di previsione e di stima. Quello che forse sorprende è l’incapacità delle persone di inferire dalla lunga esperienza di vita princìpi statistici fondamentali come la regressione verso la media e l’effetto delle dimensioni del campione sulla variabilità del campionamento. Benché, nel normale corso dell’esistenza, tutti incontrino numerosi esempi da cui potrebbero dedurre tali regole, pochissimi scoprono da soli i princìpi del campionamento e della regressione verso la media. I princìpi statistici non si imparano dall’esperienza quotidiana, perché gli esempi attinenti non sono adeguatamente codificati. Per esempio, la gente non scopre che la lunghezza media delle parole in un testo varia di più tra righe consecutive che tra pagine consecutive. Né apprende la relazione tra dimensioni del campione e variabilità del campionamento, anche se i dati sull’argomento sono abbondanti.

La mancanza di un codice appropriato spiega anche perché di solito non si rilevino i bias nei giudizi di probabilità. Una persona potrebbe benissimo imparare a capire se i suoi giudizi sono calibrati esternamente, tenendo conto della percentuale di eventi che si verificano davvero tra quelli a cui ha assegnato la stessa probabilità. Tuttavia non riesce naturale raggruppare gli eventi in base al giudizio di probabilità, e in mancanza di tale raggruppamento è impossibile per un individuo scoprire, per esempio, che solo il 50 per cento delle previsioni a cui ha assegnato una probabilità del 90 per cento o più è effettivamente risultato vero.

L’analisi empirica dei bias cognitivi ha implicazioni per il ruolo teorico e pratico dei giudizi di probabilità. La moderna teoria delle decisioni24 considera la probabilità soggettiva l’opinione quantificata di una persona idealizzata. In particolare, la probabilità soggettiva di un dato evento è definita dall’insieme di scommesse riguardanti l’evento che il soggetto è disposto ad accettare. Si può calcolare per un individuo una misura della probabilità soggettiva internamente congruente, o coerente, se le sue scelte tra le scommesse soddisfano determinati princìpi, ovvero gli assiomi della teoria. La probabilità così calcolata è soggettiva nel senso che a individui diversi è consentito stimare probabilità diverse per lo stesso evento. Il principale contributo di questo metodo è che fornisce una rigorosa interpretazione soggettiva della probabilità che è applicabile a eventi unici e fa parte di una teoria generale della decisione razionale.

Va forse osservato che, mentre le probabilità soggettive a volte sono inferite dalle preferenze tra scommesse, esse di norma non si formano in questo modo. Una persona scommette sulla squadra A piuttosto che sulla squadra B perché crede che l’A abbia più probabilità di vincere; non trae la sua convinzione dalle preferenze tra una scommessa e l’altra. Perciò, in realtà, sono le probabilità soggettive a determinare le preferenze tra scommesse e non queste a determinare le prime, come afferma la teoria assiomatica della decisione razionale.25

La natura intrinsecamente soggettiva della probabilità ha indotto molti studiosi a credere che la coerenza, o congruenza interna, sia l’unico criterio valido per valutare il giudizio di probabilità. Dal punto di vista della teoria formale della probabilità soggettiva, qualsiasi serie di giudizi di probabilità internamente congruenti vale qualunque altra serie. Il criterio non è del tutto soddisfacente, perché una serie internamente congruente di probabilità soggettive è spesso incompatibile con altre convinzioni del soggetto. Prendiamo una persona le cui probabilità soggettive riguardo a tutti i risultati possibili del lancio di una moneta siano ispirate dalla fallacia del giocatore d’azzardo: in altre parole, la sua stima della probabilità che venga «croce» con un dato lancio aumenta con il numero dei «testa» consecutivi che hanno preceduto quel lancio. I giudizi del giocatore potrebbero essere internamente congruenti ed essere quindi considerati probabilità soggettive accettabili e adeguate secondo i parametri della teoria formale. Queste probabilità, però, sono incompatibili con la convinzione generale che una moneta non abbia memoria e sia quindi incapace di generare dipendenze sequenziali. Perché dei giudizi di probabilità siano considerati adeguati, o razionali, la coerenza interna non è sufficiente: essi devono essere compatibili con l’intera rete di credenze dell’individuo. Purtroppo, non può esserci una procedura formale semplice per valutare la compatibilità di una serie di giudizi di probabilità con il sistema complessivo di credenze di colui che giudica. Il giudice razionale si sforzerà nondimeno di valutare la compatibilità, anche se è più facile stimare e ottenere la coerenza interna. In particolare, egli tenterà di rendere i suoi giudizi di probabilità compatibili con la sua conoscenza della materia in questione, delle leggi della probabilità e dei suoi stessi bias ed euristiche del giudizio.

Sommario

In questo articolo abbiamo descritto le euristiche utilizzate per formulare giudizi in condizioni di incertezza: (I) la rappresentatività, cui di solito si ricorre quando si deve giudicare la probabilità che un oggetto o un evento A appartengano alla classe o al processo B; (II) la disponibilità di esempi o scenari, spesso usata quando si deve valutare la frequenza di una classe o la plausibilità di un dato sviluppo; (III) l’aggiustamento a partire da un’ancora, praticato in genere nelle predizioni numeriche quando è disponibile un valore di riferimento. Le euristiche sono altamente economiche e in genere efficaci, ma conducono a errori sistematici e prevedibili. Conoscerle meglio e conoscere meglio i bias ai quali conducono può conferire maggior validità ai giudizi e alle decisioni in condizioni di incertezza.

* Questo articolo è apparso su «Science», vol. 185, n. 4157, 1974 (copyright © 1974 by Amos Tversky e Daniel Kahneman. Riprodotto con il permesso di American Association for the Advancement of Science). La ricerca fu finanziata dall’Advanced Research Project Agency del ministero della Difesa e affidata dall’Office of Naval Research, con contratto N00014-73-C-0438, all’Oregon Research Institute di Eugene. Ulteriore sostegno all’indagine fu fornito dall’Istituto di ricerca e sviluppo dell’Università Ebraica di Gerusalemme, in Israele. (NdA)