Nella prima metà del Novecento l’indagine sui fondamenti della matematica, ossia sulle condizioni che rendono possibile l’applicazione del procedere simbolico (e quindi matematico) ai fatti del mondo esterno, porta a uno sviluppo della logica. Tale disciplina viene riconosciuta come teoria matematica del pensiero e assume le caratteristiche che tuttora la contraddistinguono, diventando concettualmente filosofica e tecnicamente matematica.
L’immagine monolitica della logica definita da Frege verso la fine del XIX secolo filtra sostanzialmente immutata attraverso i tre volumi dei Principia Mathematica (1910-1913) di Bertrand Russell e Alfred North Whitehead, i quali tentano una ricostruzione da un punto di vista logicista dell’intero edificio della matematica classica, ritenendo che tutte le proposizioni delle matematiche pure (aritmetica e analisi, in particolare) possano essere enunciate attraverso il solo vocabolario e la sola sintassi della logica, che diventa la disciplina matematica per eccellenza.
Completamente innovativo è, invece, il punto di vista di David Hilbert (1862-1943) e della sua scuola – nata a partire dagli anni Venti del Novecento – che dà alla matematica, e alla geometria in particolar modo, una base assiomatica: egli considera veri gli assiomi in quanto arbitrariamente stabiliti, e conseguentemente veri tutti gli enti definiti per mezzo di quegli assiomi.
Sulla base di questa premessa, si viene costruendo il cosiddetto “metodo assiomatico”: si lavora sugli assiomi, se ne cancellano alcuni e se ne creano altri in modo tale da selezionare solo tutto ciò che è necessario e non sovrabbondante per la deduzione dei teoremi voluti. Sebbene la ricerca di Hilbert non sia svolta con strumenti formali, ne risulta un sistema formale (cioè un sistema per generare teoremi), usando un insieme prefissato di assiomi e di regole d’inferenza, di modo che, auspicabilmente, si dovrebbe essere in grado di verificare, attraverso una procedura meccanica, se una data formula è dimostrabile oppure no all’interno del sistema stesso. In conclusione, le dimostrazioni possono essere trattate come oggetti matematici (finiti) e studiati matematicamente.
Nel 1928 Hilbert e il suo allievo Wilhelm Ackermann (1896-1962), pubblicano il primo testo di logica che può leggersi come un moderno manuale: i Lineamenti di logica teoretica, in cui distinguono tra “logica proposizionale” e “logica del primo ordine” (nella prima è possibile esprimere proposizioni e relazioni tra proposizioni, nella seconda vengono introdotti i quantificatori), avviano l’indagine metateorica del sistema formale e affrontano due fondamentali questioni: quella relativa alla completezza (una teoria si dice completa se i suoi assiomi sono sufficienti a dimostrare tutti i teoremi della teoria) e quella relativa alla decidibilità (una teoria è decidibile se, dato un qualsiasi enunciato, è possibile stabilire se quell’enunciato appartiene a quella teoria oppure no).
Nei primi anni del Novecento tanto le riflessioni dei logicisti, quanto quelle dei formalisti trovano un comune riferimento nelle concezioni intuizioniste enunciate da Luitzen Brouwer (1903-1957), secondo cui la validità della matematica classica è dimostrabile solo riducendola a un sistema finitistico valido a priori. John Von Neumann, in particolare, mette in evidenza una sorta di collegamento tra i risultati ottenuti dai diversi indirizzi del tempo, attribuendo soprattutto agli intuizionisti il merito di aver saputo trasformare le vaghe questioni di carattere filosofico-epistemologico dei fondamenti della matematica in tre problemi “precisi”: la formulazione dei difetti della matematica classica (a opera di Brouwer), la descrizione dei suoi metodi (per merito di Russell) e la ricerca matematico-combinatoria di questi metodi e delle loro relazioni (di Hilbert).
Con von Neumann si apre un’ipotesi di conferma della validità della matematica che è legittimabile non attraverso l’indagine dei suoi enunciati, bensì dei suoi metodi. Gli anni Trenta si aprono con l’elaborazione del teorema di completezza di Gödel, che sembra confermare l’ipotesi possibilista di von Neumann. Tuttavia, negli stessi anni, si va profilando un altro filone, che risale a Karl Schröder (1841-1902) ed è caratterizzato da un approccio semantico, interpretativo alle teorie formali che, in quanto tale, contrasta il filone logicista e formalista, basato invece su un approccio di natura sintattica. In altre parole, gli studiosi che fanno capo a questo nuovo filone indagano le teorie definite attraverso il linguaggio predicativo di primo ordine non in termini di “assioma”, “dimostrazione”, “non contraddittorietà” ecc., bensì in termini di “validità”, “verità”, “soddisfacibilità” ecc. Questo approccio ha un carattere molto più intuitivo: ogni teoria espressa nel linguaggio del primo ordine può essere interpretata in domini diversi, cioè si può selezionare un insieme qualsiasi come universo di riferimento all’interno del quale collegare – cioè interpretare – ciascun segno linguistico della teoria con elementi appartenenti al dominio stesso di riferimento. Si potrà facilmente intuire che una data formula è vera o falsa se, all’interno del dominio scelto, la sua interpretazione darà origine a proposizioni vere o false. Di conseguenza una formula (o una teoria, ossia un insieme di formule) si dirà soddisfacibile se esiste un dominio all’interno del quale, tramite opportuna interpretazione, la formula (o l’insieme di formule date dagli assiomi della teoria) darà origine a una proposizione vera; sarà non soddisfacibile in caso contrario. Andando oltre, possiamo aggiungere che, se la teoria è soddisfacibile in un dominio, si dice che ammette un modello costituito dal dominio stesso con tutte le relazioni e le operazioni possibili in esso.
Nasce quindi la cosiddetta teoria dei modelli che è alla base di un altro teorema di enorme portata. Si tratta del cosiddetto teorema di Löwenheim-Skolem, anticipato da Leopold Löwenheim (1878-1957) nel 1915 nella memoria Sulle possibilità nel calcolo dei relativi, e poi generalizzato da Thoralf Skolem (1887-1963) nel 1920 e nel 1922. Esso afferma che se un insieme di enunciati del primo ordine è soddisfacibile (e quindi ha un modello), allora è soddisfacibile in un dominio infinito numerabile. Il teorema verte sulla ricerca di una base per le formule nella classe di modelli e conclude che tale base è data dalle interpretazioni numerabili, dal momento che se una formula è soddisfatta in tutte le sue interpretazioni numerabili, allora è logicamente valida. Già Löwenheim si era reso conto che le interpretazioni finite non sono sufficienti a valutare la validità di una formula: era per questo passato a considerare un dominio infinito numerabile (come l’insieme dei numeri naturali).
Continuando sulla strada segnata da Hilbert, Skolem inoltre presenta un nuovo possibile modo di sviluppare l’aritmetica, di straordinaria importanza per l’odierna teoria dei modelli: egli escogita una tecnica per “eliminare” alla base la fonte stessa dei paradossi generati nei precedenti ragionamenti logici, ovverossia i quantificatori illimitati. Egli infatti ritiene di poter rendere l’aritmetica una scienza rigorosa senza l’utilizzo degli operatori “sempre” e “qualche volta”, ricorrendo all’introduzione di queste variabili logiche apparenti solo in domini finiti e utilizzando come base il metodo ricorsivo di pensare.
Un ulteriore merito di Skolem sta nell’aver applicato il teorema precedente alla teoria degli insiemi, scoprendo il cosiddetto “paradosso di Skolem”: se il sistema assiomatico di Zermelo (la teoria degli insiemi) è coerente, allora è soddisfacibile in un dominio numerabile nonostante affermi l’esistenza di insiemi infiniti più che numerabili.
Un teorema di completezza può essere visto sotto la forma di una giustificazione delle regole d’inferenza di una teoria logica o, più in generale, come l’organizzazione di uno spazio logico: le regole sono sufficientemente “forti” da dimostrare tutte e solo le formule valide della teoria. Pertanto, un teorema di completezza assicura una corrispondenza tra la nozione di verità, che ha una natura infinitaria e statica, e la nozione di dimostrabilità, che ha invece una natura finitaria ma dinamica. La completezza semantica della logica proposizionale era stata dimostrata nel 1918 da Paul Bernays (1888-1977) e indipendentemente da Emil Post (1897-1954) nel 1921. Nel 1929, nella sua dissertazione dottorale, Kurt Gödel dimostra la completezza del calcolo dei predicati del primo ordine. Nel 1949 la dimostrazione di questo risultato è perfezionata e semplificata da Leon Henkin (1921-2006). La nuova dimostrazione, molto elegante, sfrutta il fatto che la coerenza sintattica è la controparte semantica della proprietà di un modello.
Dal teorema di completezza si ottiene come corollario il teorema di compattezza: se T è un insieme di enunciati della logica del primo ordine, e ogni sottoinsieme finito di T ha un modello, allora T ha un modello. Nel 1969 il logico Per Lindström (1936-2009) ottiene un notevole risultato che permette di assegnare alla logica del primo ordine un posto unico tra tutti i sistemi logici: nessun sistema logico più espressivo di quello del primo ordine può godere sia della completezza (o compattezza) che del teorema di Löwenheim-Skolem.
Nella dimostrazione del teorema di completezza per la logica del primo ordine, Gödel aveva trattato la nozione di verità in modo intuitivo, facendo a meno della definizione di validità. Negli anni Trenta, il logico polacco Alfred Tarski (1901-1983), a partire dal saggio Il concetto di verità nei linguaggi formalizzati – scritto nel 1933 e pubblicato nel 1935 –, completa la matematizzazione della logica fornendo una definizione di verità che pone la basi della semantica dei linguaggi formalizzati. Per Tarski ogni teoria adeguata della verità deve implicare tutte le istanze dello schema chiamato “convenzione V”:
[E] è vero se e soltanto se E,
dove [E] è un enunciato del linguaggio oggetto ed E la sua traduzione nel metalinguaggio, cioè in quel linguaggio che ha per oggetto il linguaggio in cui è espresso l’enunciato stesso (un’esemplificazione della convenzione V può essere: l’enunciato “la calcite è un minerale” è vero se e solo se la calcite è un minerale). La convenzione V è solo una precondizione della definizione di verità: si limita cioè a esprimere l’idea, già aristotelica, che un enunciato è vero semplicemente quando rispecchia uno stato di cose. La definizione tarskiana di verità gravita intorno alla relazione di soddisfacimento, a sua volta cruciale per definire il concetto di modello. Un’interpretazione è una funzione v che associa un valore di verità a ogni enunciato ben formato E di un sistema formale; un’interpretazione v è un modello per E, se v(E) = vero, ossia quando E è soddisfatto nell’interpretazione.
LETTURE
Bolzano, Brentano e la reazione a Kant
Tarski è così in grado di precisare la nozione di conseguenza logica che era stata identificata da Bernhard Bolzano (1781-1848) circa un secolo prima: un enunciato è valido se ogni interpretazione v è un suo modello; un enunciato E è una conseguenza logica di un insieme di enunciati I se e solo se ogni modello di I è anche un modello dell’enunciato E. In breve, la conseguenza logica preserva la verità (non può verificarsi che le premesse siano vere e la conclusione falsa).
Un’altra importante questione posta da Hilbert e Ackermann nei Lineamenti può essere formulata in questo modo: data un’arbitraria formula F della logica del primo ordine, esiste un algoritmo che permette di decidere se F è derivabile? È il cosiddetto “Entscheidungsproblem”, cioè il “problema della decisione”. “La sua risoluzione” – scrive il francese Jacques Herbrand (1908-1931) un paio di anni più tardi – “permetterebbe alla logica matematica di svolgere rispetto alla matematica classica lo stesso ruolo della geometria analitica rispetto alla geometria”. Nel 1915 Löwenheim aveva dimostrato la decidibilità del frammento della logica del primo ordine con soli predicati monadici, cioè con quei giudizi (predicati) che si riferiscono a un solo oggetto (argomento).
Ma nel 1936 il logico Alonzo Church (1903-1995) dimostra che è impossibile risolvere l’Entscheidungsproblem, un risultato limitativo che segue di qualche anno la dimostrazione dell’incompletezza sintattica di ogni sistema formale sufficientemente espressivo da ambire a rappresentare l’aritmetica, già affrontata da Gödel. In virtù del teorema di completezza, l’indecidibilità del problema della derivabilità può anche essere vista come l’indecidibilità del problema della validità. Nel 1937 Alan M. Turing (1912-1954) ottiene, indipendentemente, il medesimo risultato ma attraverso un differente metodo, più diretto e fecondo di quello di Church: l’indecidibilità dell’Entscheidungsproblem viene ridotta a un problema che non si può risolvere attraverso un modello astratto di macchina che in seguito fu chiamata “macchina di Turing” e che si rivelerà lo strumento più adeguato per caratterizzare la complessità temporale e spaziale degli algoritmi.
Nel senso più ampio la teoria della dimostrazione studia le proprietà dei sistemi deduttivi usando metodi formali. I primi sistemi che formalizzano il ragionamento deduttivo sono di tipo assiomatico: essi presentano un insieme di assiomi che esprimono le proprietà delle nozioni logiche e, a partire da questo insieme, ottengono teoremi applicando la regola del modus ponens, cioè quel processo, fondamentale nel nostro ragionare, che consente di concatenare fra loro delle proposizioni, traendone delle conclusioni. La prima formulazione del calcolo proposizionale come sistema formale si deve a Frege nella sua Ideografia (1879) e fu ripresa da Russell e Whitehead nei Principia; ulteriori sistemi assiomatici sono considerati da David Hilbert. Una svolta si ha nel 1935 con un lavoro del logico tedesco Gerhard Gentzen (1909-1945), Ricerche sulla deduzione logica, che costituisce una pietra miliare nella storia della logica novecentesca.
LETTURE
La logica dell'Ottocento
Consapevole che la formalizzazione della deduzione logica a opera dei suoi predecessori si discostava di molto “dalle forme di deduzione usate nella pratica delle dimostrazioni matematiche”, Gentzen sviluppa un calcolo della deduzione naturale per la logica classica (NK) e per la logica intuizionista (NJ) in modo da renderlo “il più vicino possibile all’effettivo ragionamento”. L’idea di Gentzen per il suo calcolo di deduzione naturale è quella di decomporre le regole d’inferenza per ogni costante logica c (connettivi e quantificatori) in passi atomici di due tipi, introduzione ed eliminazione.
Gentzen formula un teorema (il cosiddetto “Hauptsatz”) per cui ogni dimostrazione del calcolo può essere trasformata in una dimostrazione normale nella quale non ci sono parti superflue: una regola d’introduzione non è mai seguita da una di eliminazione per la stessa costante logica. Ma per Gentzen il calcolo della deduzione naturale non offriva il contesto sintattico più comodo per dimostrare l’Hauptsatz, che per il calcolo NJ e NK sarà dimostrato da Dag Prawitz solo nella prima metà degli anni Sessanta. Gentzen introduce un nuovo calcolo di deduzione, equivalente al primo, nella doppia versione classica (LK) e intuizionista (LJ), chiamato calcolo dei sequenti.
Nel calcolo dei sequenti per la logica classica e intuizionista esistono regole esprimibili senza un esplicito riferimento a connettivi. Gentzen chiama queste regole strutturali per indicare il fatto che esse riguardano la struttura di un sequente. Per Gentzen le regole strutturali sono quattro: la regola d’indebolimento, della contrazione, dello scambio e del taglio, ma successivamente nella letteratura si è inteso per regole strutturali solo le prime tre regole, considerando lo status specifico della regola del taglio nel calcolo dei sequenti. Le regole strutturali determinano il comportamento sintattico e lo stile di deduzione di una logica, nel senso che dato l’insieme RS = {indebolimento, contrazione, scambio} e considerando tutte le possibili combinazioni degli elementi, abbiamo 23 = 8 insiemi diversi e quindi 8 logiche diverse.
La regola d’introduzione per c stabilisce una condizione per inferire come conclusione una formula che contiene c come costante logica principale; simmetricamente, la regola di eliminazione per c stabilisce quale inferenza può essere tratta da una formula che contiene c come costante logica principale: ciascuna regola è tale che non si possono immaginare altre regole più basilari in termini di cui la regola sia derivabile.
Recentemente gli studi di Jean-Yves Girard (nato nel 1947) consentono una nuova concezione geometrica delle dimostrazioni logiche concepite come grafi, nei quali i vertici sono etichettati da formule. Una dimostrazione, in questo contesto, diventa concepibile come una struttura dinamica all’interno della quale circola l’informazione.
Con l’aggettivo “modale” (dal latino modus, “modalità”) si definisce quella branca della logica che studia il comportamento di espressioni come “deve”, “può”, “potrebbe” ecc., cioè quelle espressioni che esprimono i modi (grammaticali o di essere) delle asserzioni, cioè le modalità di enunciati che descrivono uno stato di cose; le modalità si distinguono in “aletiche”, cioè quelle che descrivono il modo (necessario, contingente o impossibile) di essere vero di un enunciato qualsiasi “P”; “epistemiche” (legate alla conoscenza); “deontiche” (che descrivono il dovere, o ciò che è concesso); “doxastiche” (che descrivono il comportamento di enunciati del tipo “Giovanni crede che…”). Vi sono poi le modalità temporali in cui la verità degli enunciati è legata al tempo in cui accade l’evento al quale l’enunciato si riferisce. A queste distinzioni va aggiunta quella tra asserzioni de dicto (cioè quelle nella forma “È necessario: Clarissa è saggia”, dove il vincolo di necessità lega l’operatore modale “è necessario” all’intero enunciato “Clarissa è saggia”) e asserzioni de re (“Clarissa è necessariamente saggia”), nelle quali l’operatore vincola necessariamente quella “cosa” alla proprietà che le viene attribuita, stabilendo quindi un legame più stretto tra l’operatore e la cosa stessa, diversamente da quanto accade con le asserzioni de dicto dove la necessità opera più banalmente al livello dell’intero enunciato.
A partire dagli studi pionieristici di C. I. Lewis (1932), che insieme a C.H Langford stabilì una serie di cinque assiomi per definire l’implicazione logica detta “stretta” (per cui in enunciati della forma “P implica strettamente Q”, non è possibile che P sia vero e Q sia falso), nella logica formale contemporanea gli studi sulle logiche modali hanno conosciuto e conoscono tutt’oggi una grande fortuna. In particolare si segnala l’opera del logico statunitense Saul Kripke, il quale negli anni Sessanta ha sviluppato una logica modale definita “a mondi possibili” (per cui “necessario” significa “vero in tutti i mondi possibili”) legata a una lunga e nobile tradizione, e stabilito le condizioni per determinare relazioni tra tali mondi.
Ma la logica modale ha origini che risalgono ad Aristotele (Analitici Primi e De Interpretatione). Il filosofo greco lega la modalità al tempo e al passaggio dalla potenza all’atto, cioè alla realizzabilità (o meno) del fatto necessitato in qualche momento del tempo, prossimo o remoto che sia. Egli definisce il “possibile” come ciò che avviene qualche volta, il “necessario”, che riveste un ruolo primario rispetto agli altri modi, come ciò che avviene sempre, “l’impossibile” ciò che non avviene mai. La teoria aristotelica rimane un riferimento per i dibattiti sulla logica modale almeno fino al XIV secolo. Sarà infatti Giovanni Duns Scoto a proporre per la prima volta un modello sincronico di modalità, per cui l’enunciato qualsiasi “P” può e non può essere vero nello stesso istante logico, svincolandolo cioè dalla dipendenza dalla realizzabilità temporale. Così facendo, egli apre la strada alle logiche modali moderne, quelle cioè basate sulla nozione di mondo possibile. La riflessione di Leibniz, nel XVIII secolo, rappresenta una tappa importante nel passaggio a una concezione della modalità (per quanto ciò non venga mai affermato esplicitamente nei suoi scritti) nella quale “necessario” significa “vero in tutti i mondi possibili”, e “impossibile” significa “falso in tutti i mondi possibili”, mentre il “possibile” indica ciò che è vero almeno in un mondo possibile, e “contingente” ciò che è vero in almeno un mondo possibile e falso in almeno un mondo possibile. In questo modo si svincola la realtà dal fatalismo logico, cioè dal fatto che un evento sia logicamente determinato da enunciati del tipo “è necessario che (domani vi sarà una battaglia navale)”.
LETTURE
Filosofia della mente
LETTURE
Dove sta Cappuccetto Rosso?Ontologia dei personaggi narrativi
Per venire al linguaggio formalizzato della logica contemporanea, oggi la possibilità è indicata dal simbolo ‘◊’ e la necessità dal simbolo ‘’. Se da un punto di vista sintattico tali espressioni, anteposte a un enunciato espresso nella forma della logica proposizionale, funzionano come il segno di negazione (“non”) che nega l’enunciato seguente, come ad esempio in “non è vero che (domani io taglierò il prato di casa)”, da un punto di vista semantico esse invece hanno un funzionamento e condizioni di validità particolari. Infatti non è sempre possibile stabilire il valore di verità di enunciati quali ‘◊P’ e ‘P’ (dove ad esempio P sta per “domani pioverà”) a partire dalla verità di ‘P’. Ad esempio, i due enunciati ‘P’ (“è necessario che questo prato sia bagnato”) e ‘~P’ (“è necessario che questo prato non sia bagnato”) sono falsi entrambi, perché ‘P’ (cioè il fatto che il prato sia o meno bagnato) è contingente, cioè può mutare rispetto a come è, e non ha quindi carattere di necessità; così che anteporre il simbolo ‘’ (è necessario che) può produrre enunciati falsi sia che venga anteposto a un enunciato vero che a uno falso. Per questo, il valore di verità di un enunciato modale è funzione dei valori di verità dei suoi elementi nel contesto di diversi mondi possibili: ad esempio, un enunciato ‘P’ è da considerare vero nel senso che è tale se e solo se ‘P’ è vero in tutti i mondi possibili.
Circa le altre modalità, nelle logiche “deontiche” (in merito alle quali si segnalano soprattutto le ricerche di Risto Hilpinen) l’operatore di necessità va preso nel senso di “è obbligatorio che”, mentre quello di possibilità è da intendere come “è moralmente concesso che”. In alcune logiche “epistemiche” e doxastiche (oggetto di indagine soprattutto del filosofo e logico finlandese Jaakko Hintikka e del norvegese Dagfinn Føllesdal), invece, gli operatori ‘◊’ e ‘’ sono associati a contesti retti da verbi come “sapere che” o “credere che”. In questo caso, problemi sono dati, da un lato, dal fatto che le nostre credenze sono spesso indefinite e quindi non relative a individui particolari, così che risulta impossibile fissarne il valore di verità e procedere a una generalizzazione che lo quantifichi: io posso sapere che c’è un cane che ha il mantello rosso e sapere al contempo che c’è un cane che si chiama Luis, senza sapere che Luis e il cane dal mantello rosso sono lo stesso cane. Dall’altro possono darsi credenze che, per quanto definite, sono spesso relative a individui non esistenti (si può credere, pensare e persino amare unicorni, ad esempio): il che pone ugualmente problemi, dato che si tratta di quantificare, al pari degli oggetti reali, enunciati che parlano di oggetti fittizi o di personaggi letterari come Madame Bovary o Paperoga. In che mondo stanno questi personaggi? Le logiche epistemiche, deontiche, doxastiche rispondono tutte all’esigenza di formalizzare atteggiamenti, azioni e credenze propri del pensiero e degli stati mentali in situazioni cognitive che possono essere mutevoli, indefinite o incerte. Proprio per questo esse sono difficili, se non impossibili secondo alcuni filosofi come Quine, da generalizzare in modo standard, e richiedono di considerare il variare dei contesti nei quali quegli enunciati modali vengono espressi.