10. La filosofia dei matematici

di Mario Piazza

10.1 Lo sviluppo della matematica tra specializzazione, unificazione e applicabilità

Nelle sue linee essenziali, lo sviluppo della matematica del Novecento è contraddistinto da tre aspetti. Due, complementari se non speculari, appartengono alla sua “politica interna”: la specializzazione e l’unificazione; il terzo riguarda la sua “politica estera”: l’applicabilità.

Da un lato, come diretta conseguenza del grado di sofisticazione e della profondità di penetrazione dei suoi metodi, tecniche e strumenti, l’universo culturale della matematica si evolve suddividendosi in una sterminata varietà di sottodiscipline, che ritagliano un pubblico di esperti sempre più ristretto. Naturalmente, molte delle nuove discipline si aggregano attorno a concetti già attivi nella matematica dell’Ottocento.

Dall’altro lato, la matematica del Novecento è attraversata dalla tendenza a riannodare i fili, collegando o connettendo fra loro aree disciplinari che sembrano lontane o eterogenee. Questo carattere unitario della matematica è bene sottolineato dalla figura emblematica del secolo, David Hilbert (1862-1943), secondo il quale “la matematica è un tutto indivisibile, un organismo la cui vitalità è condizionata da un’armoniosa interconnessione delle sue parti”. Queste parole sono una sorta di formula battesimale perché pronunciate da Hilbert l’8 agosto del 1900 al secondo congresso internazionale dei matematici di Parigi, nella sua conferenza intitolata Sui futuri problemi dei matematici (Sur les problèmes futurs des mathématiques), passata alla storia per l’elenco di 23 problemi aperti da affrontare per il nuovo secolo.

Quanto all’aspetto dell’applicabilità, che non va disgiunto dal potere esplicativo, il Novecento ha mostrato non solo che nessun ambito extramatematico è al riparo dall’influenza della matematica, indispensabile per la comprensione di fenomeni fisici, biologici, linguistici, economici, sociali, tecnologici; ma anche che nessun campo della matematica è immune dall’essere potenzialmente applicabile.

Matematica pura: la teoria assiomatica degli insiemi

Agli inizi del Novecento la scoperta dei paradossi logici nella teoria degli insiemi, dovuta in primis a Russell, è avvertita come una vera e propria crisi. Responsabile dei paradossi è il principio di comprensione, che fa identificare un insieme come l’estensione di una proprietà. Per superare queste difficoltà, fortemente influenzato dall’assiomatizzazione hilbertiana della geometria euclidea, nel 1908 Ernst Zermelo costruisce una teoria assiomatica degli insiemi, rielaborata nel 1922 da Abraham A. Fraenkel. Oggi la teoria degli insiemi di Zermelo-Frankel (ZF) costituisce una sorta di idioma universale per la matematica, in grado di produrre una descrizione uniforme e compatta di una ricca varietà di strutture.

ZF si basa, quindi, su una serie di assiomi. L’assioma più controverso è l’assioma di scelta (AC). L’assioma recita: sia A un insieme qualsiasi di insiemi non vuoti a due a due disgiunti, esiste un insieme C che contiene esattamente un elemento per ogni insieme B di A. La coerenza di AC (ovvero il fatto che dalla teoria così sistematizzata non derivi nessuna contraddizione) è stata dimostrata da Kurt Gödel nel 1938 e nel 1963 Paul J. Cohen ne ha mostrato l’indipendenza dall’assioma di scelta (la cui decidibilità, quindi, non condiziona la teoria ZF) ottenendo, come afferma Gödel, “il più importante risultato in teoria degli insiemi dopo la sua assiomatizzazione”.

La teoria delle categorie

La teoria della categorie può essere identificata come un nuovo, più versatile punto di vista dal quale la matematica può essere osservata, radicalmente differente da quello della teoria degli insiemi. La teoria delle categorie considera infatti un oggetto matematico come una sorta di “scatola nera” la cui struttura è completamente determinata dalle funzioni che esistono tra di esso e altri oggetti. Formalmente, una categoria C consiste in una collezione di oggetti A, B C,… e una collezione di frecce (morfismi) tra di essi f : A→B; intuitivamente, gli oggetti possono essere considerati insiemi dotati di qualche struttura e le frecce come funzioni che la preservano.

La nascita della teoria delle categorie si può far risalire all’articolo Teoria generale delle equivalenze naturali, pubblicato nel 1945 da Samuel Eilenberg e da Saunders MacLane. La nozione generale di aggiunzione è introdotta da Daniel Kan nel 1958 (anche se il concetto era già familiare all’interno di svariate teorie matematiche precedenti). L’isolamento e la spiegazione di questo concetto è forse il contributo più profondo apportato dalla teoria delle categorie alla matematica.

10.2 Altri sviluppi

Nel 1902 compare sugli “Annali di Matematica” la dissertazione dottorale del matematico francese Henri Lebesgue, Integrale, lunghezza, superficie (Intégrale, longeur, aire) , che segna una svolta determinante nella teoria dell’integrazione e, in generale, nell’analisi moderna, estendendo il concetto d’integrale.

Nel 1914, i Lineamenti della teoria degli insiemi (Grundzüge der Mengenlehre) di Felix Hausdorff costituiscono l’atto di nascita della moderna topologia generale come disciplina dotata di una fisionomia e di una funzione sue proprie. Hausdorff sceglie di partire dalla nozione di “intorno di un punto”, fissata da quattro assiomi, per poi definire la nozione di “spazio topologico” e la nozione di “continuità di funzioni a valore reale”.

I concetti topologici si intrecciano intimamente con l’analisi funzionale, uno dei settori più tipici della matematica del Novecento: tra i compiti principali dell’analisi funzionale – termine introdotto da Paul Lévy nel 1922 – c’è l’organizzazione di classi di funzioni in spazi topologici. Nell’ambito della teoria delle equazioni integrali a cui Hilbert si dedica tra il 1904 e il 1910 nascono gli spazi di Hilbert. Negli anni Venti, Banach introduce la nozione di norma (funzione distanza) e definisce una nuova classe di spazi che coniuga la nozione di spazio metrico e quella di spazio vettoriale.

Nella sua memoria del 1895 Analysis situs, Jules-Henri Poincaré mette a disposizione della topologia algebrica del nuovo secolo la definizione di varietà di n-dimensioni, la nozione di omeomorfismo, e quella di omologia, attraverso la quale è possibile ottenere informazioni in merito a uno spazio topologico. Tra il 1910 e 1913 l’olandese Luitzen Egbertus Jan Brouwer inaugura lo studio di proprietà topologiche di funzioni continue e introduce la teoria del grado topologico, che consente di dimostrare teoremi non banali sugli spazi di dimensione finita.

Geometria algebrica

Tra la fine dell’Ottocento e gli anni Dieci del nuovo secolo, la grande scuola italiana – guidata da Guido Castelnuovo, Federico Enriques e Francesco Severi – porta a compimento la classificazione delle superfici algebriche e offre una descrizione completa di svariate famiglie di curve: caratteristica e limite di questa scuola è una sorta di autarchia geometrica a detrimento di metodi meno intuitivi ma più rigorosi come quelli analitici o algebrici. Un approccio diverso è elaborato negli anni Venti da Emmy Noether che delinea una sorta di manuale di traduzione per passare da nozioni algebriche a nozioni geometriche.

Algebra astratta

In senso stretto, l’approccio assiomatico all’algebra non è un’invenzione del Novecento perché è già presente in un lavoro di teoria dei gruppi di Arthur Cayley del 1854. Anche Giuseppe Peano nel 1888 aveva presentato una definizione assiomatica di spazio lineare astratto. Tuttavia l’assiomatizzazione dell’algebra all’inizio del secolo riceve un nuovo impulso dalla scoperta nel 1902 della ridondanza negli assiomi della geometria di Hilbert da parte di Eliamkim H. Moore. Nel 1903 Leonard E. Dickson sviluppa nuovi assiomi per un campo e nei primi del Novecento Jószef Kürschák inaugura la teoria delle valutazioni.

La nascita dell’algebra moderna è però convenzionalmente identificata nelle 142 pagine della memoria di Ernst Steinitz, Teoria algebrica dei campi del 1910.

10.3 L’ultimo teorema di Fermat

Alcuni problemi che Hilbert presenta nella conferenza di Parigi di cui si è detto riguardano la teoria dei numeri e la dimostrazione della correttezza di più o meno celebri congetture, come quella di Euler, quella di Fermat, quella di Riemann e quelle di Weil. A partire dagli anni Venti, vari matematici lavorano a soluzioni complete o parziali dei problemi costituiti da tali congetture.

Pierre de Fermat intorno al 1638, in margine all’edizione di Bachet dell’Arithmetica di Diofanto, scrive di avere dimostrato l’insolubilità di una cruciale equazione: xn+ yn= zn per x, y, z interi positivi e n > 2, ma di non avere spazio per inserire la dimostrazione.

Per circa 350 anni i matematici hanno accettato l’affermazione di Fermat, senza tuttavia riuscire a trovare la dimostrazione che il grande matematico francese diceva di aver elaborato. Nella conferenza di Parigi, Hilbert cita questa congettura come esempio di problema fecondo, avendo ispirato e favorito l’emergere di nuove teorie algebriche.

Un passo decisivo verso la dimostrazione della congettura di Fermat è stato compiuto nel 1986 quando Kenneth Ribet ha dimostrato che la congettura è a sua volta una conseguenza della congettura di Taniyama-Shimura (T-S). Nel 1994 Andrew Wiles fornisce la prova che una versione debole della congettura di T-S è sufficiente a dimostrare l’ultimo teorema di Fermat. La dimostrazione di Wiles può essere considerata come un’implementazione del gigantesco programma tracciato da Robert Langlands, orientato all’unificazione di teoria dei numeri, geometria algebrica e analisi complessa.

Matematica applicata: la teoria della probabilità

Il sesto problema di Hilbert concerneva la possibilità di una trattazione assiomatica della teoria della probabilità (nonché della meccanica), le cui origini si possono fare risalire alla prima metà del Seicento. Nel 1933 appaiano i Concetti fondamentali delle probabilità del russo Andrej Nikoloaevic Kolmogorov, monografia nella quale confluiscono la tendenza all’assiomatizzazione propria della matematica del Novecento (“la teoria della probabilità – scrive l’autore – può e deve essere derivata a partire da assiomi, esattamente come la geometria o l’algebra”), e i contributi della teoria della misura e dell’integrazione sviluppati nella prima parte del secolo. Sempre negli anni Trenta, Bruno de Finetti sviluppa un diverso approccio matematico alla probabilità, identificata come grado di affidabilità, che ne enfatizza la dimensione soggettiva.

La teoria dei giochi

La teoria dei giochi studia situazioni di competizione e di cooperazione da una prospettiva matematica. Il primo teorema, apparentemente banale, è dimostrato da Zermelo nel 1912, applicando la teoria degli insiemi al gioco degli scacchi: date n scacchiere e n coppie di giocatori, se ogni giocatore è perfetto (ossia fa sempre le mosse migliori data la configurazione della scacchiera), allora tutti gli n risultati delle partite saranno uguali (ci sarà quindi una medesima configurazione finale della scacchiera). Nel 1928 von Neumann dimostra il “teorema del minimax”, fondamentale per la teoria dei giochi, che stabilisce che in certi giochi in cui la vincita di un giocatore è uguale e contraria alla perdita dell’altro giocatore e a informazione perfetta, ovvero nel caso in cui ogni giocatore conosca esattamente le strategie dell’altro giocatore, esiste una strategia che permette a entrambi i giocatori di minimizzare le loro massime perdite.

Nel 1944 vede la luce il trattato fondatore della teoria dei giochi, che lega la nascente teoria all’economia matematica: Teoria dei giochi e comportamento economico di von Neumann e Oskar Morgestern. Nel 1951 John F. Nash dimostra il teorema relativo all’equilibrio non cooperativo di un gioco a somma variabile che si può considerare come una generalizzazione del minimax.

Dimostrazione assistite: che cos’è una prova?

Nel 1976, Kenneth Appel e Wolfang Haken annunciano la dimostrazione con l’uso di un computer della celebre congettura dei quattro colori (pubblicata l’anno dopo): una mappa qualsiasi può essere colorata con al massimo quattro colori in modo tale che paesi adiacenti siano colorati differentemente. Questo problema di matematica combinatoria era stato sottoposto nel 1852 da uno studente di matematica ad Augustus De Morgan, che l’aveva a sua volta smistato alla comunità matematica: nel 1878 Cayley aveva proposto il problema alla London Mathematical Society e un anno dopo Arthur B. Kempe aveva presentato una dimostrazione ingegnosa ma incompleta della congettura. Nel 1913 George Birkhoff aveva rielaborato l’argomento di Kempe e dimostrato la congettura per tutte le mappe che comportano meno di 26 regioni da colorare. Si può dire che buona parte della teoria dei grafi si sviluppi avendo questa congettura in mente. Di scarsa importanza per i cartografi, questo teorema si è rivelato importante per la riflessione sulla natura della dimostrazione matematica. Secondo alcuni autori accettare la dimostrazione del teorema dei quattro colori comporta modificare o allargare il nostro senso di dimostrazione.