Keith Haring, Red, dettaglio, 1982-84, New York, Gladstone Gallery
La riflessione sui segni risale a tempi antichissimi, sotto forma sia di sapere tecnico legato alle pratiche divinatorie, astronomiche e mediche (si parla della struttura logica dei segni già nel Corpus Hippocraticum), sia di articolate dottrine del segno quali si trovano, ad esempio, in Aristotele, negli stoici, in Galeno, in Agostino e poi in Locke. Ma è a cavallo tra Ottocento e Novecento che prende forma il progetto di fondare una disciplina specificamente dedicata allo studio dei segni e della semiosi (il processo in base a cui qualcosa funziona come segno). I pionieri della semiotica novecentesca sono Charles Sanders Peirce (1839-1914) e Ferdinand de Saussure (1857-1913) i quali, indipendentemente l’uno dall’altro, concepiscono “una scienza che studia la vita dei segni nel quadro della vita sociale” (Saussure), ovvero una “disciplina della natura essenziale e delle varietà fondamentali di ogni possibile semiosi” (Peirce).
Gli obiettivi che Saussure e Peirce attribuiscono a questa nuova disciplina sono diversi. Saussure è uno studioso di lingue indoeuropee che, insoddisfatto dei metodi della linguistica comparata ottocentesca, auspica la fondazione di un campo di studi unificato che consideri la lingua alla stregua di qualsiasi altro sistema di segni, come il linguaggio gestuale dei sordomuti e il codice dei segnali militari. Semplicemente – afferma Saussure – la lingua è il più importante di tali sistemi.
Nel Corso di linguistica generale (1913), Saussure introduce alcune dicotomie concettuali destinate a dominare il panorama degli studi linguistici del Novecento. La prima dicotomia è quella che contrappone la langue (l’aspetto sociale e astratto del linguaggio) alla parole (gli usi individuali e concreti che i singoli parlanti fanno della lingua). La lingua è per Saussure un patrimonio collettivo culturalmente acquisito, “un sistema grammaticale esistente virtualmente in ciascun cervello o, più esattamente, nel cervello d’un insieme di individui”, la cui conoscenza rende possibile l’esecuzione dei singoli atti di parole. I singoli parlanti attingono alle possibilità astrattamente offerte dalla lingua per produrre sintagmi indefinitamente variabili e idiosincratici (ovvero specifici del singolo parlante). Compito della linguistica è, secondo Saussure, di rinvenire il sistema astratto della lingua a partire dall’analisi degli atti concreti di discorso.
La lingua è un sistema di segni, dove per “segno” Saussure intende “un’entità psichica a due facce”, significante (la traccia cognitiva di una componente sensibile, o unità espressiva) e significato (la traccia cognitiva di un concetto, o unità di contenuto).
Solo se si considera la lingua alla stregua di un sistema di segni – osserva Saussure – si può cogliere ciò che essa ha di essenziale, e cioè il fatto di essere un’istituzione sociale fondata su un sistema di equivalenze culturalmente poste. In polemica con la nozione ingenua della lingua come pura nomenclatura di oggetti preesistenti, Saussure ritiene che i significati non esistano indipendentemente dai significanti che li veicolano: le due facce del segno emergono contemporaneamente e si presuppongono a vicenda, così come il recto non esiste senza il verso di un foglio. Ciascuna lingua ritaglia arbitrariamente le proprie unità dalla “massa amorfa” dei suoni producibili dall’apparato fonatorio umano (sul versante dei significanti) e dal continuum indistinto dei pensieri (per quanto riguarda i significati). Anche il rapporto che unisce significante e significato è, secondo Saussure, arbitrario: non c’è nessun motivo particolare (a parte le contingenze storiche) per cui il significato di albero debba essere associato al significante “albero” e non ad esempio a tree, arbre, baum, ovvero a una qualunque altra catena di artifici espressivi convenzionalmente associata al contenuto corrispondente, come peraltro dimostra l’esistenza stessa delle diverse lingue. Dunque non ci sarebbe alcun legame naturale tra le parole e le cose che esse designano, ma solo una rete di equivalenze tra significanti e significati arbitrariamente poste dalla lingua stessa. Ne consegue che per Saussure la lingua, così come qualsiasi altro sistema di segni, può essere studiata dall’interno, come una struttura chiusa di parti interagenti, ciascuna delle quali deve il proprio valore al reticolo di relazioni differenziali e oppositive che essa intrattiene con tutti gli altri elementi del sistema: è questo il principio di immanenza su cui si fonda la “linguistica strutturale”, il cui sviluppo più rigoroso e radicale è costituito dalla formalizzazione della “glossematica” da parte di Hjelmslev. Più tardi Louis Hjelmslev (1899-1965) avrebbe parlato di espressione e contenuto.
Per Peirce, invece, la semiotica è innanzitutto una teoria della conoscenza che spiega come funziona l’attività cognitiva degli esseri umani: di conseguenza, egli intende il segno come il prodotto – necessariamente provvisorio e fallibile – di un processo logico che, partendo dalla registrazione di un “fatto sorprendente” (un evento percepibile che contravviene alle attese dell’interprete), stimola l’attività inferenziale dell’interprete stesso, per approdare alla scelta di un’ipotesi, ovvero al fissarsi di una regola interpretativa che si risolve in una tendenza programmatica all’azione. Peirce definisce il segno come “qualcosa che sta a qualcuno per qualcosa sotto qualche rispetto o capacità”: così, un’impronta sta al cacciatore per il passaggio dell’animale-impressore sotto il rispetto dello scopo che egli si prefigge – nella fattispecie, catturare la preda. Tra il segno inteso come pura espressione (l’impronta) e l’oggetto che tale segno designa (l’animale-impressore) si frappone un secondo segno, che Peirce chiama “interpretante”, il quale è l’effetto prodotto dal primo segno sulla “quasi-mente” dell’interprete (ad esempio, il pensiero “di qua è passato uno gnu”).
Secondo Peirce, pensare è concatenare segni: tutta la nostra vita intellettuale – a cominciare dalle azioni mentali più elementari, come la percezione, fino alla formulazione di ipotesi scientifiche altamente complesse – è cadenzata da un flusso di pensieri-segni, ciascuno dei quali suggerisce qualcosa al pensiero successivo, in un processo potenzialmente infinito che egli chiama “fuga degli interpretanti”. Dunque il significato di un segno coincide per Peirce con la somma indefinitamente dilatabile degli effetti (o interpretanti) che tale segno produce o è virtualmente in grado di produrre su qualcuno.
È all’opera di John L. Austin Come fare cose con le parole (il ciclo di conferenze che danno il titolo al testo è del 1955) che si fa risalire la formulazione compiuta della teoria degli atti linguistici. Secondo Austin, formatosi nel contesto della scuola etica di George Edward Moore, gli enunciati del linguaggio vanno intesi, più che come forme di descrizione o di denotazione, quali “atti linguistici”: ogni dire è una prassi, in linea con alcune posizioni di Wittgenstein (sull’identificazione tra il significato e gli usi della parola) e di Frege (in relazione all’enfasi sul concetto di forza assertoria delle espressioni linguistiche). La posizione di Austin parte da una critica all’attenzione esclusiva da parte dei filosofi, nello studio del linguaggio, per gli enunciati assertivi cioè che affermano qualcosa (come “il gatto è sulla tavola”, ad esempio). Non così per Austin. Il linguaggio in realtà è una prassi, che è possibile indagare in tutte le sue sfumature nell’ambito del suo uso ordinario e quotidiano. Egli classifica gli enunciati in constativi (che registrano un fatto, ad esempio “x perdona y”) e performativi, cioè quelli che non si limitano a descrivere una situazione ma piuttosto “fanno essere” un fatto (ad esempio, “ti perdono per avermi offeso”). Tali enunciati non possono essere giudicati a priori né secondo il binomio vero/falso – perché anche verità e falsità sono sempre valutazioni pragmatiche, relative a una serie di circostanze e di finalità poste – né secondo la distinzione tra valore e fatto, in quanto è possibile elencare, come fa puntualmente Austin, tutta una serie di enunciati che smentiscono tale distinzione: quelli verdettivi (come “sancire” o “sentenziare”), quelli commissivi (“promettere” o “minacciare”), espositivi (“affermo”, “rispondo”, “rendo noto”), esercitivi (“condannare”, “abolire”, “nominare”), comportativi (“ringraziare”, “maledire”, “deplorare”). Più correttamente, gli atti linguistici andranno classificati in base al loro essere “felici” o “infelici” nel conseguimento del fine posto, valutazione che va operata non relativamente al singolo enunciato ma nel contesto complessivo, per cui Austin parla di “atto linguistico totale”.
Sullo sfondo della teoria per cui asserire qualcosa costituisce sempre e comunque l’esecuzione di un atto, Austin procede poi a una distinzione tra le diverse forme di atti linguistici, distinti in base al loro uso tra quelli propriamente locutori (l’atto di dire qualcosa), quelli illocutori (cioè quelli che, nel dire qualcosa, costituiscono in sé stessi un atto) e quelli perlocutori (che producono effetti in chi li ascolta).
Al tema della classificazione degli atti linguistici ha fornito un contributo decisivo anche John Searle, benché da una prospettiva che si muove sul piano analitico della formalizzazione del linguaggio, distante quindi dal progetto austiniano di un’analisi condotta a partire dalle strutture degli enunciati del parlare quotidiano. In Per una tassonomia degli atti illocutori, il filosofo americano costruisce un’elaborata tassonomia che classifica in categorie base gli atti illocutori, sulla base della distinzione e dei rapporti tra la “forza illocutoria” e il contenuto proposizionale di un enunciato. Infatti, contenuti diversi possono avere la stessa forza illocutoria (ad esempio “Spegni il telefono”, “Chiama un taxi”), mentre forze illocutorie diverse possono avere identico contenuto proposizionale (“Mandami un messaggio stasera”, “Ti chiedo di mandarmi un messaggio stasera”). Searle distingue tra i seguenti tipi di atti linguistici: rappresentativi (che corrispondono a quelli espositivi e verdittivi di Austin), direttivi (esercitivi), commissivi, espressivi (comportativi) e dichiarativi (cioè quegli enunciati che fanno sì che un evento accada nel dichiararlo, come “licenziare” o “dichiarare guerra”).
La riflessione contemporanea sui segni linguistici e sulla pragmatica della comunicazione è al centro anche della filosofia del linguaggio di Paul Grice (1913-1988), che può essere considerato, insieme a Wittgenstein, Austin e Searle, un vero e proprio padre fondatore di questa disciplina. A partire dalla domanda fondamentale sulla natura dei segni (cosa consente a un segno di significare qualcosa?) Grice indica nella comunicazione intenzionale fra due esseri umani il contesto di riferimento per rispondere. La cosiddetta intention-based semantics si concentra infatti sui modi con cui i parlanti possono comunicare indirettamente o implicitamente, attraverso sottintesi, allusioni ecc., per suggerire contenuti diversi e paralleli rispetto a ciò che viene enunciato letteralmente (secondo la teoria definita della “implicatura conversazionale”).
L’influenza della pragmatica di Grice si estende oggi in tutti quegli ambiti di ricerca, dalla semiotica all’analisi del discorso alla sociolinguistica, che indagano gli atti linguistici a partire dalla intersoggettività e dal rapporto tra i parlanti. In particolare, a partire dalle riflessioni di Grice sulla performatività degli enunciati l’antropologo e linguista francese Dan Sperber e la linguista britannica Deirdre Wilson hanno formulato, nel loro Relevance: Communication and cognition (1986), una teoria della “pertinenza” (relevance), intesa come principio pragmatico che regola le comunicazioni tra parlanti.
Dalle due diverse definizioni di segno discendono due distinti approcci semiotici: il primo, saussuriano-strutturalista, persegue l’obiettivo di smontare l’ingranaggio della lingua (o di qualsiasi altro sistema di significazione), analizzandone le relazioni interne; il secondo, peirceano-pragmatista, è interessato a indagare i meccanismi dell’interpretazione nelle varie sfere dell’attività cognitiva.
Nei concreti processi comunicativi i due aspetti non sono incompatibili ma, al contrario, si presuppongono a vicenda. L’interpretazione (a parte rare eccezioni di interpretazione radicale) richiede il ricorso a una qualche lingua o codice, ovvero alla memoria strutturalmente organizzata di una serie di esperienze comunicative precedenti; d’altra parte la lingua è il prodotto, in continua trasformazione, della cristallizzazione sociale di un numero altissimo di episodi comunicativi e interpretativi. A questo proposito Charles Morris (1901-1979) in Lineamenti di una teoria dei segni (1938) ha suddiviso il campo della semiotica in sintattica (lo studio del modo in cui i segni si concatenano tra loro), semantica (che riguarda il rapporto dei segni con i loro oggetti o significati) e pragmatica (che si occupa del rapporto tra i segni e i loro interpreti), specificando che negli effettivi processi semiosici i tre aspetti sono inestricabilmente intrecciati, ma ciò non esclude che ciascuno dei tre possa essere artificialmente isolato dagli altri ai fini della ricerca semiotica.
Per vie dirette o indirette le dottrine di Peirce e di Saussure fecondano il panorama intellettuale novecentesco e, nel corso del secolo, una mentalità semiotica si diffonde in diversi campi di studio, tra cui l’antropologia, la critica letteraria, la filosofia del linguaggio e la psicologia. Tuttavia, come disciplina istituzionalizzata, la semiotica vede la luce solo verso la metà degli anni Sessanta, quando – sotto la guida di Roman Jakobson (1892-1982), Claude Lévi-Strauss (1908-2009), Émile Benveniste (1902-1976) e Roland Barthes (1915-1980) – un gruppo di studiosi di varia provenienza accademica mette a fuoco l’obiettivo di analizzare una vasta gamma di artefatti comunicativi in prospettiva unitaria, riadattando a tale scopo gli strumenti concettuali della linguistica. L’ipotesi di lavoro è che, se tutto il sapere umano passa attraverso il linguaggio, allora quest’ultimo può servire come chiave di volta per dischiudere i segreti del senso nelle sue molteplici manifestazioni.
Inizialmente prevale la linea saussuriana (filtrata attraverso la lettura radicale che ne dà Hjelmslev), e quindi la definizione diadica di segno e l’idea della lingua come struttura chiusa fatta di parti interagenti. La semiotica strutturale degli anni Sessanta rivisita le categorie della linguistica saussuriana e hjelmsleviana (langue/parole, significato/significante, sistema/processo, denotazione/connotazione per sondarne l’applicabilità ad altri sistemi semiotici, quali i sistemi di parentela (è Lévi-Strauss a introdurre i principi della linguistica strutturale in campo antropologico), il sistema della moda (Roland Barthes), i linguaggi del cinema (Christian Metz), i codici dell’architettura, e via dicendo. Su questa stessa linea sono gli studi di Luis Prieto (1926-1996) e di Tullio De Mauro (1932).
Hermann Knottnerus-Meyer, Il cantastorie marocchino, 1926
GALLERY
Immagini di immagini
Hermann Knottnerus-Meyer, Il cantastorie marocchino, 1926
Uno degli sbocchi più fecondi di questo filone di studi semiotici è dato dalla “narratologia” – termine introdotto da Tzvetan Todorov (1939) nel 1968 – che, sulla scia del formalismo russo e, più in particolare, della Morfologia della fiaba (1928) di Vladimir Propp (1895-1970), mira a ricostruire le strutture universali della narratività a partire dall’analisi di testi specifici, dai fumetti ai romanzi polizieschi, dai miti ai racconti letterari, dalle pubblicità ai resoconti giornalistici. Il testo forse più significativo di questo filone di ricerche è il numero otto della rivista francese “Communications” del 1966 che ospita interventi di Barthes, Eco, Todorov, Greimas, Genette, e Brémond. L’intuizione di fondo è che, al di sotto dell’apparente varietà degli intrecci, dei personaggi e dei discorsi narrativi, vi sia un’impalcatura comune che permette di fissare certi elementi invariabili del racconto, la presenza dei quali definisce la natura narrativa di un testo.
VIDEO
Abissi visuali, da The Big Swallow
L’indirizzo narratologico della semiotica strutturale viene approfondito in particolare da Algirdas Greimas (1917-1992) il quale, partendo dall’ipotesi che l’intera esperienza umana si organizzi secondo la logica del racconto, va alla ricerca delle strutture narrative profonde anche in testi che apparentemente narrativi non sono, come gli articoli scientifici, le ricette di cucina, gli oggetti, le “stringhe passionali”, e qualunque altro artefatto comunicativo che sia dotato di senso per qualcuno (e che pertanto sia analizzabile semioticamente). Greimas – soprattutto con le opere Del senso I (1970), Maupassant. La semiotica del testo (1976) e Del senso II (1983) – definisce il testo come una stratificazione di livelli di senso, dai più superficiali (la manifestazione espressiva) ai più profondi (le articolazioni semantiche di base su cui si sorregge il testo), passando attraverso i livelli intermedi della narratività e della discorsività (quest’ultima riguarda i modi in cui le strutture narrative vengono assemblate ed enunciate nel testo). Obiettivo dell’analisi semiotica sarà perciò dissotterrare i vari livelli di articolazione di un’ampia varietà di testi, smontandone gli ingranaggi interni per giungere a una rappresentazione il più possibile astratta di un unico “percorso generativo del senso”.
Verso l’inizio degli anni Settanta, lo slancio con cui nel decennio precedente le scienze umane si erano avventurate nell’impresa semiotica cede gradualmente il passo a una maggiore prudenza metodologica. Alcune delle pretese più innovative e provocatorie dello strutturalismo vengono ridimensionate, tra cui l’idea che ogni fenomeno significativo possa essere ricondotto a un modello integralmente ricalcato su quello linguistico. I vecchi strumenti dell’analisi semiotica vengono progressivamente affiancati da concetti che appaiono più fecondi alla luce delle obiezioni che vengono man mano avanzate. La stessa nozione (saussuriana) di segno come equivalenza viene sottoposta a una profonda revisione critica e tende a cadere in disuso, o comunque a essere utilizzata con maggiore cautela, per essere soppiantata dai concetti di semiosi e di testo. In questo contesto, il progetto di unificare tutti gli studi di matrice semiotica sotto una stessa metodologia appare meno attuabile, e gli interessi dei vari semiologi si diversificano.
L’indirizzo interpretativo degli studi semiotici comincia ad affermarsi, interessandosi proprio a quegli aspetti pragmatici della comunicazione che, in ossequio al principio di immanenza, lo strutturalismo considerava semioticamente trascurabili. Una prima sollecitazione in questo senso proviene dalla linguistica del testo, la quale – a partire dagli studi pionieristici di Jakobson nel 1957 sui cosiddetti shifters (commutatori, ovvero elementi del linguaggio che manifestano la presenza del soggetto della parole come i pronomi lui, lei, questo, quello…) e di Benveniste nel 1966 sul funzionamento dei pronomi personali e dei tempi verbali nella lingua francese – elegge a proprio oggetto di studi non più la lingua in quanto sistema grammaticale avulso da ogni contesto, bensì il discorso (o testo) in quanto fenomeno comunicativo calato nelle sue effettive circostanze d’uso. Secondo Benveniste, è attraverso l’enunciazione che la lingua assume una forma specifica e si attualizza, prendendo vita. Inoltre, è grazie alla capacità della lingua di convertirsi in discorso che l’essere umano – dicendo “io”, e rivolgendosi necessariamente a un “tu” – si costituisce come soggetto, provvisto di una propria identità individuale, sociale e culturale. La lingua consente a qualunque individuo linguisticamente competente di appropriarsi dei suoi codici e di trasformarli in atti comunicativi concreti (richieste, ordini, affermazioni ecc.): è di questi atti comunicativi (o discorsi) che secondo Benveniste la semiotica si deve occupare, rinvenendo nel discorso stesso le tracce dei ruoli comunicativi che esso allestisce per i propri utenti previsti. In questo contesto si può inserire anche l’opera dei rappresentanti della scuola gramsciana, di Roland Barthes, Maria Corti (1915-2002) e Cesare Segre (1928-2014).
Rivolgere l’attenzione al testo, prima che ai codici a esso sottesi, significa anche allargare lo sguardo semiotico a ciò che sta intorno al testo stesso: nessun testo viene prodotto o letto in isolamento, ma rimanda a una fitta rete di altri testi con i quali intrattiene relazioni di vario tipo. Gérard Genette nel 1982 classificherà queste relazioni in cinque categorie: intertestualità, paratestualità, metatestualità, architestualità e ipertestualità. L’interesse semiotico per il fenomeno dell’intertestualità, in particolare, ovvero tutto ciò che mette un testo in relazione con altri testi, derivato principalmente dall’influsso dei contributi di Bachtin (1895-1975) e della Kristeva (1941), stempera la nozione tradizionale di testo in una definizione più fluida e aperta di “testualità”, in base al principio per cui i diversi significati che un testo può assumere dipendono in larga misura dal reticolo di rinvii intertestuali che esso è in grado di attivare nei propri destinatari.
La scuola di Tartu – che fa capo a Jurij Lotman (1922-1993) – sviluppa lo studio dell’intertestualità in direzione di una semiotica della cultura, basata sul presupposto che le culture umane possono essere analizzate sia come fasci di sistemi semiotici dotati delle proprie grammatiche (ossia di sistemi di regole e di prescrizioni che generano un numero teoricamente illimitato di testi), sia come corpus di testi che attualizzano le virtualità delle diverse grammatiche. In quest’ottica, l’attività culturale quotidiana consiste nella traduzione di una certa porzione di realtà nei termini di uno (o più) dei codici della cultura, trasformandola in testo.
Il passaggio da una semiotica dei codici a una semiotica della produzione e dell’interpretazione testuale comporta inoltre che la figura dell’interprete si conquisti un posto di spicco nel panorama degli studi semiotici. A cavallo tra gli anni Sessanta e Settanta, nell’ambito di diverse scienze umane si assiste a una graduale messa in rilievo del ruolo attivo svolto dall’interprete nei processi di costruzione del senso. Ciò che viene contestato è l’assunto strutturalista secondo cui il senso di un testo sia in qualche modo dato e vada ricercato dentro le maglie stesse del testo, e che pertanto l’interprete si limiti a decodificare i significati che il testo già contiene. Al contrario, le teorie di impostazione interpretativa vedono il senso come la posta in gioco di un processo cooperativo (e talvolta conflittuale) tra testo e interprete. A questo filone di ricerche appartiene la semiotica interpretativa di Umberto Eco. Il frutto dell’innesto è la nozione di “enciclopedia” – sviluppata soprattutto in Trattato di semiotica generale (1975) e in Semiotica e filosofia del linguaggio (1984) –, sorta di “biblioteca delle biblioteche” (che si richiama alla biblioteca infinita evocata da Jorge Luis Borges nel racconto La biblioteca di Babele), la quale fa esplodere la lingua chiusa dello strutturalismo in un reticolo aperto e multidimensionale (ma non per questo privo di un principio di organizzazione interna) di interpretanti variamente intrecciati. Eco in Lector in fabula (1979) considera il testo come una “macchina pigra” la quale richiede l’intervento di qualcuno (l’interprete) che la faccia funzionare. Secondo Eco il ruolo dell’interprete è iscritto nel testo sotto forma di implicite istruzioni per l’uso del medesimo: è pertanto possibile rintracciare la presenza del lettore “in fabula”, appunto, ovvero nel corpo del racconto, ricostruendo – a partire dagli indizi testuali – le “passeggiate inferenziali” che il Lettore Modello è di volta in volta stimolato a intraprendere, uscendo temporaneamente dal testo per ritornarvi “carico di bottino intertestuale”.
Nel corso dei decenni la semiotica interpretativa attraversa diverse fasi di elaborazione che, pur senza comportare mai dei veri e propri ripensamenti, evidenziano maggiormente ora l’aspetto strutturale della questione (dunque, le caratteristiche del testo e la presenza del lettore al suo interno), ora quello cognitivo (le operazioni inferenziali che permettono al lettore di formulare le sue ipotesi di senso).
Nel panorama degli studi del Novecento, il giurista-filosofo polacco Chaïm Perelman e la sociologa-psicologa Lucie Olbrechts-Tyteca con il loro Trattato dell’argomentazione (1958) rivitalizzano e riportano al centro delle attenzioni scientifiche una disciplina che, trascorsi i fasti antichistici e medievali, languiva da tempo in disparte, se non in disuso: la retorica (esplicito, in questo senso, il sottotitolo: La nuova retorica).
Quale sia il senso dell’operazione e perché abbia tanto successo nel dibattito scientifico e culturale della seconda metà del Novecento si comprende accostando l’idea germinale del trattato: cioè la teoria dell’argomentazione. I due autori imputano alla filosofia occidentale postcartesiana una debolezza nella strumentazione attraverso cui formulare giudizi nel campo non delle materie di scienza, ma dei valori; e su questo punto, dunque, la mettono in questione: “La pubblicazione d’un trattato dedicato all’argomentazione e la ripresa in esso di un’antica tradizione, quella della retorica e della dialettica greche, costituiscono una rottura rispetto a una concezione della ragione, nata con Descartes, che ha improntato di sé la filosofia occidentale degli ultimi tre secoli”.
Più precisamente, il punto debole individuato coincide con la scelta di fare rientrare nell’ambito del “razionale” solo ciò che, per il suo carattere necessario e apodittico, si impone a tutti con la forza dell’evidenza. Poste simili premesse, infatti, l’unico “discorso razionale” possibile è quello della dimostrazione scientifica (more geometrico), capace di convincere tutti per l’indiscutibile chiarezza e distinzione dei propri contenuti. Se però fa proprio questo metodo – argomentano gli autori – l’uomo occidentale taglia fuori dal dominio del razionale ciò che è probabile, verosimile, incerto o confuso, e posto intrinsecamente fuori dall’ambito della ragione; con la pesante conseguenza di abbandonare questa area vastissima e fondamentale dell’agire umano al dominio dell’irrazionale, anche nelle sue peggiori manifestazioni: persuasione ingannevole, violenza, dogmatismi, fondamentalismi… Contro questo stato di cose, l’opera di Perelman e Olbrechts-Tyteca è un invito a un fondamentale spostamento di confini: un’esortazione, cioè, ad ampliare l’ambito del razionale a quello della ragionevolezza, affiancando al discorso della dimostrazione quello, appunto, dell’argomentazione: “lo studio delle tecniche discorsive atte a provocare o accrescere l’adesione delle menti alle tesi che vengono presentate al loro assenso”. Da un certo punto di vista, la teoria dell’argomentazione può essere vista come un tentativo di recuperare l’etica al dominio della ragione, se pure di una ragione pratica distinta dalla ragione pura; proprio in questo territorio stava dunque la sfida filosofica: “Solo l’esistenza di un processo argomentativo che non sia né cogente né arbitrario dà un senso alla libertà umana, condizione per l’esercizio di una scelta ragionevole”. Di fatto, comunque, i due autori avevano trovato una via e un metodo per ripercorrere e rivitalizzare il grande armamentario della retorica antica: in un momento storico cruciale del Novecento, l’importanza sociale, politica e persino economica di quest’arte (basti pensare al tema caldo della pubblicità) era di nuovo al centro della discussione.
La teoria dell’argomentazione del resto, poiché “…ciò che caratterizza la prova argomentativa rispetto alla prova razionale è il riferimento a un uditorio”, di necessità insiste su un altro tema particolarmente sensibile nella cultura del secondo Novecento: quello del “pubblico”. L’uditorio è definito come “l’insieme di coloro sui quali l’oratore vuole influire per mezzo della sua argomentazione”; l’oratore, dunque, deve sempre avere presente l’uditorio al quale si rivolge, non solo nella predisposizione, ma anche nello svolgimento del discorso, se vuole raggiungere il proprio fine persuasivo. Anche in questo, in fondo, il Trattato rappresenta un po’ un “ritorno all’antico”: già Aristotele infatti postulava una “logica in situazione”, capace di tener conto del rapporto tra oratore ed uditorio. Il concetto di uditorio è dunque centrale per la nuova retorica. Esso implica che ogni argomentazione abbia un carattere relativo.
Il Trattato è diviso in tre parti. Nella prima (“I quadri dell’argomentazione”) si offrono le premesse teoriche della teoria dell’argomentazione, distinguendo il suo metodo da quello della dimostrazione. Vi compare inoltre la trattazione sul pubblico e le sue diversificazioni. La seconda parte (“La base dell’argomentazione”) si occupa delle formalità e degli elementi utilizzati per predisporre ed argomentare il discorso, distinguendo fra elementi quali i fatti, le verità, le presunzioni, i valori e le gerarchie; ha inoltre spazio la trattazione sui luoghi, e quella sulla scelta dei dati e la loro presentazione nel discorso. La terza e ultima parte, infine (“Le tecniche argomentative”) consiste in un’ampia tassonomia in cui vengono passati in rassegna e analizzati i singoli argomenti del discorso a cui si affida la persuasione del proprio pubblico.