Un'antica figura retorica nel cuore delle macchine
C'è qualcosa di inquietante e affascinante in un fenomeno che si ripete da qualche anno nei testi prodotti dall'intelligenza artificiale. Leggete un post su LinkedIn, una risposta di ChatGPT, un testo generato da Claude o Gemini, e noterete un pattern ricorrente: il modello afferma qualcosa, poi immediatamente si corregge, amplifica, riformula. "Non sono un consulente. Sono un architetto del cambiamento."
Questa struttura ha un nome. Un nome antico, greco, che risale a oltre duemila anni fa: epanortosi. Si tratta di una figura retorica in cui il parlante corregge o riformula ciò che ha appena detto, per rafforzarlo, attenuarlo o precisarlo. Era uno strumento consapevole nelle mani di Cicerone e Quintiliano. Oggi riappare, in forma massiccia e sistematica, nei testi generati dai modelli linguistici di grandi dimensioni.
La domanda è inevitabile: si tratta di una coincidenza? Di un artefatto statistico privo di significato? Oppure questa convergenza tra retorica classica e generazione automatica del testo ci rivela qualcosa di profondo sulla natura stessa del linguaggio?
Tesi centrale di questo articolo: l'epanortosi non è un semplice difetto stilistico dei LLM. È il punto di intersezione tra la struttura sequenziale della generazione linguistica e i pattern retorici fondamentali del linguaggio umano. Studiarla ci aiuta a capire sia le macchine sia noi stessi.
Cos'è l'epanortosi
Il termine epanortosi deriva dal greco antico ἐπανόρθωσις (epanorthosis), composto da epi (sopra, in aggiunta) e anorthosis (raddrizzamento, correzione). Letteralmente significa "raddrizzamento ulteriore": il parlante torna su ciò che ha detto per correggerlo, precisarlo o rafforzarlo.
Nella retorica classica, l'epanortosi è classificata tra le figure di pensiero (figurae sententiarum), in quanto non modifica la struttura sintattica ma il contenuto logico dell'enunciato. Si distingue dalla semplice correzione perché ha una funzione comunicativa precisa: non si tratta di un errore emendato, ma di una strategia deliberata per guidare l'attenzione dell'ascoltatore.
Le tre forme principali
L'epanortosi si presenta in tre varianti fondamentali, ciascuna con una funzione retorica distinta:
Amplificazione
Il parlante corregge al rialzo: sostituisce un termine con uno più forte. L'effetto è di intensificazione.
Diminuzione
Il parlante corregge al ribasso: sostituisce un termine con uno meno forte. L'effetto è di moderazione o litote.
Precisazione
Il parlante corregge nella sostanza: sostituisce un concetto con uno più accurato. L'effetto è di chiarimento.
Uso naturale
L'epanortosi è una delle figure retoriche più comuni nel parlato quotidiano. Ogni volta che diciamo "ciòè", "anzi", "o meglio", stiamo producendo un'epanortosi.
Esempi dalla letteratura italiana
— Alessandro Manzoni, I promessi sposi
Manzoni non usa qui un'epanortosi esplicita, ma il suo stile è permeato di continue precisazioni e riformulazioni che riflettono lo stesso meccanismo cognitivo. Dove l'epanortosi diventa strumento letterario consapevole è in Dante:
— Dante Alighieri, Inferno, XXXIII, 75
Qui Dante corregge la propria narrazione: non fu il dolore a uccidere Ugolino, ma la fame. È un'epanortosi correttiva di potenza devastante, in cui la precisazione cambia radicalmente il significato della scena.
In Cicerone, l'epanortosi è strumento oratorio consapevole e frequentissimo:
— Cicerone, In Catilinam, II, 1
Ogni verbo corregge e amplifica il precedente: "se ne ando, usci, fuggi, irruppe fuori". È una catena di epanortosi enfatiche che costruisce un crescendo drammatico.
L'epanortosi nella retorica classica
Per comprendere la portata di questa figura retorica, occorre collocarla nel contesto della tradizione retorica occidentale, dove ha occupato un ruolo centrale per secoli.
Aristotele e la Retorica
Nella Retorica di Aristotele, il concetto di autocorrezione nel discorso è legato alla nozione di enthymema — il sillogismo retorico. L'oratore, secondo Aristotele, non presenta ragionamenti completi ma suggerisce conclusioni che l'ascoltatore completa mentalmente. L'epanortosi si inserisce in questo meccanismo: correggendo se stesso, l'oratore simula un processo di ragionamento in tempo reale, rendendo il discorso più credibile e coinvolgente.
Aristotele riconosce che la spontaneità — vera o simulata — è un potente strumento persuasivo. Un oratore che si corregge appare sincero, riflessivo, onesto. Non sta recitando un copione: sta pensando davanti al pubblico.
Quintiliano e l'Institutio Oratoria
Marco Fabio Quintiliano, nel suo monumentale trattato Institutio Oratoria (circa 95 d.C.), dedica attenzione specifica all'epanortosi, classificandola tra le figure che servono a movere (commuovere) l'uditorio. Per Quintiliano, la correzione in corso d'opera ha tre funzioni:
- 1Enfasi: amplificare un concetto mostrando che la prima formulazione era insufficiente
- 2Verosimiglianza: dare l'impressione di un pensiero genuino e non preparato
- 3Captatio benevolentiae: mostrare umiltà e disponibilità a rivedere le proprie posizioni
Metanoia: il concetto parallelo
Nella tradizione retorica, esiste un termine quasi sinonimo dell'epanortosi: la metanoia (dal greco metanoia, cambiamento di pensiero). Mentre l'epanortosi si concentra sulla correzione formale dell'enunciato, la metanoia sottolinea il cambiamento cognitivo sottostante. In pratica, i due termini sono spesso usati come sinonimi, ma la distinzione è utile: l'epanortosi è la figura, la metanoia è il processo mentale che la produce.
Perché è rilevante per l'AI? Perché nei modelli linguistici osserviamo l'epanortosi (la figura) senza che vi sia, apparentemente, alcuna metanoia (il processo mentale). La forma retorica esiste, ma il cambiamento cognitivo no. Questo scollamento è al cuore del nostro articolo.
Generazione token per token: il vincolo fondamentale
Per capire perché i modelli linguistici producono epanortosi, occorre comprendere il meccanismo fondamentale con cui generano il testo. È un meccanismo molto diverso da come scrivono gli esseri umani.
La generazione autoregressiva
Un Large Language Model genera testo in modo autoregressivo: produce un token alla volta, da sinistra a destra, e ogni token dipende esclusivamente dai token precedenti. Il processo funziona così:
- 1Il modello riceve un prompt (il testo di input)
- 2Calcola la distribuzione di probabilità sul prossimo token
- 3Seleziona un token (tramite sampling o selezione deterministica)
- 4Aggiunge il token generato alla sequenza
- 5Ripete dal passo 2 con la sequenza aggiornata
Questo processo ha una conseguenza cruciale: ogni parola è definitiva. Una volta che il modello ha scritto "buono", non può tornare indietro e cancellarlo. Non ha un tasto "Canc". Se la distribuzione di probabilità suggerisce che "eccellente" sarebbe stato più appropriato, l'unica opzione è aggiungere una correzione: "buono, anzi eccellente".
La differenza con la scrittura umana
Non lineare, iterativa
L'essere umano può pianificare, scrivere una bozza, rileggere, cancellare, riscrivere. La revisione avviene prima della pubblicazione. Il lettore vede solo il risultato finale, già ripulito.
Lineare, irreversibile
Il modello scrive in tempo reale, token dopo token, senza possibilità di revisione. Ogni parola è definitiva nel momento in cui viene prodotta. La correzione può avvenire solo in avanti.
Questa asimmetria è fondamentale. La generazione autoregressiva crea una pressione strutturale verso l'autocorrezione. Quando il modello "si accorge" (statisticamente) che il token appena generato non era ottimale, la soluzione più probabile — quella che i dati di addestramento suggeriscono — è una riformulazione. Ed ecco l'epanortosi.
Paradosso: gli esseri umani possono correggere prima di pubblicare, ma spesso scelgono di usare l'epanortosi per effetto retorico. I LLM non possono correggere prima di pubblicare, e quindi producono epanortosi per necessità strutturale. Il risultato esterno è identico; la causa è radicalmente diversa.
L'epanortosi enfatica nei LLM: il pattern che le macchine abusano
Tra le tre forme di epanortosi, quella che i modelli linguistici producono con frequenza ossessiva è l'epanortosi enfatica: la correzione al rialzo, l'amplificazione. Il modello afferma qualcosa e immediatamente la intensifica.
Esempi reali dalla generazione automatica
"Non vendo prodotti. Costruisco esperienze."
"Non è solo un software. È una rivoluzione."
"Questo non è un corso. È un percorso di trasformazione."
"Non stiamo parlando di automazione. Stiamo parlando del futuro del lavoro."
Questi pattern sono immediatamente riconoscibili come testo generato da AI. Ma perché il modello li produce con tale insistenza?
Le tre cause dell'abuso
- 1Il vincolo autoregressivo: come abbiamo visto, il modello non può riscrivere. Quando genera un primo termine ("marketer"), la distribuzione di probabilità può suggerire che un termine più forte sarebbe stato più appropriato nel contesto. La soluzione statistica più probabile è la struttura "Non X. Y", che appare frequentissima nei dati di addestramento.
- 2I dati di addestramento: i LLM sono addestrati su enormi quantità di testo proveniente da internet. Una quota significativa di questo testo proviene da fonti che privilegiano l'enfasi: post LinkedIn, copywriting pubblicitario, contenuti motivazionali, thread Twitter, landing page. In questi contesti, l'epanortosi enfatica è associata a engagement elevato. Il modello ha "imparato" che questa struttura funziona.
- 3Il reinforcement learning (RLHF): durante la fase di fine-tuning con feedback umano, i valutatori tendono a preferire risposte che appaiono sicure, incisive, ben articolate. L'epanortosi enfatica produce esattamente questa impressione: sembra che il modello stia "pensando", che sia appassionato, che sappia ciò di cui parla. Questo rinforza ulteriormente il pattern.
Il pattern strutturale
Analizzando migliaia di output generati, si possono identificare le strutture sintattiche ricorrenti dell'epanortosi nei LLM:
- "Non X. Y." — La più comune. Nega un termine e lo sostituisce con uno più grandilocuente.
- "Non solo X, ma Y." — Variante additiva. Non nega, ma amplifica.
- "X, anzi Y." — Forma classica dell'epanortosi, riprodotta fedelmente.
- "X. O meglio, Y." — Simula un ripensamento in tempo reale.
- "X? No. Y." — Domanda retorica seguita da autocorrezione.
Test pratico: se in un testo trovate tre o più occorrenze della struttura "Non X. Y." nello stesso paragrafo, la probabilità che sia stato generato da un LLM è molto alta. È una delle "impronte digitali" più affidabili del testo artificiale.
Chain-of-thought e autocorrezione: l'epanortosi come ragionamento
L'epanortosi enfatica è un fenomeno prevalentemente stilistico. Ma esiste un dominio in cui l'autocorrezione dei LLM assume un ruolo molto più profondo: il chain-of-thought reasoning, il ragionamento passo per passo.
Cos'è il chain-of-thought?
Nel 2022, i ricercatori di Google hanno dimostrato che i LLM producono risposte significativamente migliori quando viene chiesto loro di "pensare passo per passo" prima di rispondere. Questa tecnica, nota come chain-of-thought prompting, ha rivoluzionato l'uso dei modelli per compiti di ragionamento.
In pratica, il modello genera una sequenza di passaggi intermedi prima di arrivare alla risposta finale. È in questi passaggi intermedi che compare una forma di epanortosi strutturalmente identica a quella classica:
"The answer is... actually, wait. Let me reconsider. I initially thought X, but actually Y makes more sense because..."
Queste espressioni — "wait", "actually", "let me reconsider", "that's not quite right" — sono epanortosi correttive nel senso più classico del termine. Il modello (o meglio, il testo che il modello genera) simula un processo di revisione del proprio ragionamento.
Epanortosi retorica o ragionamento genuino?
La domanda cruciale è: quando un LLM scrive "Wait, let me reconsider", sta davvero riconsiderando? La risposta tecnica è complessa:
- Il modello non ha una rappresentazione interna del "riconsiderare". Non esiste un modulo che si attiva quando scrive "wait".
- Tuttavia, la sequenza di token "wait, let me reconsider" modifica il contesto su cui il modello calcola i token successivi. In un certo senso, scrivere "wait" sposta la distribuzione di probabilità verso token che rappresentano ragionamenti alternativi.
- Il risultato è che l'autocorrezione testuale funziona davvero: i modelli che esplicitano il ragionamento e le autocorrezioni producono risposte più accurate di quelli che non lo fanno.
Il paradosso dell'autocorrezione efficace: l'epanortosi nei LLM non riflette un processo cognitivo reale, eppure migliora genuinamente la qualità dell'output. La forma retorica, vuota di contenuto mentale, produce effetti concreti. È come se la struttura del linguaggio avesse un potere causale indipendente dall'intenzione di chi lo usa.
Self-correction nei modelli moderni: l'epanortosi ingegnerizzata
L'autocorrezione spontanea dei LLM è un fenomeno emergente: nessuno l'ha programmata esplicitamente. Ma negli ultimi anni, i laboratori di ricerca hanno iniziato a ingegnerizzare l'autocorrezione, trasformandola da artefatto statistico a funzionalità progettata.
Constitutional AI (Anthropic)
L'approccio di Anthropic, chiamato Constitutional AI, è forse l'esempio più chiaro di epanortosi ingegnerizzata. Il processo funziona così:
- 1Generazione iniziale: il modello produce una risposta al prompt dell'utente
- 2Critica: il modello stesso (o una versione separata) valuta la risposta rispetto a un insieme di principi ("la costituzione")
- 3Revisione: il modello genera una versione corretta della risposta, tenendo conto della critica
- 4Iterazione: il processo può ripetersi più volte fino a raggiungere una risposta soddisfacente
Questo è, strutturalmente, il ciclo dell'epanortosi: affermo, critico, correggo. La differenza è che avviene dietro le quinte, prima che l'utente veda la risposta. È un'epanortosi invisibile.
Agenti con self-reflection
Nei sistemi agentici moderni — dove un LLM interagisce con strumenti esterni, database, API — l'autocorrezione diventa ancora più esplicita. Un agente può:
- Eseguire un'azione e verificarne il risultato
- Rilevare un errore nel risultato
- Generare una critica del proprio approccio
- Riformulare la strategia e riprovare
Questo pattern, noto come critique-and-revise o reflexion, è il corrispettivo computazionale dell'epanortosi correttiva. Non è un gioco di parole: la struttura logica è identica.
Come funziona tecnicamente
Dal punto di vista tecnico, la self-correction nei modelli moderni si basa su tre meccanismi:
- Resampling: il modello genera più risposte candidate e seleziona la migliore secondo un criterio di qualità
- Scoring: un modello separato (o lo stesso modello con un prompt diverso) assegna punteggi alle risposte candidate
- Filtering: le risposte che violano determinati criteri (sicurezza, accuratezza, pertinenza) vengono scartate e sostituite
L'ironia: la retorica classica insegnava agli oratori a simulare l'autocorrezione per apparire più credibili. L'ingegneria moderna insegna alle macchine a praticare l'autocorrezione reale per essere effettivamente più accurate. La forma è la stessa; la direzione è invertita.
Il confine tra figura retorica e artefatto statistico
Arriviamo al cuore filosofico della questione. Quando un essere umano usa l'epanortosi — "e buono, anzi eccellente" — dietro la correzione c'è un processo cognitivo: il parlante ha valutato il primo termine, lo ha confrontato con il proprio giudizio, e ha deciso che non era sufficiente. C'è intenzione, c'è valutazione, c'è revisione consapevole.
Quando un LLM produce la stessa struttura, cosa c'è dietro? Un calcolo di probabilità condizionate. Il token "anzi" segue il token "buono" perché nei dati di addestramento questa sequenza era frequente in contesti simili. Non c'è valutazione, non c'è intenzione, non c'è consapevolezza.
La Stanza Cinese applicata alla retorica
L'esperimento mentale della Stanza Cinese di John Searle (1980) trova qui un'applicazione illuminante. Searle immaginava una persona chiusa in una stanza che manipola simboli cinesi seguendo regole precise, senza capire il cinese. I suoi output sono indistinguibili da quelli di un parlante cinese, ma non c'è comprensione.
Applicato all'epanortosi: un LLM produce figure retoriche indistinguibili da quelle umane, ma non c'è retorica nel senso classico del termine. Non c'è persuasione intenzionale, non c'è strategia comunicativa, non c'è adattamento all'uditorio. C'è solo predizione statistica.
Oppure no?
L'obiezione più forte a questa posizione è la seguente: se definiamo la retorica come l'insieme delle strutture linguistiche che producono determinati effetti sull'ascoltatore, allora l'intenzione del parlante è irrilevante. L'epanortosi di un LLM persuade, enfatizza, chiarisce esattamente come quella di Cicerone. L'effetto sul lettore è identico. Se la retorica è definita dai suoi effetti, allora anche le macchine fanno retorica.
La retorica richiede intenzione
L'epanortosi è una figura retorica solo se prodotta consapevolmente. L'output dei LLM è mera imitazione statistica, priva di contenuto retorico genuino.
La retorica è definita dai suoi effetti
Se una struttura linguistica produce l'effetto retorico atteso (persuasione, enfasi, chiarimento), allora è retorica indipendentemente dalla sua origine.
La risposta, probabilmente, è che abbiamo bisogno di un vocabolario nuovo. Le categorie della retorica classica — pensate per descrivere il discorso umano intenzionale — non sono sufficienti a descrivere i fenomeni linguistici prodotti dai sistemi statistici. Ma non sono nemmeno irrilevanti: la convergenza tra pattern classici e pattern artificiali ci dice qualcosa di profondo sulle strutture fondamentali del linguaggio.
Riconoscere il testo generato: l'epanortosi come segnale
Al di la delle questioni filosofiche, la conoscenza dell'epanortosi artificiale ha un'applicazione pratica immediata: ci aiuta a riconoscere il testo generato dall'AI.
I pattern retorici rivelatori
L'epanortosi enfatica è solo uno dei segnali. I testi generati dai LLM presentano un insieme ricorrente di tratti stilistici che, presi insieme, costituiscono una "firma" riconoscibile:
- Epanortosi ripetuta: la struttura "Non X. Y." compare tre, quattro, cinque volte nello stesso testo. Un autore umano raramente la userebbe più di una volta.
- Linguaggio grandilocuente senza sostanza: "architetto del cambiamento", "costruttore di futuro", "catalizzatore di innovazione". Metafore impressionanti che, analizzate, non dicono nulla di concreto.
- False dicotomie: "Non faccio A, faccio B", dove A e B non sono affatto mutuamente esclusivi. "Non vendo prodotti, creo relazioni" — in realtà si possono fare entrambe le cose.
- Hedging sistematico: "In un certo senso", "per così dire", "se vogliamo", "potremmo dire che". Il modello copre le proprie basi con qualificatori eccessivi.
- Struttura a lista con crescendo: i punti di una lista tendono a diventare progressivamente più ambiziosi e vaghi.
- Conclusioni tautologiche: "In conclusione, possiamo dire che X è importante perché riveste un ruolo fondamentale." La conclusione riformula la premessa senza aggiungere nulla.
Guida pratica per editori e lettori
- 1Contate le epanortosi: se un testo di 500 parole contiene più di due strutture "Non X. Y." o "X, anzi Y", è probabilmente generato.
- 2Cercate la specificità: il testo contiene dettagli concreti, nomi, numeri verificabili, esperienze personali? O è composto interamente di affermazioni generiche?
- 3Verificate le citazioni: se il testo cita fonti, verificatele. I LLM inventano citazioni con grande disinvoltura.
- 4Leggete ad alta voce: il testo suona naturale? O ha un ritmo troppo uniforme, troppo "perfetto", privo delle irregolarità tipiche della scrittura umana?
- 5Cercate la voce dell'autore: un testo umano ha una personalità, un punto di vista, delle idiosincrasie. Un testo generato è spesso equidistante, neutro, diplomatico su tutto.
Attenzione: nessuno di questi segnali è definitivo da solo. Anche autori umani usano epanortosi, e i LLM più recenti stanno diventando più bravi a evitare questi pattern. La competenza critica del lettore resta l'unico strumento davvero affidabile.
Linguistica, retorica e intelligenza artificiale: il quadro complessivo
L'epanortosi artificiale non è solo un problema pratico (come riconoscere il testo AI) o filosofico (le macchine possono fare retorica?). È anche, e forse soprattutto, un'opportunità per ripensare la nostra comprensione del linguaggio.
Le figure retoriche come algoritmi
Se un sistema statistico, senza alcuna conoscenza della retorica, produce spontaneamente le stesse figure retoriche che gli esseri umani usano da millenni, cosa ci dice questo sulle figure retoriche stesse?
Una possibilità affascinante è che le figure retoriche non siano "invenzioni" umane, ma strutture emergenti del linguaggio. Come i cristalli emergono dalle leggi della fisica, le figure retoriche emergerebbero dalle proprietà statistiche del linguaggio naturale. L'epanortosi sarebbe un attrattore nel panorama delle sequenze linguistiche possibili: una struttura verso cui il linguaggio tende naturalmente, sia quando è prodotto da cervelli umani sia quando è prodotto da reti neurali.
Se questa ipotesi fosse corretta, le figure retoriche sarebbero, in un certo senso, algoritmi: procedure ricorrenti che il linguaggio "esegue" indipendentemente dal substrato che lo produce. Gli oratori classici li avrebbero scoperti, non inventati, così come i matematici scoprono teoremi che erano già veri prima di essere dimostrati.
Il linguaggio come sistema autonomo
Questa prospettiva richiama la visione strutturalista di Ferdinand de Saussure e, più recentemente, le teorie della linguistica computazionale. Il linguaggio non è solo uno strumento che i parlanti usano: è un sistema con proprietà proprie, che vincola e modella il pensiero tanto quanto ne è modellato.
I LLM, da questo punto di vista, non sono imitatori imperfetti del linguaggio umano. Sono esploratori dello spazio delle possibilità linguistiche, che scoprono (statisticamente) le stesse strutture che gli esseri umani scoprono (cognitivamente). La convergenza non è un difetto: è una conferma che quelle strutture sono proprietà del linguaggio, non del parlante.
Implicazioni per l'educazione e la comunicazione
Se accettiamo che le figure retoriche sono strutture emergenti del linguaggio, l'insegnamento della retorica assume un nuovo significato. Non si tratta più (solo) di apprendere tecniche persuasive, ma di comprendere le strutture profonde della comunicazione. È la capacità di distinguere tra epanortosi intenzionale e epanortosi artificiale diventa una competenza fondamentale nell'era dell'AI.
La sfida per il futuro: non è insegnare alle macchine a fare retorica migliore. È insegnare agli esseri umani a riconoscere quando la retorica è vuota — che provenga da un LLM o da un oratore umano che imita i pattern dell'AI. Il rischio più grande non è che le macchine scrivano come gli umani, ma che gli umani inizino a scrivere come le macchine.
Glossario
Definizioni dei termini chiave utilizzati in questo articolo.