
Confabulazione, lapsus statistico e inconscio artificiale
Quando un sistema di intelligenza artificiale inventa una citazione inesistente, attribuisce a un autore un libro che non ha mai scritto, costruisce una bibliografia falsa ma perfettamente plausibile, si dice di solito che “allucina”.
Il termine è efficace, tanto da essere utilizzato comunemente, spesso per sottolineare i limiti o persino l’inattendibilità della A.I. generativa.
Ma è davvero il termine giusto?
A me pare di no.
Una storia plausibile, ma falsa
Mi è successo seguendo un vecchio caso di cronaca.
Una donna del Sud, dopo anni di violenze subite insieme al figlio, compie un gesto estremo: uccide il marito a colpi di accetta. Conoscevo bene la vicenda e sapevo quale fosse stato l’esito giudiziario: condanna attenuata, ma piena imputabilità.
Ho chiesto a ChatGPT di ricostruire il caso.
La risposta è arrivata sicura, ordinata, convincente, ma sbagliata. Secondo la ricostruzione dell’A.I., la donna era stata assolta perché non imputabile.
Non era vero.
La cosa davvero curiosa è che mio figlio, ponendo la stessa domanda in un’altra conversazione, sempre con ChatGPT, ha ricevuto la versione corretta.
Avevamo ottenuto due risposte diverse, entrambe plausibili, ma una giusta e l’altra sbagliata, sullo stesso fatto di cronaca.
Non è un errore casuale. Sembra paradossale, ma è il sistema che funziona esattamente come deve.
L’A.I. non si comporta come un archivio, ma costruisce la risposta ogni volta. Quando il riferimento non è stabile, può produrre versioni diverse dello stesso episodio. Non restituisce necessariamente il fatto, restituisce ciò che appare più probabile.
La macchina, nell’indicare l’assoluzione della donna, non aveva “visto” qualcosa che non c’era. Aveva riempito un vuoto con una storia verosimile.
Più che allucinare, la macchina inventa e lo fa per riempire quel vuoto. Del resto, questi sistemi non sono addestrati a distinguere in modo nativo il vero dal falso. Sono addestrati soprattutto a produrre risposte plausibili, fluenti e coerenti. Per grounding si intende proprio l’ancoraggio della risposta a dati, fonti o elementi di realtà verificabili. Per questo, quando manca un appiglio sufficiente, il rischio non è il silenzio, ma l’invenzione ben formulata.
Non allucina. Non può farlo
Per chiarire il dubbio lessicale, può venire in aiuto la clinica.
In psichiatria l’allucinazione viene definita come una “percezione senza oggetto”. Il paziente vede, sente o percepisce come reale qualcosa che non esiste.
Perché si produca un’allucinazione serve un corpo, un sistema percettivo, un rapporto sensoriale con il mondo.
L’intelligenza artificiale non ha nulla di tutto questo. Non vede, non ascolta, non percepisce. Dire che “allucina” è una scorciatoia suggestiva, ma concettualmente impropria.
La macchina non produce false percezioni, produce false affermazioni.
La logica della confabulazione
Se abbandoniamo il termine allucinazione, ciò che osserviamo somiglia molto di più a un altro fenomeno clinico: la confabulazione.
Nella demenza, il paziente non ricorda, non sa, non riesce a ricostruire e, invece di fermarsi, produce un racconto. Spesso si tratta di un racconto plausibile, coerente, talvolta sorprendentemente ben costruito.
Non si limita a sbagliare. Costruisce spiegazioni, inventa episodi, collega frammenti.
La confabulazione nasce da una lacuna, ma mobilita al massimo le risorse disponibili per mantenere una continuità, un senso.
La macchina e il vuoto
La macchina fa qualcosa di simile, ma per ragioni completamente diverse. L’elemento comune è appunto il vuoto da colmare.
A differenza del paziente però, la macchina non ha un sé da difendere, non ha un’identità da preservare, una storia da salvare.
Non si può dire che la macchina “non tolleri” il vuoto: semplicemente, non è costruita per abitarlo. È costruita per produrre una risposta, e proprio per questo tende a colmarlo.
Dal reale al tipico
L’errore dell’intelligenza artificiale, nella maggior parte dei casi, consiste nel sostituire il reale con il tipico, non nell’inventare l’impossibile.
Non produce il fantastico, produce il probabile. Trasforma un caso singolare in uno schema generale credibile. Sceglie ciò che “ci sta bene”, ed è proprio per questo che risulta molto convincente.
E’ molto convincente anche per un altro motivo, che riguarda noi umani. Una risposta ben scritta, fluida, ordinata, esercita su di noi una particolare forza di persuasione. La buona forma del linguaggio funziona facilmente come segnale di verità. È una specie di illusione di autorità: la scorrevolezza del testo ci induce a fidarci, anche quando il contenuto non è davvero fondato.
Il lapsus statistico
Proseguendo con questo strano confronto con la clinica, si può azzardare un altro termine: lapsus.
Nel caso umano, il lapsus è legato all’inconscio: qualcosa emerge, qualcosa sfugge, qualcosa si rivela. Nel caso della macchina, tutto questo non esiste.
Eppure, in entrambi i casi, l’errore è rivelatore.
Nell’A.I. il lapsus non rivela l’inconscio. Rivela la logica del sistema: la tendenza a riempire una mancanza utilizzando fino in fondo le proprie risorse.
Si potrebbe parlare, allora, di lapsus statistico.
Il lapsus statistico non è l’irruzione di un contenuto nascosto, è la saturazione di una possibilità.
In altre parole, tra tutte le risposte possibili, la macchina sceglie quella più probabile. Invece di fermarsi, sfrutta al massimo le sue capacità di correlazione, previsione e coerenza linguistica e produce una risposta che funziona, anche quando non è vera.
Riconoscere il quadro
C’è un altro punto di contatto, meno evidente ma decisivo.
In entrambi i casi, clinico e artificiale, ciò che conta davvero non è il singolo errore, ma il quadro.
Nella pratica clinica, un sintomo acquista senso solo dentro un contesto. È il quadro complessivo che consente una diagnosi.
Lo stesso vale per l’intelligenza artificiale.
Una frase falsa può sembrare perfetta, una citazione inventata può essere credibile.
L’errore diventa visibile solo quando si coglie il quadro complessivo: un passaggio dal preciso al vago, una sicurezza solo apparente, una coerenza formale senza riscontro nei fatti.
Non basta ascoltare ciò che viene detto, bisogna capire come viene detto.
Usare bene l’intelligenza artificiale richiede una capacità di lettura che, per certi aspetti, somiglia a quella clinica.
E non è un dettaglio.
Perché se nella clinica il riconoscimento del quadro orienta la diagnosi, nel caso dell’A.I. consente di evitare errori che, in certi contesti, possono essere gravi.
Non a caso, quando questi errori entrano in ambiti professionali delicati, non vengono trattati come semplici bizzarrie della macchina, ma come mancate verifiche da parte di chi la usa. Ed è anche per questo che le istituzioni internazionali insistono sempre più sulla gestione del rischio, sulla supervisione umana e sull’appropriatezza d’uso.
Il punto che ci riguarda
Se chiamiamo “allucinazione” l’errore dell’intelligenza artificiale, lo teniamo a distanza. Ci avviciniamo se lo chiamiamo “confabulazione”, forse ne cogliamo la natura se lo chiamiamo “lapsus statistico”.
Non è una anomalia bizzarra, è una risposta al vuoto.
Pensandoci bene, il meccanismo non ci è così estraneo. Anche il pensiero umano fa fatica a tollerare l’incompletezza, tende a colmare le lacune, a preferire una narrazione coerente a una verità incerta.
Per questo è sempre consigliabile verificare ciò che viene prodotto da un sistema di intelligenza artificiale, evitando di darlo per scontato. E forse, in prospettiva, una delle direzioni più serie sarà proprio quella di non spingere i sistemi solo a rispondere meglio, ma anche a dichiarare incertezza, ad astenersi, a fermarsi quando non sono abbastanza ancorati alla realtà (grounded, nel senso tecnico del termine). Un sistema davvero affidabile non è un sistema che parla sempre, ma un sistema che sa anche tacere.
Questo consiglio, a ben vedere, non riguarda solo le macchine.
Vale anche per ciò che viene detto da un altro essere umano, perfino quando è autorevole, competente, stimato.
Mi è capitato di citare per anni un racconto attribuito a uno scrittore famoso. Lo avevo ascoltato raccontare più volte da un intellettuale di grande valore, in contesti pubblici.
Solo dopo averlo ripreso in diversi convegni, ho provato a cercarlo davvero.
La citazione era del tutto errata. Risultava plausibile, coerente, convincente, ma falsa. Si trattava di una confabulazione non artificiale, ma umana.
La domanda finale allora, è questa:
quanto siamo disposti, noi esseri umani, a restare nel vuoto prima di riempirlo?
Perché il rischio non è solamente che la macchina, e non solo la macchina, possa confabulare. Il rischio è che lo faccia al posto nostro e che noi perdiamo la capacità di riconoscerlo.
![]()







0 commenti