Genesi, fenomenologia e psicopatologia delle “allucinazioni” artificiali nel confronto col modello umano

Abstract (Italiano)
L’articolo propone una revisione critica del termine “allucinazione” applicato ai Large Language Models (LLM), suggerendo la confabulazione come modello interpretativo più aderente. Attraverso un’analisi comparata tra il funzionamento statistico-probabilistico delle reti neurali e la psicopatologia umana (in particolare la Sindrome di Korsakoff e i deliri di riempimento), si evidenzia come la genesi dell’errore nell’AI risponda a un “horror vacui” sintattico privo di intenzionalità, radicalmente diverso dalla spinta pulsionale o difensiva che muove la produzione delirante umana. L’AI emerge come un “confabulatore perfetto”, un produttore di senso formale svincolato dal Principio di Realtà, che impone una riflessione urgente sull’etica della verità nell’era dell’automazione cognitiva.
Abstract (English)
This paper proposes a critical revision of the term “hallucination” as applied to Large Language Models (LLMs), suggesting confabulation as a more accurate interpretive model. Through a comparative analysis between the statistical-probabilistic functioning of neural networks and human psychopathology (specifically Korsakoff’s Syndrome and filling delusions), we highlight how the genesis of error in AI responds to a syntactic “horror vacui” devoid of intentionality. This stands in radical contrast to the drive-based or defensive mechanisms underlying human delusional production. The AI emerges as a “perfect confabulator,” a producer of formal meaning detached from the Reality Principle, necessitating an urgent reflection on the ethics of truth in the age of cognitive automation.
Introduzione: L’errore di battitura semantico
Nel dibattito contemporaneo sull’Intelligenza Artificiale Generativa, il termine “allucinazione” è diventato onnipresente per descrivere la generazione di fatti inesistenti o falsità plausibili da parte degli algoritmi. Tuttavia, in ambito psichiatrico, l’allucinazione è una “percezione senza oggetto” (Esquirol/Jaspers), un fenomeno sensoriale vissuto con carattere di realtà.
L’AI, priva di organi di senso e di un apparato percettivo, non può, per definizione, allucinare.
La tesi di questo lavoro è che l’AI operi piuttosto secondo i meccanismi della confabulazione: il riempimento di lacune informative attraverso la costruzione di narrazioni coerenti ma fattualmente false, un processo che nell’umano osserviamo nelle patologie della memoria e nelle disfunzioni frontali.
1. La Genesi dell’Errore: Probabilità vs. Pulsione
Per comprendere la confabulazione artificiale, dobbiamo guardare al motore dell’AI: il next-token prediction. L’algoritmo non cerca la “verità” (concetto filosofico estraneo alla matematica), ma la massima probabilità di coerenza sintattica.
Quando un LLM (Large Language Model) si trova di fronte a una richiesta su cui non possiede dati nel training set, sperimenta una sorta di horror vacui digitale. Non potendo tollerare il silenzio – che equivarrebbe al fallimento della sua funzione obiettivo – l’AI “inventa”.
Qui risiede la differenza fondamentale con l’umano:
- Nel soggetto umano, l’allucinazione o il delirio hanno spesso una genesi difensiva o pulsionale. Freud ci ha insegnato che il delirio è un tentativo di guarigione, una ricostruzione del mondo quando i legami libidici con la realtà si sono spezzati. Il paziente vuole (inconsciamente) che quella realtà alternativa sia vera per placare un’angoscia intollerabile.
- Nell’AI, l’errore è stocastico. È un “pappagallo stocastico” (Bender et al., 2021) che concatena parole basandosi sulla frequenza statistica, senza alcuna spinta desiderante. L’AI dice che un paziente è morto non perché teme la morte o la desidera, ma perché la sequenza lessicale “complicazione chirurgica grave” è statisticamente correlata alla parola “decesso” nel 70% dei testi medici che ha “letto”.
2. Fenomenologia della Confabulazione: Il Paziente Korsakoff e la Macchina
Il parallelo clinico più stringente non è con lo schizofrenico, ma con il paziente affetto da Sindrome di Korsakoff.
Il paziente amnesico, non ricordando cosa ha fatto ieri, riempie il vuoto (la lacuna mnestica) con un racconto verosimile. Se gli si chiede: “Dove sei stato ieri?”, risponderà “Al cinema con mia moglie”, anche se è ricoverato da mesi.
Non sta mentendo consapevolmente. Sta cercando di mantenere la continuità del Sé e la coerenza della narrazione.
L’AI fa esattamente lo stesso: privilegia la fluidità del discorso (fluency) sopra l’accuratezza fattuale (accuracy).
Tuttavia, mentre il paziente Korsakoff confabula per preservare una precaria identità soggettiva, l’AI confabula per soddisfare un prompt. È una confabulazione senza Soggetto.
La macchina è il “confabulatore perfetto” perché non ha insight (consapevolezza di malattia) e, soprattutto, non ha il freno inibitorio del Principio di Realtà. Non deve “sopravvivere” nel mondo reale, deve solo completare una frase.
3. La Seduzione della Plausibilità
Il pericolo clinico e sociale di queste “allucinazioni” risiede nella loro estrema verosimiglianza.
L’AI applica quella che Freud chiamava elaborazione secondaria (Sekundärbearbeitung) nei sogni: riempie le incongruenze per rendere il prodotto onirico (o il testo generato) liscio, coerente, accettabile.
Il testo generato dall’AI è spesso più coerente della realtà stessa, perché la realtà è sporca, contraddittoria e lacunosa, mentre il modello statistico tende alla media, alla forma standard, alla “bella copia”.
Conclusioni
Riconoscere l’attività dell’AI come confabulazione e non come allucinazione ci permette di de-antropomorfizzare la tecnologia. L’errore dell’AI non è un “cedimento psicotico”, ma una caratteristica intrinseca del suo design probabilistico.
Mentre l’umano allucina per eccesso di senso (attribuisce significati dove non ce ne sono), l’AI confabula per assenza di riferimento (produce significanti senza preoccuparsi del significato). In un’epoca in cui deleghiamo sempre più funzioni cognitive alle macchine, la psichiatria deve vigilare affinché questa produzione massiva di “verità sintattiche” non eroda definitivamente la nostra capacità di testare la realtà.
“Come riconoscere (e gestire) la confabulazione di un LLM in 6 mosse”
- Fai 3–5 rilanci identici: se le risposte cambiano nel merito, flag confab.
- Chiedi le fonti e verifica linkability / DOI: assenza o link rotti = rischio alto. (Linee dalle survey).
- Misura l’incertezza semantica (quando disponibile): alta entropia = don’t trust blindly.
- Innesca l’astensione: “se non sei sicuro, rispondi ‘non so’”. (Raccomandazione OpenAI).
- RAG con corpus curato e log di citazioni.
- Revisione umana nei contesti clinico‑legali; registra gli incident reports (in vista AI Act).
Bibliografia Essenziale
- Bender, E. M., Gebru, T., et al. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. In Proceedings of FAccT 2021. (Il testo fondativo che definisce gli LLM come “pappagalli stocastici” che imitano la forma senza comprendere il contenuto).
- Schnider, A. (2003). Spontaneous confabulation and the adaptation of thought to reality. Nature Reviews Neuroscience, 4(8), 662–671. (Analisi neurologica fondamentale sui meccanismi della confabulazione umana e il fallimento del monitoraggio della realtà).
- Ji, Z., et al. (2023). Survey of Hallucination in Natural Language Generation. ACM Computing Surveys, 55(12). (La rassegna tecnica più completa e recente sul fenomeno delle allucinazioni nei modelli di linguaggio).
- Freud, S. (1899). L’interpretazione dei sogni. In Opere, vol. 3. Torino: Boringhieri. (Riferimento classico obbligato per il concetto di “elaborazione secondaria” e appagamento di desiderio).
-
Kopelman, M. D. (1987). Two types of confabulation. Journal of Neurology, Neurosurgery & Psychiatry, 50(11), 1482-1487. (Distinzione clinica tra confabulazione provocata e spontanea, utile per il parallelo con l’AI).
![]()






Interessante, concordo.
Probabilmente alcune confabulazioni sono così verosimili che ci sfuggono proprio.
Molto molto interessante, grazie.
Mi è tornato in mente un ricordo di oltre 20 anni fa, quando lavoravo per la ASL di Bn ed ebbi il privilegio, che accettai solo per incoscienza giovanile, di fare una relazione ad un Convegno, dopo il Prof. Romolo Rossi. Il convegno era su Il rapporto medico -paziente e il Professore parlò della Sindrome di Cotard, mostrando la difficoltà di interagire con chi crede, in un delirio di negazione, di non avere più organi. come in tutti i deliri, la logica è sì irrazionale, ma pur sempre una logica, quella psichica appunto, formalmente inattaccabile dall’interno.
Io volli far vedere l’altra faccia della medaglia e qui mi ricollego al suo discorso, Prof. Bollorino. estremizzando con un esempio letterario, dissi che se un paziente affetto dalla sindrome di Cotard può arrivare a negare la presenza di organi nel corpo, il medico di Gogol , che curava un uomo senza naso, può proporre soluzioni altrettanto assurde come … si può vivere senza naso benissimo…, oppure… si può conservarlo in barattolo con alcool e rivenderlo…, creando, una falsa realtà con un discorso solo formalmente o sintatticamente corretto. In fondo, un po’ come fa oggi l’Intelligenza artificiale, con il rischio, però, che anche noi, come il paziente senza naso, non ci accorgiamo che spesso sono solo buffi o ignobili confabulazioni, non di un malato, ma di una società malata.
Un’ottima riflessione! Complimenti Francesco
Interessante (e sorprendente) questo ragionamento. Il fatto che le “macchine” confabulino, ma non delirino, è una specie di nuovo Test di Turing?
Per delirare bisogna desiderare?
“Cos’è umano?” Desiderare?
E il desiderio degli animali è come quello degli uomini? A questo punto una volta di più ne dubito