Linee di frattura epistemologiche tra intelligenza umana e artificiale
PAROLE CHIAVE: Epistemia; LLM; epistemologia; grounding; metacognizione; psichiatria digitale; allucinazioni dei modelli.
Abstract
Il recente lavoro di Walter Quattrociocchi, Valerio Capraro e Matjaž Perc propone una mappa delle “linee di frattura epistemologiche” tra i processi di giudizio umani e quelli prodotti dai Large Language Models (LLM) dell’AI Generativa. Il concetto chiave introdotto è Epistemia: una condizione nella quale la plausibilità linguistica viene scambiata per valutazione epistemica, generando una sensazione di sapere senza che si sia svolto il lavoro del giudizio. In questo saggio, sintetizzo e discuto il quadro teorico degli autori, lo connetto alla letteratura recente su rischi e limiti degli LLM, e propongo una checklist operativa anti‑Epistemia per l’uso responsabile dei sistemi generativi in ambito sanitario e culturale (Quattrociocchi, Capraro & Perc, 2025).
1) Una tesi netta: gli LLM non sono agenti epistemici
Il paper colloca gli LLM non sul lato dell’intelligenza che sa, ma su quello dell’intelligenza che predice la prossima parola, cioè sistemi di completamento stocastico di pattern. Il punto centrale è che l’allineamento apparente tra testi umani e output dei modelli nasconde una divergenza strutturale nei processi che portano al giudizio. In estrema sintesi: gli LLM possono generare risposte convincenti, ma non formano credenze giustificate, non hanno un modello del mondo e non dispongono di metacognizione affidabile (Quattrociocchi, Capraro & Perc, 2025). Questa impostazione si salda con critiche ormai classiche all’antropomorfismo nei sistemi linguistici, come l’avvertimento sui ‘pappagalli stocastici’ (Bender et al., 2021).
2) Due pipeline a confronto
Gli autori offrono una cartografia comparata del pipeline epistemico umano e di quello di un LLM. L’umano parte da informazione sensoriale e sociale, la parsa situazionalmente, mobilita memoria, concetti e intuizioni, è mosso da motivazioni e scopi, integra l’informazione con ragionamento, monitora gli errori e giunge a un giudizio sensibile ai valori. L’LLM, al contrario, prende input testuale, lo tokenizza, riconosce pattern negli embeddings, propaga inferenze statistiche negli strati neurali, integra il contesto testuale e produce sicurezze forzate o allucinazioni insieme a un giudizio probabilistico (Quattrociocchi, Capraro & Perc, 2025).

Figura 1. Pipeline epistemici a confronto (umano vs LLM) in sette stadi corrispondenti. Da Quattrociocchi, Capraro & Perc (2025), arXiv 2512.19466; riprodotto a scopo di discussione accademica.
3) Le sette ‘linee di frattura’ (e come impattano clinica e divulgazione)
3.1 Grounding (radicamento semantico)
Gli LLM non accedono direttamente al mondo: sfruttano contenuti pre‑grounded prodotti dagli umani. Il loro significato è derivato dalla statistica testuale, non da esperienza o misurazione. La letteratura conferma che molti modelli aggirano il problema del grounding più che risolverlo con un accoppiamento causale al mondo (Liu, 2023; Floridi et al., 2025).
Perché importa in psichiatria e salute mentale: linee guida, scale, effetti terapeutici e dati epidemiologici richiedono ancoraggi empirici; un testo plausibile ma non ancorato rischia di scivolare in psicoeducazione imprecisa o in consulenze non supportate.
3.2 Parsing (strutturazione)
La scomposizione statistica del testo massimizza la plausibilità più che la verità: l’LLM può ‘capire’ la forma ma non garantisce la semantica operativa necessaria per diagnosi o sintesi di evidenze (Quattrociocchi, Capraro & Perc, 2025; Bender et al., 2021).
3.3 Esperienza (embodiment)
Gli umani apprendono attraverso interazioni causali; l’LLM apprende da corpora. Studi su LLM‑agents mostrano fragilità in compiti interattivi (decision‑making, pianificazione, uso di strumenti) (Liu et al., 2024; Li et al., 2024–2025).
3.4 Motivazione (fini e scopi)
L’LLM non ha scopi interni: ottimizza una loss. L’azione intenzionale appartiene al contesto d’uso umano e di governance; trattare l’LLM come agente morale è fuorviante (Quattrociocchi, Capraro & Perc, 2025; Floridi, 2023).
3.5 Ragionamento causale
Senza un modello esplicito del mondo, il passaggio dalla plausibilità alla spiegazione causale resta incerto. Benchmark e analisi sull’incertezza epistemica mostrano che le allucinazioni sono spesso casi di alta incertezza epistemica mascherata (Liu et al., 2024; Abbasi Yadkori et al., 2024).
3.6 Metacognizione
I segnali di consapevolezza dell’errore nei LLM sono surrogati statistici; mancano strumenti interni robusti per dire ‘non so’. L’evidenza empirica segnala difficoltà nella meta‑riflessione e nell’aggiornamento delle credenze (Li et al., 2024–2025).
3.7 Valore (norme e fini)
Il giudizio umano è sensibile ai valori e socialmente negoziato; l’LLM si allinea tramite RLHF e policy esterne. Di qui la centralità di governance e alfabetizzazione epistemica nell’uso pubblico (Quattrociocchi, Capraro & Perc, 2025; Floridi, 2023).
4) ‘Epistemia’: una parola per il nostro tempo
Il neologismo Epistemia condensa il rischio sistemico: sostituire verifica epistemica con verosimiglianza linguistica. In sanità mentale, dove l’asimmetria informativa è strutturale, la tentazione della plausibilità ben scritta è forte, ma il testo convincente non è ancora conoscenza né indicazione clinica. Occorre manutenere il lavoro del giudizio: selezione delle fonti, pesatura delle prove, tracciabilità (Quattrociocchi, Capraro & Perc, 2025).
5) Dove il paper ci aiuta davvero
Tre contributi risultano preziosi: (1) un lessico anti‑antropomorfismo che riduce l’encantamento tecnologico (Quattrociocchi, Capraro & Perc, 2025); (2) una checklist progettuale che trasforma le fault lines in requisiti operativi; (3) un ponte verso misure di agenzia epistemica e incertezza per valutazioni oggettive (Li et al., 2024–2025; Abbasi Yadkori et al., 2024).
Queste prospettive dialogano con richieste di sistemi dotati di buon senso e modelli ibridi (Marcus & Davis, 2019) e con gli avvertimenti di Bender sul rischio di scambiare la fluency per knowledge (Bender et al., 2021).
6) Checklist anti‑Epistemia per ricercatori, clinici e redazioni
Scopo: usare gli LLM come strumenti potenti mantenendo la giurisdizione epistemica umana.
- Grounding – Fonti primarie (DOI, linee guida, trial) e come sono state verificate.
- Parsing situazionale – Contestualizzare: popolazione, setting, limiti.
- Esperienza/dati – Evidenze empiriche e livelli di evidenza.
- Fini dichiarati – Scopo d’uso (informare/decidere/ipotizzare).
- Causalità – Modelli o revisioni tra pari a supporto delle affermazioni causali.
- Metacognizione – Box ‘dove potrei sbagliarmi’, limiti e incertezza.
- Valori e impatto – Rischi d’uso e meccanismi di rettifica pubblica.
7) Conclusione: mantenere il lavoro del giudizio
Il valore del paper sta nell’offrire una cornice di primo principio: separare intelligenza strumentale (predizione di testi) da intelligenza epistemica (modellazione e giustificazione). Per una rivista come Psychiatry on line Italia, impegnata tra clinica e cultura, Epistemia diventa parola‑chiave da condividere con lettori e pazienti: non tutto ciò che suona bene è vero, e il vero ha un costo – il lavoro del giudizio (Quattrociocchi, Capraro & Perc, 2025).
Bibliografia essenziale
Quattrociocchi, W., Capraro, V., & Perc, M. (2025). Epistemological Fault Lines Between Human and Artificial Intelligence. arXiv. https://arxiv.org/abs/2512.19466
Bender, E. M., Gebru, T., McMillan‑Major, A., & Mitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? FAccT ’21. https://s10251.pcdn.co/pdf/2021-bender-parrots.pdf
Liu, X., Yu, H., Zhang, H., et al. (2024). AGENTBENCH: Evaluating LLMs as Agents. ICLR. https://proceedings.iclr.cc/paper_files/paper/2024/file/e9df36b21ff4ee211a8b71ee8b7e9f57-Paper-Conference.pdf
Li, L., Wang, Y., Zhao, H., et al. (2024–2025). Reflection‑Bench: Evaluating Epistemic Agency in LLMs. arXiv. https://arxiv.org/abs/2410.16270
Abbasi Yadkori, Y., Kuzborskij, I., György, A., & Szepesvári, C. (2024). To Believe or Not to Believe Your LLM: Iterative Prompting for Estimating Epistemic Uncertainty. NeurIPS 2024. https://proceedings.neurips.cc/paper_files/paper/2024/file/6aebba00fff5b6de7b488e496f80edd7-Paper-Conference.pdf
Marcus, G., & Davis, E. (2019). Rebooting AI: Building Artificial Intelligence We Can Trust. Vintage.
Floridi, L. (2023). The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford University Press. Anteprima: https://api.pageplace.de/preview/DT0400.9780198883104_A47327700/preview-9780198883104_A47327700.pdf
![]()






Molto bello e centrato. Grazie