Percorso: Home 9 Epistemologia e storia 9 Epistemia: perché la plausibilità linguistica della Intelligenza Artificiale Generativa non è conoscenza

Epistemia: perché la plausibilità linguistica della Intelligenza Artificiale Generativa non è conoscenza

20 Gen 26

Linee di frattura epistemologiche tra intelligenza umana e artificiale

PAROLE CHIAVE: Epistemia; LLM; epistemologia; grounding; metacognizione; psichiatria digitale; allucinazioni dei modelli.

 

Abstract

Il recente lavoro di Walter Quattrociocchi, Valerio Capraro e Matjaž Perc propone una mappa delle “linee di frattura epistemologiche” tra i processi di giudizio umani e quelli prodotti dai Large Language Models (LLM) dell’AI Generativa. Il concetto chiave introdotto è Epistemia: una condizione nella quale la plausibilità linguistica viene scambiata per valutazione epistemica, generando una sensazione di sapere senza che si sia svolto il lavoro del giudizio. In questo saggio, sintetizzo e discuto il quadro teorico degli autori, lo connetto alla letteratura recente su rischi e limiti degli LLM, e propongo una checklist operativa anti‑Epistemia per l’uso responsabile dei sistemi generativi in ambito sanitario e culturale (Quattrociocchi, Capraro & Perc, 2025).

1) Una tesi netta: gli LLM non sono agenti epistemici

Il paper colloca gli LLM non sul lato dell’intelligenza che sa, ma su quello dell’intelligenza che predice la prossima parola, cioè sistemi di completamento stocastico di pattern. Il punto centrale è che l’allineamento apparente tra testi umani e output dei modelli nasconde una divergenza strutturale nei processi che portano al giudizio. In estrema sintesi: gli LLM possono generare risposte convincenti, ma non formano credenze giustificate, non hanno un modello del mondo e non dispongono di metacognizione affidabile (Quattrociocchi, Capraro & Perc, 2025). Questa impostazione si salda con critiche ormai classiche all’antropomorfismo nei sistemi linguistici, come l’avvertimento sui ‘pappagalli stocastici’ (Bender et al., 2021).

2) Due pipeline a confronto

Gli autori offrono una cartografia comparata del pipeline epistemico umano e di quello di un LLM. L’umano parte da informazione sensoriale e sociale, la parsa situazionalmente, mobilita memoria, concetti e intuizioni, è mosso da motivazioni e scopi, integra l’informazione con ragionamento, monitora gli errori e giunge a un giudizio sensibile ai valori. L’LLM, al contrario, prende input testuale, lo tokenizza, riconosce pattern negli embeddings, propaga inferenze statistiche negli strati neurali, integra il contesto testuale e produce sicurezze forzate o allucinazioni insieme a un giudizio probabilistico (Quattrociocchi, Capraro & Perc, 2025).

 

Figura 1. Pipeline epistemici a confronto (umano vs LLM) in sette stadi corrispondenti. Da Quattrociocchi, Capraro & Perc (2025), arXiv 2512.19466; riprodotto a scopo di discussione accademica.

3) Le sette ‘linee di frattura’ (e come impattano clinica e divulgazione)

3.1 Grounding (radicamento semantico)

Gli LLM non accedono direttamente al mondo: sfruttano contenuti pre‑grounded prodotti dagli umani. Il loro significato è derivato dalla statistica testuale, non da esperienza o misurazione. La letteratura conferma che molti modelli aggirano il problema del grounding più che risolverlo con un accoppiamento causale al mondo (Liu, 2023; Floridi et al., 2025).

Perché importa in psichiatria e salute mentale: linee guida, scale, effetti terapeutici e dati epidemiologici richiedono ancoraggi empirici; un testo plausibile ma non ancorato rischia di scivolare in psicoeducazione imprecisa o in consulenze non supportate.

3.2 Parsing (strutturazione)

La scomposizione statistica del testo massimizza la plausibilità più che la verità: l’LLM può ‘capire’ la forma ma non garantisce la semantica operativa necessaria per diagnosi o sintesi di evidenze (Quattrociocchi, Capraro & Perc, 2025; Bender et al., 2021).

3.3 Esperienza (embodiment)

Gli umani apprendono attraverso interazioni causali; l’LLM apprende da corpora. Studi su LLM‑agents mostrano fragilità in compiti interattivi (decision‑making, pianificazione, uso di strumenti) (Liu et al., 2024; Li et al., 2024–2025).

3.4 Motivazione (fini e scopi)

L’LLM non ha scopi interni: ottimizza una loss. L’azione intenzionale appartiene al contesto d’uso umano e di governance; trattare l’LLM come agente morale è fuorviante (Quattrociocchi, Capraro & Perc, 2025; Floridi, 2023).

3.5 Ragionamento causale

Senza un modello esplicito del mondo, il passaggio dalla plausibilità alla spiegazione causale resta incerto. Benchmark e analisi sull’incertezza epistemica mostrano che le allucinazioni sono spesso casi di alta incertezza epistemica mascherata (Liu et al., 2024; Abbasi Yadkori et al., 2024).

3.6 Metacognizione

I segnali di consapevolezza dell’errore nei LLM sono surrogati statistici; mancano strumenti interni robusti per dire ‘non so’. L’evidenza empirica segnala difficoltà nella meta‑riflessione e nell’aggiornamento delle credenze (Li et al., 2024–2025).

3.7 Valore (norme e fini)

Il giudizio umano è sensibile ai valori e socialmente negoziato; l’LLM si allinea tramite RLHF e policy esterne. Di qui la centralità di governance e alfabetizzazione epistemica nell’uso pubblico (Quattrociocchi, Capraro & Perc, 2025; Floridi, 2023).

4) ‘Epistemia’: una parola per il nostro tempo

Il neologismo Epistemia condensa il rischio sistemico: sostituire verifica epistemica con verosimiglianza linguistica. In sanità mentale, dove l’asimmetria informativa è strutturale, la tentazione della plausibilità ben scritta è forte, ma il testo convincente non è ancora conoscenza né indicazione clinica. Occorre manutenere il lavoro del giudizio: selezione delle fonti, pesatura delle prove, tracciabilità (Quattrociocchi, Capraro & Perc, 2025).

5) Dove il paper ci aiuta davvero

Tre contributi risultano preziosi: (1) un lessico anti‑antropomorfismo che riduce l’encantamento tecnologico (Quattrociocchi, Capraro & Perc, 2025); (2) una checklist progettuale che trasforma le fault lines in requisiti operativi; (3) un ponte verso misure di agenzia epistemica e incertezza per valutazioni oggettive (Li et al., 2024–2025; Abbasi Yadkori et al., 2024).

Queste prospettive dialogano con richieste di sistemi dotati di buon senso e modelli ibridi (Marcus & Davis, 2019) e con gli avvertimenti di Bender sul rischio di scambiare la fluency per knowledge (Bender et al., 2021).

6) Checklist antiEpistemia per ricercatori, clinici e redazioni

Scopo: usare gli LLM come strumenti potenti mantenendo la giurisdizione epistemica umana.

  1. Grounding – Fonti primarie (DOI, linee guida, trial) e come sono state verificate.
  2. Parsing situazionale – Contestualizzare: popolazione, setting, limiti.
  3. Esperienza/dati – Evidenze empiriche e livelli di evidenza.
  4. Fini dichiarati – Scopo d’uso (informare/decidere/ipotizzare).
  5. Causalità – Modelli o revisioni tra pari a supporto delle affermazioni causali.
  6. Metacognizione – Box ‘dove potrei sbagliarmi’, limiti e incertezza.
  7. Valori e impatto – Rischi d’uso e meccanismi di rettifica pubblica.

7) Conclusione: mantenere il lavoro del giudizio

Il valore del paper sta nell’offrire una cornice di primo principio: separare intelligenza strumentale (predizione di testi) da intelligenza epistemica (modellazione e giustificazione). Per una rivista come Psychiatry on line Italia, impegnata tra clinica e cultura, Epistemia diventa parola‑chiave da condividere con lettori e pazienti: non tutto ciò che suona bene è vero, e il vero ha un costo – il lavoro del giudizio (Quattrociocchi, Capraro & Perc, 2025).

 

Bibliografia essenziale

Quattrociocchi, W., Capraro, V., & Perc, M. (2025). Epistemological Fault Lines Between Human and Artificial Intelligence. arXiv. https://arxiv.org/abs/2512.19466

Bender, E. M., Gebru, T., McMillan‑Major, A., & Mitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? FAccT ’21. https://s10251.pcdn.co/pdf/2021-bender-parrots.pdf

Liu, X., Yu, H., Zhang, H., et al. (2024). AGENTBENCH: Evaluating LLMs as Agents. ICLR. https://proceedings.iclr.cc/paper_files/paper/2024/file/e9df36b21ff4ee211a8b71ee8b7e9f57-Paper-Conference.pdf

Li, L., Wang, Y., Zhao, H., et al. (2024–2025). Reflection‑Bench: Evaluating Epistemic Agency in LLMs. arXiv. https://arxiv.org/abs/2410.16270

Abbasi Yadkori, Y., Kuzborskij, I., György, A., & Szepesvári, C. (2024). To Believe or Not to Believe Your LLM: Iterative Prompting for Estimating Epistemic Uncertainty. NeurIPS 2024. https://proceedings.neurips.cc/paper_files/paper/2024/file/6aebba00fff5b6de7b488e496f80edd7-Paper-Conference.pdf

Marcus, G., & Davis, E. (2019). Rebooting AI: Building Artificial Intelligence We Can Trust. Vintage.

Floridi, L. (2023). The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford University Press. Anteprima: https://api.pageplace.de/preview/DT0400.9780198883104_A47327700/preview-9780198883104_A47327700.pdf

Loading

Autore

1 commento

  1. Walter

    Molto bello e centrato. Grazie

    Rispondi

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Caffè & Psichiatria

Ogni mattina alle 8 e 30, in collaborazione con la Società Italiana di Psichiatria in diretta sul Canale Tematico YouTube di Psychiatry on line Italia