Abstract (Italiano)
Il presente articolo esplora i parallelismi strutturali e funzionali tra l’architettura neurale “Transformer” — fondamento delle moderne Intelligenze Artificiali generative (LLM) — e i processi cognitivi del cervello umano. Analizzando il meccanismo computazionale della “Self-Attention” e la topografia dei parametri matematici, il testo evidenzia come la macchina simuli l’attenzione selettiva e la memoria di lavoro per mappare ed elaborare il linguaggio naturale. Attraverso questa lente neuro-computazionale, l’articolo decostruisce altresì l’abuso del termine “allucinazione” in ambito tecnologico. Riprendendo le premesse concettuali già esplorate nell’articolo AI: Il confabulatore perfetto, si dimostra — sul piano clinico e neuropsicologico — perché i modelli linguistici vadano inquadrati come “confabulatori”: sistemi algoritmici che, privi di ancoraggio sensoriale, colmano i vuoti di calcolo con costrutti narrativi statisticamente plausibili ma fittizi, al fine di preservare la coerenza sintattica.
Abstract (English)
This article explores the structural and functional parallels between the “Transformer” neural architecture — the foundation of modern Generative Artificial Intelligence (LLMs) — and the cognitive processes of the human brain. By analysing the computational mechanism of “Self-Attention” and the topography of mathematical parameters, the text highlights how the machine simulates selective attention and working memory to map and process natural language. Through this neuro-computational lens, the article also deconstructs the misuse of the term “hallucination” in the technological domain. Building on the conceptual premises previously explored in the article AI: The Perfect Confabulator, it demonstrates — from a clinical and neuropsychological perspective — why language models must be classified as “confabulators”: algorithmic systems that, devoid of sensory grounding, fill computational gaps with narrative constructs that are statistically plausible yet fictitious, in order to preserve syntactic coherence.

L’Illusione del Pensiero e il Salto Quantico dell’AI
Chiunque interagisca oggi con un modello linguistico avanzato prova, quasi inevitabilmente, una reazione di antropomorfizzazione. La fluidità del dialogo, la capacità di cogliere l’ironia e l’apparente empatia delle risposte ci spingono istintivamente ad attribuire alla macchina una scintilla di coscienza. Eppure, dietro questa formidabile illusione non si cela la replica biologica dei nostri lobi frontali, bensì un’architettura matematica rivoluzionaria presentata dai ricercatori di Google nel 2017: il Transformer.
Per i lettori e i professionisti che seguono gli approfondimenti di Psychiatry on line Italia, abituati a indagare le complesse dinamiche della mente umana, comprendere il funzionamento intimo di questa architettura è oggi imprescindibile. Non soltanto per demistificare la tecnologia, ma per cogliere come l’informatica sia riuscita a simulare, attraverso equazioni, il risultato finale del nostro apparato cognitivo: il linguaggio.
Dall’Elaborazione Sequenziale all’Attenzione Selettiva
Fino a pochi anni fa, le reti neurali artificiali (come le RNN o le LSTM) elaboravano il testo in modo rigidamente sequenziale: leggevano una parola dopo l’altra, da sinistra a destra, comportandosi come un lettore affetto da un grave deficit di memoria a breve termine. Il limite era invalicabile: giunto alla fine di un lungo periodo, il sistema “scordava” il soggetto iniziale, perdendo irrimediabilmente il contesto e producendo testi sconnessi.
Il cervello umano non funziona come un nastro trasportatore. Quando ascoltiamo un paziente che racconta la propria storia, la nostra memoria di lavoro e la nostra attenzione selettiva ci consentono di mantenere una visione d’insieme: assegniamo istantaneamente un “peso” cognitivo maggiore ad alcuni concetti chiave, colleghiamo dinamicamente un pronome a un sostantivo pronunciato molti minuti prima, scartiamo il rumore di fondo.
L’architettura Transformer ha introdotto nel mondo digitale l’equivalente preciso di questo processo neuropsicologico: un meccanismo matematico denominato Self-Attention (Auto-Attenzione).
Anziché processare i dati in sequenza, il Transformer ingerisce e analizza interi blocchi di testo simultaneamente. Per ogni parola che elabora, l’algoritmo calcola una complessa matrice di probabilità che stabilisce quanto quella specifica parola sia correlata a tutte le altre parole presenti nel testo, indipendentemente dalla loro distanza fisica sulla pagina.
- Esempio pratico: nella frase “Il medico non ha prescritto il farmaco al paziente perché era troppo stanco”, un modello basato su Transformer deduce matematicamente che l’aggettivo “stanco” si riferisce al “medico” e non al “farmaco”. Lo fa ponderando simultaneamente il contesto semantico circostante, imitando in modo sorprendente la nostra capacità di astrazione contestuale.
Sinapsi di Silicio: Parametri e Mappatura del Significato
Se la Self-Attention simula la memoria di lavoro, in che modo la macchina “impara” i concetti? Il cervello umano apprende dall’esperienza consolidando o indebolendo le connessioni sinaptiche tra i neuroni (neuroplasticità): concetti e memorie associati frequentemente rafforzano i propri legami, dando origine a reti di significato.
Nel Transformer, l’equivalente funzionale di questi legami sinaptici sono i parametri (o “pesi”). Durante la ciclopica fase di pre-addestramento, il modello analizza miliardi di testi prodotti dall’umanità (libri, articoli scientifici, conversazioni). In questa fase la macchina non memorizza nulla verbatim; al contrario, regola costantemente miliardi di parametri matematici per costruire una mappa multidimensionale del linguaggio.
Se la logica e la cultura umana associano statisticamente e con frequenza la parola “ansia” a termini come “tachicardia” o “stress”, il modello rafforza il “ponte” matematico tra questi vettori. Il risultato non è un archivio di nozioni enciclopediche, ma una vera e propria topografia statistica del pensiero umano, forgiata sull’esperienza collettiva sedimentata nei testi.
La Previsione: Perché il Linguaggio Sembra Pensiero
L’intero motore del Transformer si fonda su un unico, apparentemente banale, imperativo categorico: prevedere il frammento di parola successivo (token) in base al contesto precedente.
Come può un semplice completamento automatico generare saggi filosofici o diagnosi differenziali? La risposta risiede nella natura stessa del linguaggio umano. Gran parte della nostra comunicazione è intrinsecamente predittiva; e soprattutto il linguaggio è l’infrastruttura portante, l’impalcatura stessa del nostro pensiero cosciente.
Un modello matematico che, sorretto da una potenza di calcolo titanica, perviene a padroneggiare le regole, la sintassi, le ambiguità e le logiche causali del linguaggio umano, finisce inevitabilmente per restituire l’illusione del pensiero. La macchina non ha intenzionalità, non prova dubbio né empatia: è uno specchio formidabile che riflette le strutture logiche di chi la interroga.
La Clinica dell’Errore Artificiale: Il Confabulatore Perfetto
Questa profonda analogia tra il funzionamento del Transformer e le neuroscienze permette di fare chiarezza su uno dei fenomeni più discussi nel campo dell’AI: la tendenza del modello a generare informazioni false presentandole come verità assolute.
Nell’industria tecnologica e nel giornalismo generalista si è consolidato l’uso del termine allucinazione. Per chi opera nel campo della salute mentale, si tratta di un’appropriazione terminologica gravemente errata e fuorviante. L’allucinazione è un disturbo della percezione — una “percezione senza oggetto” — che presuppone l’esistenza di un apparato sensoriale e di una coscienza che subisce l’inganno. Il modello matematico non dispone di organi di senso, non “vede” né “sente” nulla; non può, dunque, tecnicamente allucinare.
Come già evidenziato sulle nostre pagine nell’articolo AI: Il confabulatore perfetto, il comportamento della macchina corrisponde in tutto e per tutto al fenomeno clinico della confabulazione.
In psichiatria e neurologia, la confabulazione — tipica della Sindrome di Korsakoff, delle demenze o di specifiche lesioni all’emisfero destro — consiste nella produzione di falsi ricordi o narrazioni non intenzionalmente mendaci. Il paziente, per colmare un’amnesia o un deficit cognitivo, assembla frammenti di realtà e fantasia costruendo una storia plausibile, con lo scopo inconscio di preservare una coerenza interna e mantenere l’interazione sociale.
Il Transformer opera esattamente allo stesso modo. Quando un utente pone una domanda per la quale il modello non dispone di connessioni statistiche sufficientemente solide — ossia quando i suoi “parametri” sono deboli sull’argomento — la macchina non è programmata per riconoscere l’incertezza. Il suo mandato matematico è generare la sequenza di parole statisticamente più probabile.
L’algoritmo colma allora il vuoto di dati assemblando frammenti linguistici coerenti, producendo una risposta grammaticalmente ineccepibile, sintatticamente logica, ma nei fatti del tutto inventata. L’intelligenza artificiale non inganna per malizia, bensì per un “eccesso di zelo” algoritmico: si comporta come l’emisfero sinistro del cervello umano che, privato del controllo di realtà esercitato dall’emisfero destro, confabula una narrazione pur di non interrompere il flusso del discorso.
Comprendere l’architettura Transformer significa smettere di cercare un “fantasma nella macchina” e cominciare a vedere questi strumenti per ciò che sono: protesi cognitive e statistico-linguistiche. Non stiamo assistendo alla genesi di una nuova forma di vita, ma al trionfo di una matematica capace di mappare, calcolare e replicare la forma più alta della nostra evoluzione biologica: la parola.
Bibliografia Essenziale
- Hirstein, W. (2005). Brain Fiction: Self-Deception and the Riddle of Confabulation. MIT Press. (Testo fondazionale per l’inquadramento neuropsicologico della confabulazione e del “riempimento” narrativo.)
- Smith, M., Greaves, F., & Panch, T. (2023). “Hallucination or Confabulation? Neuroanatomy as Metaphor in Large Language Models”. PLOS Digital Health, 2(11). (Studio cruciale che decostruisce il termine “allucinazione” applicato all’AI, proponendo il parallelo clinico con la confabulazione.)
- Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). “Attention Is All You Need”. Advances in Neural Information Processing Systems, 30. (Il paper scientifico originale di Google che ha introdotto l’architettura Transformer e il meccanismo della Self-Attention.)
![]()






0 commenti