Negli ultimi anni l’ingresso dell’intelligenza artificiale (AI) nei contesti sanitari ha aperto interrogativi rilevanti anche per la psichiatria e la psicoterapia. Se in medicina l’AI viene spesso associata a diagnosi predittive e analisi di dati, nel lavoro psicoterapeutico la questione è più delicata: come integrare strumenti tecnologici senza ridurre la complessità della relazione clinica e senza delegare alla macchina funzioni che restano intrinsecamente umane?
In questo contesto si inserisce il Metodo_SADAR, ideato dalla psicoterapeuta Sabrina Signorini con la collaborazione del Dott. Walter Paganin (1). Il modello Sadar già presentato in ambito scientifico internazionale, è stato recentemente discusso anche in Italia, in occasione del congresso della Società Italiana di Psicopatologia (SOPSI) e verrà trattato a Pisa in occasione del XV Convegno Nazionale di Neuroscienze, Neuropsicologia e Psicoterapia il 28 Marzo.
Dalle prime IA ai modelli linguistici generativi
Per comprendere il senso di queste applicazioni è utile ricordare, in sintesi, l’evoluzione dell’intelligenza artificiale. I primi sistemi conversazionali risalgono agli anni Sessanta, quando Joseph Weizenbaum sviluppò ELIZA, un programma capace di simulare un dialogo attraverso semplici regole linguistiche (2). Pur non comprendendo realmente il contenuto delle frasi, ELIZA suscitò reazioni emotive intense negli utenti, mostrando quanto facilmente si possa attribuire comprensione e intenzionalità a una macchina. Negli ultimi anni, con l’avvento dei large language models (LLM), l’AI ha acquisito una capacità generativa molto più sofisticata. Questi modelli sono in grado di produrre testi coerenti e contestuali e vengono utilizzati in numerosi ambiti, inclusa la salute mentale. In psichiatria l’AI è sperimentata per analisi predittive e valutazioni di rischio, mentre in psicoterapia si stanno esplorando applicazioni come chatbot psicoeducativi, strumenti di formazione e supporti alla supervisione. Tuttavia, la questione centrale non riguarda solo ciò che l’AI può fare, ma come il suo utilizzo influenzi il pensiero clinico e la responsabilità del terapeuta.
Il pensiero clinico dopo la seduta
In tutti gli orientamenti psicoterapeutici, il controtransfert e la riflessività del terapeuta sono riconosciuti come elementi centrali del lavoro clinico. La supervisione rappresenta tradizionalmente lo spazio privilegiato in cui le ipotesi vengono rielaborate e rese esplicite (3). Nella pratica quotidiana, tuttavia, il tempo tra una seduta e l’altra resta spesso affidato a processi informali di ruminazione o a intuizioni non sempre strutturate.
È proprio in questo spazio che nasce il metodo SADAR (Sistema Autoesplorativo Dialogico Autentico Relazionale). Il dispositivo propone un uso circoscritto dell’intelligenza artificiale non come strumento diagnostico né come interlocutore del paziente, ma come supporto metacognitivo per il terapeuta nella fase successiva alla seduta.
Un “terzo metacognitivo”
Il metodo si ispira al concetto di “terzo” nella relazione terapeutica, evolutosi in ambito psicoanalitico e sistemico come elemento che favorisce decentramento e pluralità di ipotesi (4); (5). Il Metodo_SADAR introduce un “terzo metacognitivo” tecnologico, utilizzato in modo limitato e strutturato per stimolare il pensiero clinico.
Il nucleo operativo è la griglia 3 2 1:
• tre contro ipotesi rispetto alla lettura dominante del caso;
• due rischi o costi del mantenimento di quell’ipotesi senza verifica;
• un passo osservabile per la seduta successiva.
L’intero processo richiede pochi minuti e viene utilizzato esclusivamente dopo la seduta, su materiale clinico de identificato. L’obiettivo non è produrre interpretazioni “corrette”, ma introdurre un attrito epistemico che renda il ragionamento del terapeuta più esplicito, discutibile e rivedibile, tenendo in considerazione anche possibili bias di collusione interpretativa (gentle collusion).
Risultati preliminari
Le prime osservazioni derivano da uno studio esplorativo basato su circa venti riflessioni post seduta relative a otto casi clinici. I risultati, ancora preliminari e non generalizzabili, indicano:
• maggiore distinzione tra vissuto emotivo del terapeuta e formulazione clinica;
• riduzione della rigidità interpretativa;
• incremento della tolleranza dell’incertezza;
• produzione di materiali utili alla supervisione.
In alcuni casi il dispositivo ha anche evidenziato i propri limiti, favorendo la sospensione dell’uso e il ricorso alla supervisione umana, confermando il suo statuto di supporto e non di sostituzione.
Confabulazione artificiale e collusione interpretativa
In un recente contributo su Psichiatria Online Italia, si propone di descrivere l’errore dei LLM non come “allucinazione”, ma come confabulazione: produzione di narrazioni coerenti in assenza di un ancoraggio alla realtà (6). L’AI, priva di intenzionalità e di principio di realtà, tende a riempire il vuoto informativo privilegiando la fluidità sintattica rispetto alla verificabilità fattuale. Se questo rischio riguarda la macchina per ragioni strutturali, una dinamica in parte analoga, sebbene profondamente diversa sul piano soggettivo, può emergere anche nel pensiero clinico. Di fronte all’incertezza o all’angoscia generata da una seduta complessa, il terapeuta può consolidare un’ipotesi interpretativa narrativamente plausibile ma non sufficientemente sottoposta a verifica. In questa prospettiva, la “collusione gentile” non coincide con un errore evidente, bensì con una chiusura prematura del processo interpretativo: una formulazione coerente che riduce l’attrito epistemico e attenua l’incertezza. Il dispositivo SADAR si propone di introdurre consapevolmente un momento di frizione riflessiva, rendendo il pensiero più esplicito, discutibile e rivedibile.
Una tecnologia “umanizzante”?
Gli autori propongono l’ipotesi di una possibile “tecnologia umanizzante”: non uno strumento che automatizza la cura, ma un dispositivo che rende più osservabile il processo di pensiero del terapeuta. In questa prospettiva, l’AI non interviene sul paziente, ma sul livello metacognitivo del clinico, contribuendo a mantenere aperto il processo interpretativo e a contrastare la chiusura prematura delle ipotesi. Tale prospettiva richiede tuttavia ulteriori verifiche metodologiche ed etiche. Restano centrali questioni quali la governance dei dati, la formazione all’uso degli strumenti, la trasparenza del processo e il mantenimento della responsabilità clinica in capo al professionista.
Conclusioni
L’ingresso dell’intelligenza artificiale nella salute mentale non è più un’ipotesi futura ma una realtà in evoluzione (7). Accanto alle applicazioni più tecniche e diagnostiche, stanno emergendo strumenti che mirano a sostenere la riflessività dei clinici. Il metodo SADAR rappresenta uno di questi tentativi: un dispositivo che utilizza l’AI non per sostituire il terapeuta, ma per aiutarlo a pensare meglio.
La sfida, per la psichiatria e la psicoterapia contemporanee, non è scegliere tra tecnologia e relazione, ma comprendere come integrare strumenti diversi mantenendo al centro la complessità dell’incontro clinico e la responsabilità umana.
References
1. Signorini S., Paganin W. AI as the “third in the room”: SADAR as a reflective post-session device for therapists. In: Vol2 No 2 (2025): Abstract Book of the 3rd Global Conference on Psychology. Oxford; 2025. ISBN: 978-1-914266-06-5
2. Weizenbaum, J. ELIZA. A Computer Program for the Study of Natural Language Communication Between Man and Machine. Communications of the ACM, (1966). 9(1), 36–45. https://doi.org/10.1145/365153.365168
3. BionWR, editor. Attention and Interpretation. Routledge; 2013. Available from: https://www.taylorfrancis.com/books/9781136440410
4. Ogden TH. The Analytic Third: Working with IntersubjectiveClinical Facts. In: Subjects of Analysis. 1st ednRoutledge; 2018. p. 61–95. Available from: https://www.taylorfrancis.com/books/9780429905285/chapters/10.4324/9780429480515-5
- LysakerPH, GagenE, Moritz S, Schweitzer R. Metacognitive approaches to the treatment of psychosis: a comparison of four approaches. PRBM. 2018 Sept; Volume 11:341–51.
- Bollorino F. AI: il confabulatore perfetto. Genesi, fenomenologia e psicopatologia delle “allucinazioni” artificiali nel confronto col modello umano. Psichiatria Online Italia, 24 febbraio 2026. Disponibile su: https://www.psychiatryonline.it/life-on-line/ai-il-confabolatore-perfetto/
- Al-Fattal A. You Do It, AI Does It, You Compare and Reflect: Exploring Reflective Learning With Generative AI in Principles of Marketing. Journal of Marketing Education. 2025 July28; https://doi.org/10.1177/02734753251356691
![]()






0 commenti