Percorso: Home 9 Le Rubriche 9 Editoriale 9 Intelligenza artificiale e salute mentale: prevenzione sì, sorveglianza no

Intelligenza artificiale e salute mentale: prevenzione sì, sorveglianza no

22 Dic 25

A cura di Francesco Bollorino Redazione

Un’etica della cura che mette al centro dignità, trasparenza e consenso

Nota redazionale (per lettrici e lettori non specialisti)

Questo editoriale usa in modo chiaro alcune sigle e riferimenti normativi:
• GDPR: è la legge europea che tutela i dati personali, con regole più severe per i dati di salute (Regolamento UE 2016/679).
• AI Act: è la nuova legge europea che regola l’uso dell’IA misurando i rischi; vieta pratiche pericolose e impone requisiti ai sistemi ad alto rischio (Regolamento UE 2024/1689).
• WHO/OMS: l’Organizzazione Mondiale della Sanità; propone principi etici per l’IA in sanità (autonomia, sicurezza, trasparenza, responsabilità, inclusione, sostenibilità).
• OCSE/OECD: organismo internazionale che ha definito principi per un’IA affidabile (diritti, spiegabilità, robustezza, accountability).
• Rome Call for AI Ethics: appello internazionale per un’IA antropocentrica (trasparenza, inclusione, responsabilità, imparzialità, affidabilità, sicurezza e privacy).
Questi riferimenti servono a rendere l’IA uno strumento di prevenzione e cura, non di sorveglianza.

L’Intelligenza Artificiale (IA) in salute mentale: contesto e posta in gioco

L’IA è parte del paesaggio della salute mentale: analizza linguaggi e silenzi online, alimenta chatbot di sostegno, aiuta triage digitali e “fenotipi” costruiti dalle nostre tracce d’uso (digital phenotyping), così da intercettare prima segnali di disagio. La promessa è allettante: più accesso, scalabilità, personalizzazione. Ma in Europa e in Italia il punto decisivo è etico e giuridico: la prevenzione algoritmica ha bisogno di dati molto intimi; la dignità e la privacy impongono confini chiari alla raccolta e all’uso dei dati. La domanda non è se usare l’IA, ma come farlo senza tradire i principi della cura.

Cosa fa davvero l’IA in psichiatria (oltre l’hype)

Tre impieghi sono già concreti:
• Analisi del comportamento digitale: modelli linguistici e sistemi di apprendimento osservano parole, frequenza dei post e pause prolungate; stimano rischio depressivo o suicidario prima della diagnosi clinica. Potenzialità di interpretabilità e predizione sono documentate, ma dipendono dalla qualità dei dati e dalla lingua/contesto (in italiano la ricerca è meno matura).
• Integrazione di Big Data sanitari: cartelle cliniche elettroniche, app, indossabili e diari emotivi confluiscono in modelli predittivi per diagnosi e percorsi personalizzati; l’IA non sostituisce il clinico, funge da assistente che segnala pattern e anomalie.
• Chatbot e telepsicologia: strumenti conversazionali offrono psicoeducazione e coping, riducendo barriere d’accesso e stigma, ma hanno bisogno di supervisione clinica e limiti chiari per non banalizzare la sofferenza.

Due parole chiare su GDPR e AI Act (cosa sono, in pratica)

GDPR (Regolamento UE 2016/679): è la legge europea che tutela i dati personali. In sostanza: la persona viene prima dei dati. Considera la salute (incluso il benessere mentale) “categoria speciale” da proteggere con regole più severe (art. 9), chiede consenso esplicito o basi giuridiche adeguate, prescrive minimizzazione, proporzionalità, privacy by design e diritti chiari per l’interessato.

AI Act (Regolamento UE 2024/1689): è la prima legge al mondo che regola l’IA con un approccio basato sul rischio: rischio inaccettabile (pratiche vietate, es. social scoring, manipolazione subliminale), alto rischio (requisiti stringenti e supervisione umana, es. molte applicazioni sanitarie), rischio limitato (obblighi di trasparenza, es. chatbot, deepfake), rischio minimo (senza obblighi speciali). Dal 2 febbraio 2025 sono scattati i primi divieti e i requisiti di alfabetizzazione all’IA; dal 2 agosto 2025 iniziano gli obblighi per i modelli di IA di uso generale; molte disposizioni si applicheranno progressivamente fino al 2026–2027. L’AI Act vale anche per tecnologie create fuori UE se usate in Europa.

In sintesi: il GDPR regola come si trattano i dati (soprattutto quelli sensibili), l’AI Act regola come si progettano e usano i sistemi di IA, misurando e limitando i rischi.

Il “paradosso europeo”: più etica, meno dati?

In Europa (e in Italia) la tutela è alta: GDPR e AI Act difendono privacy, trasparenza e controllo umano. Nasce però un paradosso: senza dataset ricchi e rappresentativi, gli algoritmi predittivi possono essere meno accurati o più distorti. La soluzione non è l’eccezione sanitaria come scorciatoia, né la resa tecnologica. Serve un’architettura etica: consenso informato dinamico (processo aggiornabile), anonimizzazione/pseudonimizzazione robuste e minimizzazione dei dati, audit indipendenti su bias e prestazioni, scopi limitati alla cura e divieto di profilazione commerciale sul disagio psichico.

Giovani, piattaforme e algoritmi: la frontiera più delicata

I ragazzi vivono su piattaforme che misurano e modellano l’attenzione. Dati WHO/Europa (HBSC) mostrano aumento di uso problematico dei social e rischio di gaming problematico, con impatti su sonno e benessere. Servono alfabetizzazione digitale e ambienti online più sani. Indagini indipendenti documentano come algoritmi di raccomandazione possano trascinare i più giovani in spirali di contenuti dannosi (autolesionismo, romanticizzazione del suicidio) in pochi minuti: è un tema di salute pubblica e di responsabilità di piattaforma.

Italia e il confronto internazionale: un ritardo che pesa

Mentre Stati Uniti e Regno Unito sperimentano da anni chatbot clinici (es. Woebot, SimSensei) e sistemi predittivi integrati nei servizi pubblici, l’Italia è ancora in fase pilota. Le barriere principali sono infrastrutturali (assenza di data trust e piattaforme interoperabili), culturali (diffidenza verso la raccolta dati, timore di violare il GDPR) e organizzative (scarsa formazione digitale dei clinici).
Nei Paesi nordici, l’IA è già usata per
triage automatizzato e monitoraggio del rischio suicidario con protocolli validati; in Italia prevalgono progetti sperimentali frammentati, senza un piano nazionale. Questo gap rischia di ampliare le disuguaglianze: chi vive in contesti con servizi digitali evoluti accede a prevenzione precoce, chi è in sistemi arretrati resta indietro. La sfida è politica e professionale: investire in infrastrutture etiche e formazione per non trasformare la prudenza in immobilismo.

Un’etica della cura, non dell’automatismo: la bussola, spiegata semplice

WHO/OMS (Organizzazione Mondiale della Sanità): propone sei principi pratici per usare l’IA in salute senza “automazione senza cura”: Autonomia (controllo delle decisioni alla persona e al clinico), Benessere/Sicurezza (l’IA deve ridurre il rischio), Trasparenza (capire cosa fa e perché), Responsabilità (qualcuno risponde sempre degli effetti), Inclusione/Equità (niente discriminazioni: l’IA deve funzionare per tutti), Sostenibilità (uso sostenibile nel tempo). Applicarli significa progettare sistemi che servono la cura, non sorvegliano i pazienti.

OCSE/OECD: i Principi per un’IA affidabile aiutano ad allineare pratica clinica, politiche e tecnologia: Diritti umani e valori democratici (privacy, equità), Trasparenza e Spiegabilità (informazioni comprensibili su dati e logica), Robustezza/Sicurezza/Affidabilità (sistemi resilienti), Accountability (responsabilità di chi sviluppa e usa).

Rome Call for AI Ethics: appello internazionale per un’IA antropocentrica. In parole semplici: Trasparenza, Inclusione, Responsabilità, Imparzialità (niente bias), Affidabilità, Sicurezza e Privacy. Non è una legge, ma un patto culturale-professionale per tradurre l’etica in pratica quotidiana accanto alle norme.

In concreto, per la psichiatria: se un algoritmo segnala un rischio suicidario, non decide terapie o restrizioni; attiva una valutazione clinica, spiega come è arrivato all’allerta, documenta limiti ed errori possibili, evita discriminazioni e tutela la privacy.

Dieci scelte pratiche per DSM, servizi e comunità professionale

1) Data governance etica: creare data trust sanitari con comitati etici misti (clinici, giuristi, utenti) che autorizzano raccolte proporzionate e finalizzate alla cura; audit pubblici su bias e performance.
2) Consenso dinamico e chiaro: spiegare quali dati, perché, per quanto e con quali tutele; ritiro del consenso semplice e senza ripercussioni sull’accesso ai servizi.
3) Minimizzazione e anonimizzazione: raccogliere solo ciò che serve, con pseudonimizzazione robusta; evitare raccolte massive “nel dubbio”.
4) Supervisione umana: nessuna decisione clinica ad alto impatto deve essere automatizzata; l’IA segnala, la relazione terapeutica decide.
5) Sperimentazioni controllate: studi pilota su monitoraggio digitale e chatbot con endpoint clinici e valutazione economica; no adozioni “per moda”.
6) Prevenzione giovani: patto scuola–DSM su alfabetizzazione digitale, protocolli di segnalazione e supporto rapido; formazione docenti sui rischi algoritmici.
7) Trasparenza verso i pazienti: spiegare in modo comprensibile come funzionano i sistemi (dati, logica, limiti, errori); la spiegabilità è condizione di fiducia.
8) Comunicazione pubblica: presidiare media e piattaforme con rubriche verificate; contrastare disinformazione su diagnosi e trattamenti; segnalare responsabilmente contenuti virali su autolesionismo/suicidio.
9) Formazione dei clinici: data literacy, privacy, comunicazione online, uso terapeutico degli strumenti digitali; corsi e MOOC istituzionali.
10) Allineamento internazionale: usare quadri WHO e OCSE per rendere interoperabili le scelte italiane (etica, sicurezza, inclusione), migliorando qualità e comparabilità delle evidenze.

Conclusione: la tecnologia è un mezzo, la cura è un incontro

L’IA amplia l’orecchio della cura, ma non sostituisce la mano che accompagna. In un tempo di iperconnessione e affaticamento mentale, il compito della psichiatria è tenere insieme prevenzione e dignità: raccogliere solo ciò che serve, spiegare come lo usiamo, restituire alla persona il potere di scegliere. La sofferenza mentale non è un dataset: è una relazione. E le relazioni, anche quando sono sostenute dalla tecnologia, restano umane.

Glossario essenziale

Dati personali: informazioni su una persona identificata/identificabile (nome, voce, abitudini digitali).
• Categoria speciale: dati “sensibili” (es. salute), protetti da regole più severe (art. 9 GDPR).
• GDPR: legge UE che tutela dati e diritti; richiede basi giuridiche, minimizzazione, trasparenza.
• AI Act: legge UE che regola l’IA in base al rischio; vieta pratiche pericolose e impone requisiti per sistemi ad alto rischio.
• Explainability: capacità di capire come e perché l’IA produce un output (condizione di fiducia).
• Digital phenotyping: uso di tracce digitali (linguaggio, ritmi, app) per inferire stati psicologici e rischi clinici.

Bibliografia

Amnesty International. (2023, November 7). Driven into Darkness: How TikTok’s “For You” Feed Encourages Self-Harm and Suicidal Ideation. https://www.amnesty.org/en/documents/pol40/7350/2023/en/

European Commission. (2025). Artificial Intelligence — Key achievements and AI Act rollout. https://commission.europa.eu/topics/artificial-intelligence_en

European Data Protection Supervisor. (2025). Health data and GDPR safeguards. https://www.edps.europa.eu/data-protection/our-work/subjects/health_en

European Union. (2016). Regolamento (UE) 2016/679 (GDPR). https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32016R0679

EU Digital Strategy. (2025). AI Act — Risk-based framework for trustworthy AI. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

ArtificialIntelligenceAct.eu. (2024–2025). AI Act implementation timeline. https://artificialintelligenceact.eu/implementation-timeline/

HBSC/WHO Regional Office for Europe. (2024, September 25). Teens, screens and mental health. https://www.who.int/europe/news/item/25-09-2024-teens–screens-and-mental-health

OECD. (2024). OECD AI Principles overview. https://oecd.ai/en/ai-principles

Pontifical Academy for Life. (2020). Rome Call for AI Ethics: Principles. https://www.romecall.org/the-call/

WHO. (2021). Ethics & governance of artificial intelligence for health. https://www.who.int/publications/i/item/9789240029200

WHO. (2025). Guidance on large multi modal models for health. https://www.who.int/publications/i/item/9789240084759

Charles Russell Speechlys. (2025, February 17). EU AI Act: Key provisions now in force. https://www.charlesrussellspeechlys.com/en/insights/expert-insights/tmt/2025/eu-ai-act-key-provisions-now-in-force/

Loading

Autore

0 commenti

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Caffè & Psichiatria

Ogni mattina alle 8 e 30, in collaborazione con la Società Italiana di Psichiatria in diretta sul Canale Tematico YouTube di Psychiatry on line Italia