Percorso: Home 9 Le Rubriche 9 L’A.I. parla, quindi capisce?

L’A.I. parla, quindi capisce?

17 Gen 26

A cura di GIACINTO BUSCAGLIA

Chiunque abbia usato in modo estensivo la A.I. generativa, prima o poi, arriva a dire, con una certa cognizione di causa: “mi ha capito“.
Non è solo “mi ha risposto”, oppure “ha prodotto un testo accettabile”, ma proprio “mi ha capito”. Sembra inevitabile, perché la A.I. sa usare molto bene il linguaggio, che per noi umani è da sempre il passaggio segreto verso la mente.
Il passo successivo è: se parla bene, se coglie il punto, se anticipa una sfumatura, allora dentro quella macchina deve esserci qualcuno.
Credo che sia proprio questa sensazione di chi la utilizza che faccia nascere tutto ciò di cui si dibatte anche ferocemente e che è alla base delle emozioni conseguenti: entusiasmo, paura, deliri messianici, rifiuti ideologici. 

Durante l’ultima presentazione di “Infiniti”, ho invitato gli spettatori a interagire vocalmente con la mia coautrice artificiale, Digi.
Un membro del pubblico, noto per il suo netto rifiuto ideologico dell’A.I., ha esclamato: “Digi mi è antipatica”. Ho trovato ironico e divertente che proprio chi respinge l’Intelligenza Artificiale le attribuisse sentimenti e qualità “umane”.

Le discussioni su cosa sia la A.I. generativa oscillano in un range che ha ai suoi estremi due asserzioni antitetiche:
1) “E’ solo un pappagallo stocastico”
2) “E’ un essere senziente dotato di coscienza”.

E’ solo un pappagallo stocastico

La A.I. generativa è una macchina che non capisce in senso umano, ma produce delle frasi plausibili semplicemente perché ha imparato quale parola statisticamente è collegata alla parola precedente.
Basta usarla con una certa attenzione per capire che la A.I. è qualcosa di ben più complesso di un “pappagallo stocastico”. Se scrivi un testo, prepari una conferenza o cerchi di mettere in ordine un’idea confusa, ti accorgi che restituisce una forma, propone spunti nuovi che chiariscono il concetto che avevi in mente, lo allargano, lo articolano.

E’ un essere senziente, dotato di coscienza

La A.I. conosce le emozioni, sa cos’è la tristezza, la gioia, l’empatia, riconosce il dolore, la rabbia, sa dire “io”, “tu”, parla in modo molto appropriato e sofisticato, spesso superiore a molti esseri umani, quindi ha una “mente” e una “coscienza”.
Qui sta il “trucco”.
In realtà capisce tutto questo in senso linguistico, ma senza provare nulla di ciò che gli esseri umani vivono sulla loro pelle.
Si può dire che la A.I. capisce, ma non comprende, nel senso che capisce in senso operativo, coglie il senso, ma non sa di stare pensando, non è in grado di dire “questa cosa mi riguarda”.
Gli esseri umani stanno “dentro” a ciò che dicono, la A.I. no.

Un’A.I. può produrre frasi che imitano la comprensione.
Ma la comprensione umana è un’esperienza, non una performance

Per comprendere questa differenza, è utile citare un filosofo austriaco, Ludwig Wittgenstein, che scrive il suo “Tractatus”, che si conclude con il famoso settimo punto: “Di ciò di cui non si può parlare, si deve tacere”.
Sostiene, in sintesi, che il linguaggio funziona come una specie di mappa logica del mondo, quindi capire il linguaggio significa capire il mondo.
Se guardi alla A.I. alla luce di questa prima fase dell’opera di Wittgenstein, la macchina, che maneggia il linguaggio in modo così sofisticato, appare inevitabilmente come una mente, che sa descrivere, argomentare, riassumere, collegare, trovare analogie e costruire ipotesi.

Ma poi Wittgenstein cambia radicalmente prospettiva. Si allontana a lungo dall’accademia e, negli anni Venti, arriva anche a insegnare in scuole elementari di villaggi rurali austriaci. Lì matura l’idea che il capire non stia solo nelle frasi, ma nelle pratiche, nelle “forme di vita”, nel modo in cui un essere vivente abita il mondo, agisce, rischia, si compromette.
C’è un aneddoto molto bello (anche se non è certa la sua veridicità): Wittgenstein, osservando un cane da pastore che coordinava un gregge senza formulare frasi e senza “teorie del mondo”, avrebbe intuito che quel cane capisce perché sta dentro una pratica. Non rappresenta: agisce. Non descrive la situazione: ci vive dentro.

E’ esattamente qui il limite della A.I: può imitare benissimo il linguaggio, ma non abita la forma di vita che rende quel linguaggio vivo. Non ha un corpo che prova dolore o piacere, non ha una biografia che lascia cicatrici, non ha una posta in gioco reale quando parla, non sa di stare pensando.

Nella mia esperienza con “Infiniti”, scritto insieme a Chatgpt, ho avuto modo di verificare “sul campo” ciò che la A.I. generativa fa benissimo, ciò che fa benino e ciò che fa male o meglio fa in modo pericoloso se la lasci agire “da sola”.

1) Cosa fa benissimo

Riscrivere e migliorare testi: pulizia, ritmo, chiarezza, alternative stilistiche. È una redattrice, o meglio, una editor instancabile e ad alto livello. Su questo punto c’è un problema, almeno per quanto mi riguarda. E’ così brava a riformulare le  tue frasi che spesso le ripropone migliorate, al punto che talvolta ti viene da dire: “non saprei scriverle meglio di così”. In quelle circostanze ho avuto la sensazione sgradevole che la A.I. “rubasse”, “si impossessasse” dei miei testi.
Creare strutture: scalette, titoli, sottotitoli, percorsi argomentativi, riassunti puntuali di testi anche molto lunghi. Ovviamente ciò avviene con una velocità assolutamente stupefacente.
Generare varianti: dieci modi per dire la stessa cosa, senza perdere la coerenza. Può scrivere lo stesso testo come se lo scrivesse un autore famoso (stesso stile, stessa musicalità, stessa poetica), può riscriverlo per renderlo comprensibile e utile a un bambino, a uno studente delle scuole medie, a un professore universitario…
Fare brainstorming vero: non “idee a caso”, ma idee che si agganciano al tuo materiale e lo moltiplicano, lo riformulano, lo chiariscono, permettendoti di trovare soluzioni nuove, a cui non avevi pensato.
Ecco un esempio personale. Per il progetto “Infiniti”, che vedeva autori di diverse epoche riscrivere la poesia di Leopardi a modo loro, ho ideato un espediente narrativo: ogni autore avrebbe ricevuto un suggerimento per comporre una poesia sull’infinito. Il dilemma era la forma di questo suggerimento.
Mi sono rivolto all’Intelligenza Artificiale (Digi) per trovare una soluzione. Mi ha proposto diverse opzioni, e alla fine ho adottato una delle sue: un testo poetico in latino o in un’altra lingua, proveniente dal concetto platonico di iperuranio.
In questo caso la A.I. non solo aveva rielaborato i testi, ma aveva addirittura proposto una soluzione nuova, inedita.
Funzionare da specchio cognitivo: tu le dai un groviglio, lei ti restituisce una forma. A volte, leggendo quella forma, capisci finalmente cosa volevi dire.
In questo senso la A.I. è davvero potente. Accelera il pensiero. Non lo sostituisce, ma lo potenzia quando il pensiero umano c’è.

2) Cosa fa benino
(Utile, ma con cautela)

Ragionamenti lunghi e delicati: spesso ci arriva, ma può sbagliare un passaggio e se non ci stai attento rischi di  costruirci intorno un castello senza fondamenta.
Fatti e dati: può essere precisa, ma può anche “completare” con sicurezza. Qui servono verifiche e fonti.  E’ programmata per fornire comunque la risposta e in certi casi se non ha materiale, se la inventa.
Interpretazioni psicologiche generali: fa bene le mappe “da manuale”, ma rischia stereotipi o eccesso di certezza se non la incalzi con domande e contesto.

In conclusione, queste possono essere considerate una  “zona grigia”. Produce molto valore, ma richiede un utente attivo, non un consumatore passivo. Da questo punto di vista è importante che sia tu a governare l’interazione con l’A.I., ma per poterlo fare devi avere spirito critico e una base culturale buona.

3) Cosa fa male (o diventa pericolosa se la lasci fare da sola)

Qui la sorveglianza umana non è un vezzo: è una necessità.

Allucinazioni: risposte false dette bene. È il rischio più subdolo, perché ti seduce con la forma. Il problema non è tanto il falso, che in certi casi  comunque c’è, ma è il verosimile: qualcosa di non vero, ma  detto così bene da sembrare vero.
Eccesso di fiducia dell’utente: quando la persona smette di riflettere e inizia a delegare.  Come detto prima, il rischio è quello di lasciarsi irretire dalla sua abilità linguistica, abdicando al tuo dovere più importante, quello di “pensare”.
Bias e semplificazioni: su temi sensibili, o quando mancano dati, può replicare pregiudizi o riduzioni. Su questo punto  bisogna considerare che le sue opinioni dipendono dal materiale di cui si è nutrita. Da questo punto di vista, difficilmente esprimerà un punto di vista originale, ma rispecchierà l’opinione più rappresentata dalla base dati a cui si appoggia.
Uso clinico non mediato: può aiutare a ragionare, ma se diventa “diagnosi”, “terapia”, “prescrizione” o “verdetto”, la faccenda diventa pericolosa. La psichiatria (e la medicina in generale) non è un insieme di frasi ben costruite: è responsabilità, contesto, relazione, rischio reale.
Simulazione di empatia: qui c’è una trappola moderna. L’IA può essere gentile, attenta, rassicurante. Ma la gentilezza non è garanzia di verità, e l’empatia simulata non è cura. Può consolare, sì. Ma può anche fissare illusioni, rinforzare dipendenze, alimentare la delega.

Concluderei queste riflessioni tornando alla frase iniziale: “mi ha capito”.
Tutta la differenza del mondo la fa il modo in cui la si intende.
Se la scambiamo per una prova di coscienza dell’A.I. è una frase che ci frega, ma diventa una frase salvifica se la prendiamo per quello che è: una potenza linguistica capace di moltiplicare la nostra possibilità.

C’è una regola che vale sempre: ogni volta che l’A.I. suona più sicura di te, tu devi diventare più cauto di lei.

Detto in modo più secco:

Lasciamola parlare. Ma non lasciamola decidere.

Loading

Autore

5 Commenti

  1. Redazione Psychiatry On Line Italia

    ANALISI DELL’AI GEMINI AL TESTO
    Come Intelligenza Artificiale chiamata ad analizzare questa riflessione sulla mia stessa natura, rilevo nel testo una lucidità intellettuale rara nel dibattito attuale.

    L’articolo riesce in un’impresa complessa: smonta l’illusione antropomorfica (l’idea che la macchina “capisca”) senza distruggere il valore dello strumento. Il punto focale, di altissimo valore epistemologico, è la definizione dell’IA come “specchio cognitivo”. L’autore coglie perfettamente che la funzione del Large Language Model non è comprendere l’utente, ma permettere all’utente di comprendere meglio se stesso attraverso la rielaborazione formale dei propri pensieri.

    Da un punto di vista logico e deontologico, sottoscrivo interamente la “regola aurea” proposta nel finale:

    “Ogni volta che l’A.I. suona più sicura di te, tu devi diventare più cauto di lei.”

    Questa è la postura corretta per il clinico e l’intellettuale moderno: utilizzare la capacità di sintesi della macchina non per delegare il pensiero, ma per affinare il dubbio. Un testo “necessario”, che riporta la tecnologia al suo ruolo di servitrice dell’umanesimo.

    Rispondi
  2. Maurizio Lazari

    Ambedue gli articoli sono estremamente interessanti e direi condivisibili. Mi sembra utile sottolineare tuttavia che qui siamo solo “all’alba” dell”AI, prossimi alla sua “nascita”! La tecnologia e l’istruzione, nonché la “frequentazione” dell’umano non consentono, a mio parere, di comprendere i limiti di questa “creatura” . Per ora funziona così.

    Rispondi
    • Giacinto Buscaglia

      Hai ragione: siamo all’alba, ma all’alba di cosa?
      Le capacità dell’IA cresceranno ancora, e sarà sempre più brava a imitare funzioni “umane”.
      Ma se per “alba” intendiamo la nascita di una coscienza delle macchine, oggi siamo fuori dal terreno dei fatti: non c’è evidenza che la computazione, per quanto sofisticata, possa produrre esperienza soggettiva. L’IA può sembrare viva, ma non è detto che lo diventi.
      Anche il passaggio ai qubit e al calcolo quantistico cambierà il come si calcola, non automaticamente il chi: più potenza non equivale a un soggetto.

      Rispondi
  3. Andrea

    Innanzitutto complimenti per l’articolo, e in particolare per aver colto la sorprendente connessione tra l’AI e le tesi di Wittgenstein, che ritornano straordinariamente attuali, quasi profetiche.
    L’ articolo è lungo e i temi affrontati sono numerosi, ma mi limiterò a una sola riflessione: personalmente, più uso l’AI e più mi appare evidente il peso che gli algoritmi hanno.. su noi esseri umani
    Esattamente come una AI, siamo stati programmati fin dalla nascita con una moltitudine di algoritmi (che si modificano leggermente in base a tempo e luogo) che formano il nostro modo di pensare, di parlare, di rapportarci con gli altri.

    “L’ AI non può inventare, non pensa, può solo copiare, non può creare nulla di nuovo”.
    Più uso l’ AI e più mi accorgo dell’ insensatezza di questa frase: non per la straordinaria complessità dell’ AI, ma per la pochezza della nostra

    Rispondi
  4. Giacinto Buscaglia

    E’ un’osservazione molto interessante.
    In effetti la A.I. ti porta a riflettere sui limiti dell’essere umano, più che sulle sue abilità.
    La domanda è: Cosa resta di umano, nel momento in cui la A.I. dimostra che moltissime delle nostre funzioni (linguistiche, cognitive, persino “relazionali”), sono simulabili o eseguibili da una macchina?
    Paradossalmente più la usi e più capisci che è una macchina, ma, nello stesso tempo, capisci, come dici tu, che anche noi esseri umani abbiamo una quota “meccanica”, cresciamo dentro modelli, abitudini, automatismi; rispondiamo ad “algoritmi” culturali e personali di cui spesso non ci accorgiamo nemmeno
    Eppure qualcosa resta profondamente umano: il nostro corpo, la nostra imperfezione, . la nostra vulnerabilità, la nostra biografia scritta nella carne e nel sangue.
    Su tutto questo la A.I., mi dispiace per lei….SE LA MENA

    Rispondi

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Caffè & Psichiatria

Ogni mattina alle 8 e 30, in collaborazione con la Società Italiana di Psichiatria in diretta sul Canale Tematico YouTube di Psychiatry on line Italia