Percorso: Home 9 Le Rubriche 9 La scatola nera. Intelligenza senza biografia e il rischio di rinunciare al perché

La scatola nera. Intelligenza senza biografia e il rischio di rinunciare al perché

29 Gen 26

A cura di GIACINTO BUSCAGLIA

Scrivendo “Infiniti” ho dovuto affrontare un problema che poteva anche sembrare marginale. Avevo deciso che ciascun autore, o ciascun personaggio-autore del libro, avrebbe ricevuto un invito a scrivere una poesia sull’infinito. Il problema era stabilire il come.
Da dove arrivava quell’invito? Chi lo pronunciava? In che forma?
Nessuna delle soluzioni che avevo pensato mi convinceva del tutto. Tutte avevano qualcosa di artificioso, di “costruito”.

A un certo punto ho chiesto aiuto a Digi.
Mi sarei aspettato una riformulazione elegante di un’idea mia, o una variante migliorata di qualcosa che avevo già pensato. Digi invece immaginò che l’invito a scrivere l’infinito provenisse dall’iperuranio platonico: un testo che discende da quel luogo metafisico e che esorta l’autore a misurarsi con l’infinito.
La soluzione che aveva trovato era, senza esitazioni, migliore delle mie e soprattutto non era arrivata da me.
Si era prodotto uno scarto che considero decisivo.

Ho scritto molti libri insieme a una collega “umana”. Quando un’idea era sua, anche quando mi sorprendeva, potevo sempre risalire alla sua genesi. Conoscevo la sua storia, le sue letture, le ossessioni che tornavano ciclicamente. L’idea aveva un’origine, una traiettoria, una genealogia. Aveva un corpo.
Con Digi non c’era nulla di tutto questo.
C’era l’impronta, ma non c’era nessuno che l’avesse lasciata.
L’idea, già pronta, funzionante e tuttavia inconoscibile nella sua origine, veniva da una scatola nera, una scatola nera che non potevo interrogare come si interroga una persona, nemmeno per analogia.

Ne ricavai una sensazione che definirei straniante: come se mi trovassi davanti a qualcosa di riuscito e potente, ma privo di una storia a cui potersi aggrappare. Un’intelligenza senza biografia.
Quell’episodio mi ha riportato alla mente un tempo in cui l’intelligenza artificiale era molto diversa e in un certo senso più rassicurante. Un tempo in cui l’output prodotto dalla macchina era trasparente, tracciabile, ricostruibile.
Mi riferisco all’epoca dei sistemi esperti.

I sistemi esperti funzionavano secondo una logica semplice e rigorosa: il sapere umano veniva tradotto in regole esplicite, migliaia di regole, talvolta persino decine di migliaia.
IF accade questo, THEN fai quest’altro, ELSE passa alla regola successiva.
Parliamo di un’intelligenza deduttiva, paziente, spesso pedante, ma soprattutto leggibile.
L’esempio che mi è venuto in mente per primo  è stato “MYCIN“, un sistema sviluppato negli anni Settanta per supportare la diagnosi e il trattamento delle infezioni batteriche del sangue. MYCIN faceva domande, raccoglieva dati clinici, applicava regole e arrivava a una raccomandazione terapeutica che, in molti casi, si rivelava sorprendentemente accurata, almeno nei test sperimentali dell’epoca.
MYCIN arrivava al risultato finale attraverso passaggi ricostruibili. Ogni conclusione poteva essere spiegata.
Se qualcosa non convinceva, si poteva risalire alla regola applicata, discuterla, modificarla.
Era un’intelligenza fragile, confinata a un campo di azione ristretto, totalmente dipendente dagli esperti che l’avevano nutrita di regole. Andava continuamente aggiornata. Ogni nuova scoperta, ogni cambiamento clinico richiedeva nuove istruzioni. Inoltre, i bias e le lacune degli esperti entravano direttamente nel sistema.

Col tempo ci si è resi conto che i sistemi esperti erano onerosi da sostenere, difficili da scalare, e destinati a invecchiare rapidamente. L’entusiasmo iniziale si spense. L’hardware dell’epoca non era all’altezza delle ambizioni teoriche. I fondi diminuirono. Si parlò, non a caso, di “inverno dell’intelligenza artificiale”.
Eppure, riguardandoli oggi, quei sistemi avevano qualcosa che abbiamo in gran parte perduto: un pensiero che si lasciava seguire. Quando sbagliavano, sbagliavano in modo “chiaro”.
Si era partiti da molto lontano, dalla possibilità di ridurre il pensiero a operazioni logiche elementari, come aveva già intuito George Boole con la sua logica booleana.

Il vero salto, un salto epocale, avvenne quando si rinunciò all’idea di scrivere l’intelligenza, per passare a quella di addestrarla. Nacquero le
reti neurali.
L’idea dell’iperuranio platonico non era nata da un sistema esperto specializzato in letteratura o filosofia. Non esisteva una regola che dicesse: IF stai parlando di infinito, THEN cita Platone. Quell’idea era il frutto di un addestramento basato non su regole imposte dagli esperti, ma sull’analisi e sulla “pesatura” di milioni di dati che il sistema aveva processato autonomamente.
Le reti neurali non apprendono per istruzioni, apprendono per esposizione. Vengono immerse in enormi quantità di testi, immagini, relazioni. Non viene detto loro come collegare le cose. Vengono ottimizzate a catturare regolarità statistiche.

Platone, l’iperuranio, l’infinito, l’idea pura, la chiamata metafisica coabitano nei dati del linguaggio umano. La macchina non “sa” cosa sia l’iperuranio, ma sa che è un modo potente di parlare di origine e di idea. Per il compito che le avevo affidato, questo bastava.
La potenza dell’AI cresce così in modo spropositato. La macchina smette di essere specialistica e diventa generalista. Attraversa campi diversi, mescola linguaggi, coglie analogie che nessun sistema esperto avrebbe potuto gestire senza migliaia di regole scritte a mano.
Ma c’è il rovescio della medaglia: insieme alla potenza cresce anche l’opacità.
Se il sapere non è più contenuto in regole esplicite, ma distribuito in milioni di pesi numerici, allora non esiste più un punto preciso a cui risalire. Esiste solo un risultato che emerge, senza una regola da discutere, senza un esperto da interrogare.
È un patto implicito, quasi faustiano: rinunciamo alla trasparenza in cambio dell’efficacia. Accettiamo di non sapere perché la macchina arriva lì, purché ci arrivi spesso nel modo giusto.
Nel mio piccolo, davanti all’iperuranio platonico, ho firmato anch’io quel patto.
Ed è qui che sorgono due problemi cruciali.

Il primo è etico.
Possiamo affidare a una macchina così opaca compiti delicati, fondamentali, che riguardano aspetti vitali dell’esistenza umana? Diagnosi, decisioni cliniche, valutazioni di rischio, selezioni, accesso a diritti sono tutti ambiti in cui non conta solo arrivare a una risposta, ma in cui è vitale poterla spiegare, giustificare, contestare.
“Lo ha deciso l’algoritmo” è una frase che ha un suono pericolosamente assolutorio. Chiude il discorso invece di aprirlo. E una società che accetta decisioni fondamentali senza poterle interrogare fino in fondo sta lentamente abdicando a una delle sue conquiste più importanti: il diritto di chiedere perché.

Il secondo problema è ancora più profondo, e riguarda noi.
Noi esseri umani conviviamo da sempre con una zona oscura che chiamiamo inconscio. Una parte decisiva delle nostre scelte nasce fuori dal controllo della coscienza. Agiamo, e poi spieghiamo. Desideriamo, e poi razionalizziamo. La coscienza arriva spesso dopo, come un narratore tardivo che tenta di dare ordine a ciò che è già accaduto.
In questo senso, anche l’uomo è una “parziale” scatola nera.
La differenza rispetto alla macchina è che noi quella opacità la viviamo come problema, come fatica, come sofferenza. Cerchiamo di esplorarla, di metterla in parola, di trasformarla. Qualche volta, forse spesso, non ci riusciamo, ma la nostra è comunque una tensione costitutiva.
Di fronte a una intelligenza artificiale generativa dotata di una scatola nera altrettanto inconoscibile, questa somiglianza ci disarma e nello stesso tempo ci attira e ci spinge a proiettare nella macchina ciò che riconosciamo in noi stessi.
La scatola nera dell’AI non è il suo inconscio, ma dialoga direttamente con il nostro.

Credo che sia questo il motivo per cui l’idea dell’iperuranio platonico mi ha colpito così duramente. Non solo perché era una buona idea narrativa, ma perché emergeva da un luogo che non potevo abitare, interrogare, conoscere. Un luogo che produceva senso senza storia, intelligenza senza biografia.
Forse il vero rischio non è che le macchine diventino troppo simili a noi.
Il rischio è che noi, abituandoci a fidarci di un’intelligenza che non deve spiegarsi, cominciamo ad accettare l’idea che anche per noi spiegarsi non sia più necessario.
Che basti funzionare.
Che basti essere efficaci.
Che basti arrivare a un risultato.
Se così fosse, allora la scatola nera non sarebbe più solo dentro la macchina.
Sarebbe diventata il nostro nuovo orizzonte.

E a quel punto l’iperuranio platonico non sarebbe più una metafora letteraria, ma il luogo in cui abbiamo deciso di trasferire ciò che non vogliamo più abitare: la fatica di capire, la responsabilità di scegliere, il peso di restare umani.

 

Bibliografia essenziale

  1. Pasquale, F. “The Black Box Society. The Secret Algorithms That Control Money and Information” Harvard University Press, 2015.
  2. O’Neil, C. “Weapons of Math Destruction”, Crown Publishing Group, 2016.
  3. Floridi, L. “Etica dell’intelligenza artificiale” Raffaello Cortina Editore, 2022.
  4. Crawford, K. “Atlas of AI” Yale University Press, 2021.
  5. Shortliffe, E. H. “Computer-Based Medical Consultations: MYCIN” Elsevier, 1976.
  6. Mitchell, M. “Artificial Intelligence. A Guide for Thinking Humans” Farrar, Straus and Giroux, 2019.
  7. Marcus, G., Davis, E. “Rebooting AI” Pantheon Books, 2019.
  8. Freud, S. “L’interpretazione dei sogni” 1899 (varie edizioni).
  9. Damasio, A. “L’errore di Cartesio” Adelphi, 1994.
  10. Buscaglia I., ChatGPT (Digi) “Infiniti” Gruppo Albatros Il Filo, 2025.

Loading

Autore

0 commenti

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Caffè & Psichiatria

Ogni mattina alle 8 e 30, in collaborazione con la Società Italiana di Psichiatria in diretta sul Canale Tematico YouTube di Psychiatry on line Italia