IL SOGGETTO COLLETTIVO
Il collettivo non è altro che il soggetto dell’individuale
"C'è un sapere nel reale", ovvero a proposito di pragmatismo
Jacques Lacan, Note italienne, 1974
43 anni fa, era l’aprile del ’74, portavo da Roma a Milano una fotocopia della famosa lettera di Lacan agli italiani, non ancora diffusa. Una frase lì stampata, il y a du savoir dans le réel, mi rimase indelebilmente impressa nella memoria, più come significante che per il suo significato. “C’è un sapere nel reale”, per chi proveniva dalla biometria avrebbe dovuto essere scontato. Come analista in formazione non avrei dovuto dimenticarlo. Purtroppo frequentavo una scuola poco incline alle scienze e non ne tenni giusto conto. Succede regolarmente che per la scuola esista un solo sapere, quello scolastico, che ha poco o nulla a che fare con il sapere scientifico nel reale.
Non sto dicendo che il sapere scolastico sia un male; all’esordio di un nuovo sapere, vedi il caso della meccanica quantistica, la configurazione scolastica è addirittura necessaria; protegge le traballanti innovazioni di pensiero dalle inevitabili ostilità dei conservatori benpensanti, giustificate in nome dell’ortodossia. Il male è quando il sapere scolastico diventa l’unico riconosciuto come ortodosso e il solo ammesso come incontrovertibile da tutti gli “scolari”. Il dogma mette in evidenza la tipica forma collettiva di volontà d’ignoranza. Tommaso d’Aquino la conosceva bene, quando predicava ai confratelli di non leggere un libro solo. Ci ho messo più di vent’anni per recuperare la semplice verità e non l’ho più dimenticata. Fine della prima citazione autobiografica.
In questo post cerco di chiarirmi cosa significhi per l’uomo di scienza, eventualmente per lo psicoanalista, dedicarsi a localizzare un sapere nel reale. Chi mi legge mi perdonerà se rievoco un secondo riferimento autobiografico, di per sé di scarso valore, ma forse non inutile come espediente retorico per introdurmi a una delle forme che il sapere nel reale può assumere: la questione della natura della probabilità, un sapere incerto in generale, da cui tuttavia si può trarre qualche certezza locale (in media).
Correva l’anno del Signore 1966. Pieno di belle speranze di carriera scientifica, cominciai a frequentare l’Istituto di Biometria e Statistica medica della Facoltà di Medicina dell’Università di Milano. Uno dei primi giorni giunsi in Istituto con due volumi sottobraccio: l’autore Dennis Victor Lindley; il titolo “Introduction to Probability and Statistics from a Bayesian Viewpoint”. Appena sfornati l’anno prima dalla Cambridge University Press, avevo scovato i due volumi da Hoepli, una delle rare librerie milanesi con ampia scelta di libri di matematica. Per entrarne in possesso avevo scucito ben 9350 lire, all’epoca una cifra folle per un borsista neolaureato, pari al 7,5 % della sua borsa di studio mensile. Oggi sono considerati un classico; su Amazon si vendono a 56,89 €, spedizione esclusa. Fatte le debite proporzioni il prezzo attuale corrisponde a un rapporto di circa 1 a 10, che tuttavia non rende giustizia al rischio soggettivo che corsi allora. Orgoglioso dell’oneroso acquisto lo esibii ai colleghi che mi dedicarono un sorrisino di convenienza. Non avevo ancora realizzato d’essere capitato in un orticello fisheriano, dove si coltivava la concezione frequentista, o oggettivista, della probabilità, come quella adatta a fondare la statistica della massima verosimiglianza su basi positiviste.
In parole povere la questione, oggi superata, era la seguente. Secondo Sir Ronald Fisher, autore di un massiccio Statistical Methods (1925) e secondo Richard von Mises, fratello del più famoso economista, autore di un ironico e gustoso libretto intitolato Piccolo manuale di positivismo (1939), la probabilità di un evento è il limite di una serie potenzialmente infinita di prove, di cui si valuta il rapporto tra numero di eventi e numero totale di prove. Questi autori sviluppavano il modello stocastico bernoulliano, che porta al teorema dei grandi numeri. Di Bernoulli è la definizione filosofica di probabilità come “grado di certezza che si differenzia dalla certezza come la parte dal tutto” (J. Bernoulli, Ars conjectandi, IV Parte, 1713, postuma).
Per i bayesiani, ai miei tempi nobilmente rappresentati in Italia da Bruno de Finetti, la probabilità è la ragione di scommessa di uno scommettitore disposto ad accettare con coerenza qualunque sfida da parte di un competitore, ancora prima dell’esito della prova. La probabilità bayesiana misura il degree of belief, la credibilità soggettiva di un’ipotesi, o ciò che da essa il soggetto pragmaticamente si aspetta, ancora prima del verificarsi dell’evento che la confermerà. Esplicitamente la definizione soggettivista di probabilità, che si può far risalire a Christian Huyghens, recita: “La probabilità di un evento è il prezzo che un individuo ritiene equo pagare per ricevere 1 se l'evento si verifica, 0 se l'evento non si verifica”. Huyghens scrisse un De ratiociniis in ludo aleae (1647), dove introdusse la nozione di speranza matematica, o expectatio, che il soggetto in gioco nutre per eventi aleatori.
I bayesiani sono fondamentalmente degli allibratori soggettivisti; con buone ragioni “si fingono soggetti di un sapere nel reale”, come dice Lacan. Come precisa De Finetti, il bayesiano non formula predizioni ma previsioni, le quali costituiscono la base del suo pragmatismo, da intendere non come esse est percipi ma esse est posse percipi. Il pragmatismo prevede – nel senso che si aspetta – certe condizioni di sperimentabilità sotto forma o di conferma o di confutazione. Già nel 1909 il punto fu sviluppato da Giovanni Vailati, il quale definì pragmatica l’asserzione che descrive le circostanze in cui si può far esperienza di ciò che essa afferma, indipendentemente dal suo valore di verità. (cfr. G. Vailati, Le origini e l’idea fondamentale del pragmatismo (1909), in Id., Scritti filosofici, a c. di G. Lanaro, La Nuova Italia, Firenze 1980, p. 331.) Come si sa il pragmatismo fu completamente rimosso in Italia dalla corrente fenomenologica di pensiero, variante sofisticata dell’idealismo. Se in Italia vige una versione idealistica della psicoanalisi, il merito è in non piccola parte della cultura fenomenologica dominante.
Ai miei tempi la contesa ideologica tra le due concezioni della probabilità si dibatteva tra l’a priori soggettivo e l’a posteriori oggettivo: un bel match ai limiti dell’epistemologia scientifica. Come andò a finire? Non la faccio lunga. Nel mio caso vinsi la scommessa in absentia. Venni infatti più tardi a sapere che i miei colleghi di un tempo – il tempo della mia formazione analitica – nel frattempo si erano tutti convertiti al soggettivismo bayesiano. Ora sono io a sorridere. Come si dice, ride bene chi ride ultimo. Fine del secondo aneddoto autobiografico.
La sostanza del discorso che tento di imbastire qui è che le due concezioni della probabilità sono fondamentali ed entrambe pragmaticamente giustificabili: una è ontologica, l’altra epistemica; la prima concerne il reale, cioè l’essere e il non essere, e si misura come frequenza dell’evento; la seconda riguarda l’immaginario, cioè il sapere e l’ignoranza, e si misura come grado di credibilità relativo a una scommessa sull’evento. Le concezioni sono due e hanno pari diritto di esistenza come i due discorsi sul soggetto e sull’oggetto.
Come si vede, ritorna per l’ennesima volta in questa rubrica la divisione tra essere e sapere, tra oggetto e soggetto. Prima di procedere, devo comunque segnalare il mio debito. La distinzione tra le due forme di probabilità non è mia invenzione; la traggo dalla mia cultura bayesiana, che è di lingua inglese, dove si distinguono due forme di probabilità: una, la probability (probabilità oggettiva), è orientata al fatto oggettivo; l’altra, la chance (probabilità soggettiva; v. avanti), è orientata all’atto soggettivo. Entrambe hanno dignità filosofica e rispondono a criteri di coerenza interni ai rispettivi discorsi. Per lo psicoanalista freudiano entrambe sono rilevanti: la probabilità oggettiva attiene al sapere protorimosso, che non salirà mai alla coscienza, la soggettiva al sapere rimosso, che si esprime sintomaticamente, per esempio, come ludopatia o volontà di rovina.
Il primo passo verso la probabilità, comunque intesa, comporta di necessità l’apertura della mente alla nozione di variabilità. Va premesso in proposito che oggi esistono due ontologie: da una parte, esiste quella classica, parmenidea, dell’ente che è e del non ente che non è, che non conosceva l’uso delle variabili, quindi non concepiva l’esistenza del moto, e dall’altra esiste quella moderna, dove “essere è essere il valore di una variabile”, secondo van Quine (W.V. Quine, “Che cosa c’è”, in Id., Da un punto di vista logico. Saggi logico-filosofici (1953-1980), trad. P. Valore, Cortina, Milano 2004, p. 29). La frattura tra le due ontologie è insanabile: da una parte c’è la scienza antica, dall’altra la moderna. In modo paradossale anche Lacan diceva qualcosa di simile: “Rien n’existe que sur un fond supposé d’absence. Rien n’existe qu’en tant qu’il n’existe pas” (J. Lacan, “Réponse au commentaire de Jean Hyppolite sur la ‘Verneinung’ de Freud” (1954), in Id. Ecrits, Seuil, Paris 1966, p. 392). L’alternativa è la schizofrenia “per la quale tutto il simbolico è reale” (ibidem).
Gli antichi greci, che non sapevano nulla di variabilità, non conoscevano le probabilità. Concepivano la Fortuna; addirittura la divinizzavano; forse arrivavano a parlare di caso (túche) come cattivo incontro con il reale, che interrompe la ripetizione quotidiana degli eventi (v. J. Lacan, Seminario XI, 12 febbraio 1964), ma non sapevano dire nulla della variabilità probabilistica. Non sapevano dire “sereno variabile” del tempo atmosferico. In un certo senso erano inibiti dalla fissità del pensiero idealistico, che concepisce solo essenze immutabili, dove la variabilità si traduce al più in polimorfismo di essenze diverse, in sé fisse, pur con la connessa patologia delle essenze morbose. La botanica e la zoologia di Linneo, articolata in generi e specie distinte e fisse, fu l’ultimo avatar idealistico a sbarrare l’accesso alla variabilità nella scienza moderna. Per porre la variabilità come cardine della biologia evoluzionista – dove la variabilità esiste già entro le specie oltre che tra le specie – ci volle la forza morale prima che intellettuale di un gigante del pensiero come Charles Darwin. Ancora oggi in medicina vige il cliché idealistico delle essenze morbose; per esempio, si parla tuttora di ipertensione arteriosa essenziale.
Caso paradigmatico di sviluppo idealistico è tutta la storia della logica classica da Aristotele a Hegel, che riguarda i rapporti tra soggetto e predicato, nel formato A è B; A è l’essenza del soggetto e B l’essenza del predicato, unite dalla copula tuttofare “è”; si tratta di logica idealistica dove soggetto e predicato sono fissi. La filosofia continentale, in particolare la fenomenologia, non ha ancora avuto accesso alla logica delle variabili quantificate dai quantificatori per ogni ed esiste, dove il soggetto va in estinzione (o in afanisi, direbbe Lacan). Nelle monumentali Ricerche logiche del 1900 Edmund Husserl si pose ancora il problema aristotelico della “riduzione dell’unità ideale alla molteplicità dispersa”. Mezzo secolo prima George Boole aveva inventato l’algebra della logica; vent’anni prima Gottlob Frege aveva pubblicato l’Ideografia come scrittura aritmetica della logica. Del Tractatus di Wittgenstein (1920) non c’è eco nelle speculazioni genealogiche di un Foucault. In buona sostanza, la persistenza (della rappresentazione) del soggetto differenzia la filosofia continentale (idealistica) dall’analitica (pragmatica).
Strettamente connessa all’approccio idealistico è la preminenza della questione della certezza, che la metafisica pretende garantirsi. Per quale via? Attraverso il principio leibniziano di ragion sufficiente per cui “niente è senza ragione”. L’essenza del bello, cioè la sua idea, è la causa che produce con certezza la bellezza delle cose belle (Platone, Fedone, 100d). Se l’essenza viene meno, cancellata dall’avvento della variabilità, la conoscenza non è più conoscenza certa dell’effetto in presenza della causa, ma diventa opinione, che è incerta perché non è scire per causas. Questa è la ragione idealistica per cui per tutta l’antichità non si articolò un pensiero sulla variabilità e ancora oggi in filosofia o in psicoanalisi è difficile sentir parlare di variabili, sinonimo della denigrata incertezza.
Comunque, senza variabilità non si può fare scienza alla Galilei; non si possono pensare relazioni tra variabili, per esempio, tra la variabile spazio e la variabile tempo nella velocità di caduta dei gravi; in generale, non si scrivono equazioni alla Cartesio, né algebriche né differenziali.
Anche il calcolo delle probabilità è impensabile senza variabilità. Perciò gli antichi non avevano la nozione di “probabile” ma solo quella modale di “possibile” nelle due varianti: dúnatos, il possibile ontologico, derivante dalla transizione dell’essere in potenza all’essere in atto, ed endechómenos, il possibile epistemico nel senso di “accettabile”, ma in regime di contingenza.
Senza imbarcarmi nella rassegna storica sulle origini del calcolo delle probabilità, avendo citato Galilei, ricordo che nella Scoperta dei dadi del 1612 Galilei trattò il problema probabilistico, postogli dal Granduca di Toscana, di come sia (ontologicamente) possibile che con tre dadi esca più spesso il 10 del 9, dato che il numero delle somme che danno 10 è uguale a quello del 9. Infatti, il 10 si ottiene con le seguenti 6 somme: {6,3,1}, {6,2,2}, {5,4,1}, {5,3,2}, {4,4,2}, {4,3,3}; mentre il 9 con le 6: {6,2,1}, {5,3,1}, {5,2,2}, {4,4,1}, {4,3,2}, {3,3,3}. La questione era addirittura di variabilità interna all’identità. Il problema non si sarebbe mai posto nella cultura platonica.
Il modo di procedere di Galilei fu paradigmatico del nuovo (ai suoi tempi) “metodo” scientifico. Come Cartesio con il dubbio sistematico, Galilei riuscì a passare dall’incertezza alla certezza, considerando l’incertezza in tutta la sua estensione “sincronica”. Come poi avrebbe raccomandato Cartesio, Galilei procedette esaustivamente, elencando tutte le possibili diacronie, o successioni di risultati di tre lanci consecutivi di un dado – oggi si chiamerebbero prove.
Per curiosità riporto le disposizioni di tre lanci di dado (Galilei le chiamava “triplicità”), giusto per dare una misura intuitiva della variabilità. Le disposizioni che danno 10 sono 27: (6,3,1), (6,1,3), (3,6,1), (3,1,6), (1,6,3), (1,3,6) sono le 6 disposizioni per la somma {6,3,1}; (6,2,2), (2,6,2), (2,2,6) sono le 3 disposizioni per la somma {6,2,2}; (5,4,1), (5,1,4), (4,5,1), (4,1,5), (1,5,4), (1,5,4) sono le 6 disposizioni per la somma {5,4,1}; (5,3,2), (5,2,3), (3,5,2), (3,2,5), (2,5,3), (2,3,5) sono le 6 disposizioni per la somma {5,3,2}; (4,4,2), (4,2,4), (2,4,4) sono le 3 disposizioni per la somma {4,4,2}; (4,3,3), (3,4,3), (3,3,4) sono le 3 disposizioni per la somma {4,3,3}. Con un calcolo analogo si verifica che le disposizioni che danno 9 sono 25: 6 per la somma {6,2,1}; 6 per la somma {5,3,1}; 3 per la somma {5,2,2}; 3 per la somma {4,4,1}; 6 per la somma {4,3,2}; 1 per la somma {3,3,3}. Tutte le disposizioni sono per simmetria equiprobabili; posta la probabilità come misura additiva (per eventi disgiunti), si spiega – la scienza moderna “spiega” ma non “comprende” – perché il 10 si “scopra” più spesso del 9; la differenza è piccola, di poco inferiore all1%.
La futilità del problema della scoperta dei dadi non deve nascondere l’originalità della soluzione galileiana. Galilei introdusse la nozione di spazio delle prove, uno dei primi esempi di spazio prodotto: quello delle triple ordinate, algoritmo tuttora di uso corrente. Qui l’algoritmo tratta il caso particolare della probabilità ontologica, la quale riemergerà tre secoli dopo in meccanica quantistica, come dirò in seguito.
Dato il persistere del modulo idealistico di pensiero nel comune buon senso, la concezione epistemica della probabilità, intesa come misura dell’ignoranza delle cause dei fenomeni, durò a lungo anche nell’approccio scientifico. Siccome il lancio di un dado è caotico, basta una piccola deviazione nella forza e nella direzione del lancio per ottenere risultati diversi; il risultato, pur essendo deterministico, è in pratica imprevedibile. In assenza di cognizione di causa, si suddivide, come se fosse una “massa”, la probabilità totale in sei parti di peso uguale e si attribuisce un sesto del totale a ciascuna delle sei “scoperte” del dado. L’ipotesi è plausibile, essendo in un certo senso mediana tra tutte le possibili ipotesi, anche le più estreme, che per simmetria riassume.
La concezione epistemica della probabilità raggiunse nel XVIII secolo il proprio vertice e fu definitivamente formalizzata dal teorema di Bayes nel cosiddetto non a caso “teorema delle cause inverse” (v. T. Bayes, Saggio sulla soluzione di un problema nella dottrina del caso, Philosophical Transactions of the Royal Society of London, 53, 370–418, 1763, postumo). Di quel saggio ricordo solo che, nel proporre il suo tema, il reverendo Thomas Bayes esordì distinguendo, come dicevo, tra due probabilità: probability e chance, la prima oggettiva e ontologica, o intrinseca all’evento, la seconda soggettiva ed epistemica, o relativa al sapere del soggetto sull’evento.
Illustra bene la situazione della doppia incertezza soggettiva-oggettiva la diagnosi medica delle malattie, ritenute cause dei sintomi morbosi che producono. Di una malattia il medico, in veste di patologo, ha in precedenza determinato la frequenza empirica (oggettiva) con cui nella malattia, considerata come causa, ricorre un certo sintomo, considerato come effetto. Tecnicamente tale frequenza si chiama “verosimiglianza” (likelihood). Il problema clinico del riconoscimento nel caso singolo della causa a partire dall’effetto consiste nell’invertire la verosimiglianza: dato l’effetto, qual è la probabilità della causa? È tipica situazione della diagnosi medica. Dato un certo sintomo, il clinico cerca la probabilità (soggettiva) che, nel caso clinico che ha di fronte, la causa sia effettivamente una certa malattia piuttosto che un’altra. La risposta del teorema di Bayes è pertinente e si giustifica facilmente su base intuitiva. La probabilità di una certa malattia, dato il sintomo osservato, è proporzionale al prodotto della frequenza epidemiologica della malattia nell’ambiente (una probabilità collettiva), moltiplicata per la verosimiglianza del sintomo effettivamente osservato. Abbastanza curiosamente, nel caso clinico individuale le due probabilità oggettive, una collettiva e l’altra teorica, si fondono nella probabilità soggettiva, secondo cui da un dato sintomo il clinico si aspetta (per esempio, di curare) una certa malattia piuttosto che un’altra.
Il teorema di Bayes ha un profondo valore euristico. Insegna ad apprendere dall’esperienza. Partendo dall’esperienza iniziale, cioè dal grado zero del sapere, dato dalla ricorrenza statistica della causa “nuda”, che prescinde dai sintomi, modifica via via quel sapere in funzione degli effetti osservati, i sintomi, verosimilmente attribuibili a quella causa morbosa. Oggi l’approccio bayesiano è di uso comune nel riconoscimento automatico delle lettere.
Formalizzato sotto la specie dell’ignoranza che progredisce verso il sapere con incertezza sempre minore (di rado si arriva alla certezza assoluta con probabilità pari a 1), l’assetto epistemico della probabilità è solido e difficile da smontare. Intuito da Bayes, fu consolidato da Laplace, il fondatore del determinismo scientifico. Eppure, a un certo punto della storia, fu necessario indebolirlo, aprendo le porte all’indeterminismo specifico dell’approccio scientifico moderno. (Ma Freud non riconobbe mai questa specificità e rimase sempre determinista, addirittura sovradeterminista.)
Tralascio di affrontare le non facili questioni connesse all’approccio statistico al secondo principio della termodinamica, secondo Boltzmann, e alla radiazione del corpo nero, studiata da Planck, che propose l’introduzione dei quanti di energia. (Rimando al documentato libro di T.S. Kuhn, Alle origini della fisica contemporanea. La teoria del corpo nero e la discontinuità quantica (1978), trad. S. Scotti, Il Mulino, Bologna 1981).
Mi riferisco invece proprio al caso paradigmatico della meccanica quantistica, che intaccò il determinismo newtoniano, presentando risultati aleatori delle misure sperimentali, tuttavia con probabilità rigorosamente determinate, per esempio dall’equazione di Schrödinger. A lungo dominò tra i fisici (Einstein compreso) l’illusione di poter spiegare le probabilità quantistiche con l’ignoranza di variabili nascoste nelle particelle che, sottoposte a test, avrebbero dovuto avere effetti rigorosamente deterministici, cioè “newtoniani”. “Dio non gioca a dadi”, soleva dire Einstein. E Bohr ribatteva: “Come fai a saperlo?”
La volontà di credere che la meccanica quantistica fosse deterministicamente incompleta (secondo l’opinione espressa da Einstein nel 1935) tenne campo fino agli anni Sessanta. Cominciò a incrinarsi quando John S. Bell del CERN di Ginevra enunciò la sua famosa diseguaglianza sulle particelle entangled o correlate. Se esistessero variabili nascoste, la correlazione tra stati fisici misurati su due particelle generate dalla stessa fonte e successivamente distanziate dovrebbe essere inferiore o uguale a un certo valore limite facilmente calcolabile, afferma il teorema di Bell, non difficile da dimostrare. (Come sempre è la forza morale dell’intuizione – è la volontà di crederci, direbbe William James – e non solo la capacità intellettuale a far progredire la scienza.)
Negli anni Ottanta gli esperimenti cruciali di Alain Aspect mostrarono che la correlazione reale è maggiore di quella teorica, calcolata da Bell supponendo variabili nascoste dal valore ignoto. Insomma, in meccanica quantistica c’è indeterminazione, ma i fenomeni di entanglement sono correlati in modo più stretto del casuale, cioè in modo superiore a quello che in base alla nostra ignoranza dei valori di ipotetiche variabili nascoste potremmo prevedere attraverso algoritmi deterministici. La meccanica non è deterministicamente incompleta; è semplicemente indeterministica: presenta simmetrie che non si spiegano con movimenti meccanici locali, come i denti di una ruota che si incastrano in quelli dell’altra. L’intuizione dell’entaglement, dovuta a Einstein e sviluppata da Schrödinger, vede la materia “fatta” non solo di essere ma anche di sapere. Si tratta di un sapere vicino a quello freudiano dell’inconscio: è un sapere che non si sa di sapere. La materia è – come dire? – onto-epistemica, dove sapere ed essere sono entangled. Addirittura, se le particelle entangled sono più di due, diciamo n, la misura di una variabile su n–1 di loro determina con certezza il risultato della misura sull’n-esima particella. Cioè, le singole misure sono indeterministiche, ma la misura globale è deterministica. L’entanglement abbassa la dimensione dell’indeterminismo. (Oggi il record di entanglement è di dieci fotoni.)
Conclusione provvisoria e forse utile per lo psicoanalista: c’è un sapere ontologico nel reale. È un sapere in gran parte non antropico – come quello residente nell’antica Nous di Anassagora – che si “trasmette” istantaneamente da particella a particella a distanza qualunque – come tra le antiche omeomerie di Anassagora. È un sapere diffuso globalmente che si manifesta localmente. Assomiglia al sapere etico dell’uomo che pensa globalmente ma agisce localmente, anche quando non sa perché agisce. (Gran parte del sapere prodotto dal soggetto è inconscio, sappiamo dopo Freud.) Tutto avviene come nella teoria della selezione naturale di Darwin, che si basa su un principio di adattamento locale, senza convocare il finalismo di un progresso generale.
Questioni per il fisico: la delocalizzazione è dovuta a qualche fenomeno ondulatorio? La probabilità ontologica supera quella epistemica perché ogni particella elementare è “pilotata” da un’onda, l’onda di De Broglie? (Bell voleva crederlo.) O esiste telepatia? Le particelle elementari avrebbero una realtà psichica (Realität) accanto a quella effettuale (Wirklichkeit)?
Non saprei. Non voglio, peraltro, sottoscrivere paradigmi vitalisti o panpsichisti, pur di garantirmi a ogni costo una forma di certezza. L’interpretazione della meccanica quantistica è tuttora globalmente incerta, tanto quanto sono certi i suoi risultati empirici locali a disposizione di tutti noi quando, per esempio, manipoliamo uno smartphone. Osservo solo che certi fenomeni individuali-collettivi, dove gli individui non sono nettamente individuati e separati da altri individui, non sono ristretti all’ambito quantistico. I fenomeni stocastici di diffusione alla Wiener-Levy, tipicamente il moto browniano, e i fenomeni di indeterminazione quantistica alla Heisenberg sono regolati da costanti confrontabili, giustificate dall’assenza nel mondo microscopico di traiettorie rappresentate da curve continue e derivabili come quelle del mondo macroscopico. In un gas una molecola subisce circa mille miliardi di miliardi di urti al secondo, più che sufficienti da rendere incalcolabile la tangente di un’eventuale traiettoria. Parimenti senza traiettoria sono i fenomeni quantistici, dove velocità e posizione di una particella non sono determinabili indipendentemente con la precisione voluta. In merito vanno affrontate delicate questioni logiche sull’identità degli indiscernibili, che ogni moto ripropone: tutti gli elettroni sono identici, tutti i protoni sono identici, tutti i neutroni sono identici, ma secondo Leibniz e molti psicoanalisti non esistono due individui distinti e identici. Sarà vero?
Quel che so è che nel reale c’è un sapere che l’analista, in quanto soggetto scientifico, è chiamato a localizzare. Dove? nel soggetto individuale? nel soggetto collettivo? Nella zucca di qualche autore? Nel rimosso del soggetto? Nel protorimosso, che precede ogni rimozione? L’operazione di localizzazione epistemica si presenta ardua. Richiede una specifica topologia, quasi certamente non euclidea. Forse richiede anche una specifica filosofia, dove decada il principio ontologico dell’identità degli indiscernibili; allora lo stesso sapere si localizzerebbe in forma diffusa in individui diversi ma indiscernibili.
Curiosamente, l’entanglement è un fenomeno che cade fuori dalle categorie kantiane del tempo e dello spazio, nel senso che la concordanza tra le misure si dà all’istante a qualunque distanza tra le particelle esse siano eseguite: tredici metri o tredici miliardi di anni luce. Tanto più ardua è l’operazione di localizzazione del sapere nel reale – senza causa, senza individualità, senza tempo, senza spazio – quanto più l’analista resta ancorato a dottrine incontrovertibili, che escludono variabilità di esiti, quindi impediscono considerazioni di probabilità non solo epistemica ma addirittura ontologica. Ma l’operazione di distacco dalle dottrine vigenti è doverosa per l’analista, non fosse altro che per mettere la parola fine all’idealismo che lo inchioda alla fissità delle essenze sin dai tempi del “divino Platone” (Freud dixit).
Qualcosa ne disse pure Freud in uno dei suoi ultimi scritti, Costruzioni in analisi (1937), coevo di Analisi finita e infinita (1937), di cui rappresenta il complemento. L’analisi finisce quando ha finito di costruire una certa costruzione mentale. In analisi non esiste la costruzione ideale preformata, per esempio la restituzione dello stato pre-morboso. La costruzione si forma pragmaticamente ex novo non sulla base di interpretazioni, giustificate in base a qualche codice ermeneutico, ma sulla base, già tante volte citata, della volontà di credere, the Will to Believe secondo William James (1896), l’esatto simmetrico della volontà di ignoranza, bayesianamente misurata come probabilità soggettiva. Nella volontà di credere volontà e credenza sono lo stesso fenomeno psichico (cfr. W. James, The Principles of Psychology (1890), vol. II, Dover, New York, 1950, p. 320-321). Lo sa bene il portiere che sta per parare un rigore: vuole credere che il rigorista tirerà lì e parerà il rigore gettandosi proprio lì. (Chiedetelo a Gigio Donnarumma). La costruzione in analisi diventa, allora, volontà praticabile, cioè pragmatica. Il costrutto analitico non è solipsistico ma etico. Il soggetto, l’analizzante, lo costruisce in rapporto all’oggetto, l’analista, operando su congetture di cui il soggetto conosce solo le condizioni di sperimentabilità ma non sa prima se sono vere o false. Il sapere prodotto in analisi è il frutto della fiducia nel rapporto di lavoro transferale tra analista e analizzante. Tanto va detto per liquidare la pseudo-nozione di liquidazione del transfert, che è un concetto ricalcato dalla medicina.
La proposta lacaniana del desiderio dell’altro in psicoanalisi va sicuramente in direzione anti-idealistica, quasi quantistica; introduce nel regime dell’inconscio la dimensione dell’entanglement (“intreccio”) tra soggetto e oggetto, anche se l’assetto logocentrico dato da Lacan alla propria dottrina – dottrina, non teoria – ne compromette le potenzialità scientifiche. La lezione che ne traggo è che bisogna progredire a partire da Lacan, dimenticando parte dello stesso Lacan. Per far avanzare certe intuizioni lacaniane è meglio confutare che confermare certe tesi di Lacan. Non è intellettualmente difficile, ma è un compito eticamente impegnativo. Come tale non si può portarlo a termine da soli, ma richiede il lavoro di un collettivo di pensiero che sappia sceverare le parti feconde dalle sterili del pensiero del maestro.
Postilla facoltativa
Caro lettore,
se sei arrivato fin qui, complimenti! La tua è stata una performance non da poco, che va giustamente riconosciuta e apprezzata. A tollerare l’idea di un sapere indeterministico come quello probabilistico, un’incertezza non solo epistemica (soggettiva) ma addirittura ontologica (oggettiva), ci vuole una pellaccia come la tua. Quando mi dicono: “Molto interessante la tua conferenza, anche se non ho capito tutto”, sai cosa vogliono dire? Che hanno capito benissimo quel che da un paio di decenni vado predicando: la distinzione tra scienza antica, condotta in nome della certezza e della completezza delle rappresentazioni, e la scienza moderna, sviluppata all’insegna dell’incertezza congetturale e dell’incompletezza assiomatica; l’hanno capito ma rifiutano di ammetterlo; non vogliono sentire parlare di incertezza o di incompletezza, soprattutto se tocca l’essere. Vogliono rimanere nel contesto idealistico delle antiche certezze. Il punto di resistenza alla scienza galileiana è che non si vuole aprire la porta all’invasione dell’incertezza, soprattutto se è ontologica (quella epistemica è meglio tollerata). Il premio Nobel per l’economia Kahneman insieme allo psicologo Twerski hanno empiricamente dimostrato che alla vincita incerta di una somma maggiore preferiamo un compenso certo, anche se di valore minore: 80 € certi, maledetti, sporchi e subito, sono preferibili a 100 € differiti e al 90% di probabilità. La ripulsa per l’incertezza è massima in matematica – “matematico” vuol comunemente dire “assodato”. La cosiddetta crisi dei fondamenti della matematica, all’inizio del secolo scorso, fu dovuta all’emergere di qualche incertezza anche al fondo della matematica. Non ignorabimus, era il motto di David Hilbert.
Se vale l’ex-adattamento edipico, che favorisce la coesione dei gruppi familiari per lo sviluppo di organismi neotenici, grazie a legami intra-familiari simil-sessuali, è facile spiegare l’attaccamento viscerale alla certezza. L’opzione per la certezza ha carattere materno, quella per l’incertezza paterno. Pater incertus, dice il proverbio. La certezza del padre si guadagna attraverso il processo secondario dell’idealizzazione. La quale è sempre una protesi materna applicata al padre, per trasformarlo in padre ideale, in genere con scorza dittatoriale per coprire l’originale debolezza e inconsistenza.
Le religioni monoteiste sanno bene tutto ciò da millenni. Predicano dio ma mettono in circolo certezze dogmatiche, per esempio che dio è Uno, verità più appetibili della divinità stessa. Il terrorista che si immola urlando “Allah è grande”, muore per confermare una certezza; di Allah gli interessa molto meno. Fatte le debite proporzioni, certi funzionari delle psicoanalisi ortodosse non sono in linea di principio da meno dei terroristi: combattono gli uni contro gli altri per affermare la certezza delle proprie dottrine (e convincere i catecumeni) con caparbietà antiscientifica. Confermano se stessi, confutano gli altri. Applicano l’algoritmo di conferma delle preferenze già attivo sui social network.
Ma dopo Cartesio non si torna indietro. “Ché quanto alla scienza stessa, ella non può se non avanzarsi” (G. Galilei, Dialogo dei massimi sistemi. Giornata Prima, 1632). La guerra per ristabilire la scienza antica con le sue certezze idealistiche – magari sotto la specie della sapienza o della religione – è persa in partenza, anche se l’antico soggetto della certezza può ancora vincere le ultime scaramucce. Io confido in soggetti dalla pellaccia epistemica dura come la tua, caro lettore, che non hai paura dei rigori dell’incertezza e sai come trattare la sua liquidità senza invocare puntelli materni.
Il pensiero riverente va a Zygmunt Bauman, recentemente scomparso.
Commenti
Io come lettore che è arrivato fino alla fine, mi chiedo perché non orientarsi alla logica Fuzzy come ciò che può indirizzarci verso una teoria....anche se mi interesserebbe sapere se Sciacchitano si è cimentato nella formulazione di una teoria.
Questo intervento di Sciacchitano mi dà da pensare. Prima di tutto al fatto che si resiste alla svolta cartesiana, anche se Sciacchitano la dà per avvenuta ed ineluttabile, non sono così ottimista. Mi sembra che la fissazione all'uno (possiamo chiamarla Identificazione ?) non solo vince delle scaramucce ma pare governi il mondo.... Insomma è difficile uscire dall'infanzia materna per passare alla maturità, difficile passare dall'Uno ai molti. Dopo questo breve pippotto inacidito provo a passare a dei ragionamenti che secondo me vanno nella direzione della scientificità indicata da Sciacchitano. Scientificità che è essenzialmente gestione dell'incertezza e della variabilità mediante teorie probabilistiche, pragmaticamente costruzione teorica a fini predittivi. La scienza moderna è rivolta al futuro (orizzonte basilare del pensiero pragmatista). Bene, se è così mi viene in mente sul versante della teoria e pratica sociologica il nome di Niklas Luhmann (1927-1998), che provò a riformare in senso scientifico i paradigmi in crisi della sua disciplina. Quali erano ? 1) paradigma ontologico-soggettivistico (Weber); 2) paradigma critico-analitico (Parsons). Perché a suo avviso il primo pendeva troppo dalla parte degli attori soggettivi, perdendo di vista l''oggetto sociologico, il sistema sociale, e il secondo pendeva troppo dalla parte dell'oggetto rendendo il sistema sociale una foresta pietrificata, abitata solo da facenti funzione. A chi fosse interessato segnalo il testo base di L : Sistemi sociali. Fondamenti di una teoria generale (1984), utilmente ristampato da Il Mulino nel 2001..
Provo a riassumere in pochi punti i passaggi chiave: A) L fa essenzialmente della metasociologia, punta ad una global theory, che dia conto dei fondamenti della disciplina. B) come detto sopra va oltre i paradigmi sociologici che avevano imperato nella prima parte del 900. C) La chiave di tutto è il concetto di Sistema (opposto a quello di struttura) e il suo rapporto comunicativo-evolutivo (non dialettico ma discontinuo e differenziale) con l'ambiente (L recepì utilmente i lavori in ambito biologico-evolutivo di Maturana e Varela). D) Altro punto chiave è la valorizzazione della funzione temporale in chiave evolutiva del sistema sociale. Tema che mette in luce il rapporto tra complessità del sistema, i suoi progressivi steps e la sua evoluzione-cambiamento che per L si situa appunto nella dinamica tempo-comunicazione. E) Il risultato ? Il tempo-comunicazione è l'elemento differenziale per cui non può mai esserci corrispondenza tra ambiente e sistema sociale, anzi è proprio la non corrispondenza a crearli tutti e due condannandoli , per continuare ad esistere, all'evoluzione e alla costruzione del novum sociale. F) Per L il sistema sociale si differenzia dai sistemi meccanici e dalle strutture per via del senso che per L è il prodotto comune e condiviso dell'evoluzione. G) L, come Rawls, pone come specifico tipo di azione nel sistema sociale un'azione che di volta in volta è il frutto di un tacito consenso, che poi crea un orientamento normativo. Di cosa si tratta ? L parla di una relazione di partenza cieca (ignorante, incerta, dico io) tipo Black box tra due o più attori sociali da cui proviene e si sviluppa l'azione sociale come dinamica di interrelazione, creazione e distruzione del legame. Si tratta di una cecità-ignoranza dovuta all'indeterminatezza della situazione di incontro tra un ego e un alter, alla iniziale reciproca inaffidabilità. A partire da questa indeterminatezza (incertezza sull'altro), da questa inaffidabilità, si costruisce, per via comunicativa, il sistema sociale, tramite continui esperimenti di condivisione-concessione di libertà.
Molto altro resterebbe da dire ma non voglio sfiancare il coraggioso lettore....Chiudo così con una citazione di L ( da Sistemi Sociali): " La teoria descrive una realtà che è sospesa nel vuoto, una costruzione che si fonda da sola [autopoiesis]... Non potendo fondare la stabilità dell'ordine sociale né sulla natura né su norme né su valori validi a priori, la teoria deve individuare nuovi riferimenti." Cosa mi resta nella testa ? Costruzione del novum, nuovi riferimenti fondativi, sistemi indeterministici....Insomma, per L sono i sistemi, in quanto indeterministici, a produrre azione, in questo senso il passaggio al nuovo paradigma sociologico è costituito dal considerare la comunicazione come elaborazione della novità, della sperimentazione evolutiva. In questa ottica sono fondamentali nella dinamica sociale i fenomeni di conflitto sociale, considerati da L come fenomeni di autoimmunizzazione dei sistemi nei confronti di sclerotizzazioni metafisiche, quindi totalitarie (ritorniamo al punto di partenza: la fissazione all'Uno).
Tutto ciò dovrebbe interessare lo psichiatra che volesse uscire dalla sua infanzia fenomenologico-idealistica, per entrare nel travaglio della maturità scientifica. Ma ci credo poco, sono certo che gli psichiatri sentono parlare per la prima volta di Luhman in questo sito, infatti dei quasi 7000 nodi di pol.it non uno ne parla. Dateci sotto !!
Luhmann (con due n) non va dimenticato. E' un pragmatista della stazza di Peirce, di James, di Dewey, più defilato dal suo pensiero Georg Herbert Mead. Credo che a noi psichiatri possa offrire uno spunto di riflessione la sua nozione di "interpenetrazione", che potrebbe servirci da grimaldello per entrare nella non sempre chiara (perché scontata) interazione (già questa parola non piace a molti colleghi per la sua connotazione meccanicista) tra soggetto individuale soggetto collettivo, intesi come sistemi sociali (entrambi!). Sto preparando un post sulla ripetizione, rispettivamente meccanica e antropica, dove comincio a familiarizzarmi con il concetto di interpenetrazione. E' il mio modo di darci sotto, come sollecita Moglia, cui consiglio un tono di voce più sommesso, giusto per farsi sentire meglio. Per me, data l'età, è passato il tempo delle invettive.
Bell'articolo.
Il concetto di avanzamento di una disciplina nell'ambito dell'incertezza, attraverso un discernimento collettivo di ciò che può essere utile e di ciò che lo è meno di una dottrina o teoria lo trovo veramente centrale. Eppure credo, sulla base della mia esperienza clinica, che la tendenza positivistica a trovare certezze e a stabilire nessi di causalità nei fenomeni osservati sia tuttora prevalente, anche nelle discipline umanistiche come la psicoterapia (ho letto l'articolo a salti, ognuno ha la sua pelle).