Basi fisiche della complessità biologica e genesi della coscienza

Share this
4 ottobre, 2012 - 12:35

1. Gerarchie di livelli

Ogni teoria fisica stabilisce una relazione tra due livelli di descrizione del mondo naturale, uno fondamentale e un altro fenomenologico, e cerca di spiegare come il secondo possa emergere dal primo. Così ad esempio, nei primi decenni del ‘900 la meccanica quantistica ha assunto come livello fondamentale quello degli elettroni, dei nuclei e del campo elettromagnetico, e come livello fenomenologico quello dei sistemi materiali condensati: molecole, cristalli, liquidi, gas ecc.

In tempi più recenti il livello fondamentale è stato spostato verso il basso, nel mondo dei leptoni, dei quarks, del campo elettro-debole e cromodinamico, e quello fenomenologico è stato spostato sul vecchio livello fondamentale dei nuclei atomici e degli elettroni.

Nella fisica teorica dei nostri giorni è in atto un'ulteriore spostamento di livelli: posti i leptoni, i quarks e i campi che descrivono le loro interazioni come livello fenomenologico, si cerca di spiegare come queste entità possano emergere da un livello più profondo, nel quale, si spera, dovrebbe potersi realizzare l'unificazione di tutte le leggi d'interazione quantistica in un'unica teoria che comprenda anche l'interazione col campo gravitazionale. La teoria delle superstringhe è un tentativo in questa direzione. E' legittimo chiedersi se la fisica teorica finirà mai di scendere sempre più in profondità nella ricerca delle strutture ultime della materia.

Se ogni livello fondamentale fosse a sua volta il livello fenomenologico che sta sopra un livello ancor più fondamentale e diverso dal primo, si aprirebbe un abisso infinito di livelli sempre più fondamentali i quali, da un certo stadio in giù, per esaurimento delle possibilità descrittive semplici, dovrebbero diventare sempre più complicati. La fisica teorica si perderebbe così nei meandri di un mostruoso frattale matematico senza mai raggiungere un assetto conclusivo. La pretenziosa vocazione di spiegare ogni cosa riducendo il complesso al semplice s'infrangerebbe contro questo evidente paradosso. Se ogni cosa è composta di cose più semplici, bisognerà che la discesa a livelli di descrizione più profondi si arresti ad un ultimo irriducibile livello di massima semplicità, oltre il quale non è più possibile procedere. Quali strane proprietà dovrebbe avere questo livello ultimo per non ammetterne uno di più profondo? Se quest'ultimo livello c'è, allora è naturale pensare che esso debba essere sia strutturale che fenomenologico.

In generale, a ogni livello di descrizione quantistico, dall'interazione tra alcuni tipi di particelle si producono particelle addizionali dotate di proprietà generalmente diverse da quelle introdotte inizialmente: spin più grandi, cariche multiple, nuove masse ecc. Si tratta di un vero e proprio fenomeno di emergenza quantistica che tende ad allargare la popolazione degli oggetti quantistici. Ora, da un punto di vista puramente speculativo, se si assume che il livello fondamentale sia popolato di particelle elementari dotate di proprietà e modi di interazione generalmente diversi da quelle che si trovano in natura, non si può in generale evitare che al livello fenomenologico emerga una pletora infinita di altre particelle elementari dotate di proprietà che non restano definite dalla teoria stessa e che pertanto possono essere scelte in modo arbitrario. Se si vuole evitare questo pandemonio quantistico, bisogna restringere la scelta a un numero esiguo di particelle fondamentali e a particolari tipi d'interazione estremamente simmetrici, in modo che dall'interazione di queste particelle si producano circolarmente al più un numero finito di nuove particelle, tra le quali eventualmente anche quelle del livello fondamentale da cui si era partiti. Le teorie che soddisfano a questa condizione di autoconsistenza e autocompatibilità si chiamano rinormalizzabili. Non tutti i tipi di particelle e non tutte le leggi d'interazione matematicamente ammissibili soddisfano a questo requisito ed è allora tutto da vedere se le particelle che esistono in natura appartengono a questa classe. Fortunatamente, questo è proprio quello che accade. Il formidabile progresso compiuto dalla fisica teorica degli ultimi 30 anni, valutabile in termini di potere predittivo, è derivato proprio dall'applicazione delle condizioni di rinormalizzabilità. Stando così le cose, si può senz'altro dire che la ricerca del livello ultimo tende a coincidere con la ricerca di un livello totalmente autoreferenziale, nel quale il livello fenomenologico coincide con quello fondamentale.

 

2. L'emergenza delle qualità macroscopiche

Siamo tanto abituati a vedere e manipolare oggetti macroscopici, a smontarli come giocattoli, esplorandoli dall'esterno verso l'interno, che ci viene spontaneo immaginare le particelle che li costituiscono come segretamente nascoste nella profondità della materia, e a considerare il progresso della fisica come un movimento esplorativo volto al raggiungimento di livelli sempre più fondamentali.

Diamo per scontate senza alcuna esitazione le proprietà macroscopiche della materia e proviamo invece meraviglia e stupore nell'immaginare che essa sia costituita di entità che obbediscono a leggi fisiche completamente diverse da quelle che regolano il mondo macroscopico. Possiamo anche arrivare al punto di sentirci disturbati dal fatto che la descrizione del mondo microscopico richieda una logica profondamente diversa da quella che ci basta per ragionare sui fatti della nostra vita quotidiana.

Ma proviamo a capovolgere questo atteggiamento procedendo invece dal basso verso l'alto. Proviamoci a spiegare come possa formarsi il livello dei fenomeni macroscopici a partire dal livello descrittivo di particelle quantistiche e delle leggi che ne governano il comportamento, ragionando solo quantisticamente. Per riuscirci veramente bene si richiederebbe una certa familiarità con le tecniche di calcolo della meccanica quantistica. Ma, anche se non siamo ben addestrati per questo compito, proviamo lo stesso a farci un'idea di come si presenti il problema quando viene posto in questo modo.

Come possiamo risalire dal livello strutturale fondamentale a quello dei fenomeni macroscopici? Come possiamo spiegare il fatto che da un mondo uniformemente popolato di pochissime specie di entità elementari, che interagiscono secondo leggi tutto sommato estremamente semplici e altamente simmetriche, possa generarsi l'immensa varietà e l'indescrivibile complessità di tutto ciò che si osserva in natura?

Se gli stati della materia avessero le stesse proprietà di simmetria del livello fondamentale, l'universo sarebbe perfettamente omogeneo e isotropo in tutta la sua estensione, sarebbe una sorta di fluido attraversato da eccitazioni quantiche che si propagano in tutte le direzioni, come si ritiene sia stato nella fase iniziale del big-bang.

Certo, l'evidenza di strutture simmetriche non manca tra le cose che si osservano in natura. Il mondo inorganico si rivela per lo più come una vasta collezione di strutture cristalline, di masse amorfe macroscopicamente omogenee e isotrope, sebbene la stessa esistenza di corpi rigidi spazialmente ben delimitati appaia in contrasto con la fluidità e la continuità che viene descritta al livello fondamentale. Ma la stragrande maggioranza delle cose che ci circondano, specialmente le entità biologiche, non mostrano affatto queste caratteristiche. Come accade dunque che l'universo reale, di cui noi esseri irripetibili e singolari siamo parti integranti, si manifesti come un'immensa varietà di cose eterogenee e asimmetriche?

La risposta a questi interrogativi ci è fornita dai fisici teorici degli stati condensati ed è raccontata in modo magistrale nei testi di Philip Anderson e nel trattato di Hiroomi Umezawa e collaboratori ed è la conseguenza di un importante risultato matematico ottenuto da John von Neumann nel 1939: A differenza da un sistema quantistico finito, che ammette un'unica rappresentazione fenomenologicaun sistema quantistico costituito da un numero infinito di parti, cioè dotato di infiniti gradi di libertà, ammette infinite rappresentazioni fenomenologiche non equivalenti tra loro, e queste diverse rappresentazioni formano un insieme di possibilità reciprocamente esclusive che ha la cardinalità del continuo.

In altri termini, la relazione tra livello fondamentale e livello fenomenologico non è più univoca e sono possibili per lo stesso sistema infiniti livelli fenomenologici distinti che dipendono da parametri continui.

Ciò che accade è interpretabile nel seguente modo: ogni minima variazione di questi parametri determina la creazione e/o la distruzione di infinite particelle. Naturalmente un processo di questo genere è fisicamente possibile solo se comporta una variazione finita di energia; solo, cioè, se tutte tali particelle, tranne al più un numero finito, hanno energia zero. La loro stessa massa dev'essere zero, poiché, come insegna la teoria della relatività, la massa non è altro che l'energia a riposo di una particella. Ora, poiché si può dimostrare che più particelle possono trovarsi nello stesso stato solo se sono bosoni, cioè solo se soddisfano alla statistica di Bose-Einstein, ne consegue che due rappresentazioni non equivalenti differiscono tra loro per un numero infinito di bosoni di massa zero. Le condensazioni bosoniche che si formano dentro i sistemi materiali aggregati non appartengono alla classe delle particelle fondamentali e non esistono al di fuori dell'aggregazione materiale. Questi bosoni nascono dal comportamento collettivo delle particelle fondamentali interagenti col campo elettromagnetico. Classicamente, verrebbero descritti come stati di oscillazione o rotazione collettiva. In realtà, poiché le eccitazioni dei modi dinamici collettivi sono quantizzate, essi manifestano un carattere particellare. Fononi, fasoni, magnoni, polaritoni, plasmoni, rotoni ecc. sono i nomi di alcune famiglie di tali bosoni ben note nella fisica degli stati condensati.

Se il livello di descrizione fondamentale del sistema con infiniti gradi di libertà è dotato di una simmetria, ad esempio l'invarianza per traslazione o per rotazione, una frazione infinita di particelle asimmetriche di massa nulla può essere aggiunta o rimossa, con una spesa energetica infinitesima in modo da distruggere la simmetria della rappresentazione fenomenologica senza che quella del livello fondamentale risulti toccata. E' noto che processi di questo tipo non possono essere descritti come semplici evoluzioni temporali del sistema ma come transizioni di fase termodinamiche che possono avvenire spontaneamente in seguito a una variazione di temperatura o di pressione. Queste rotture spontanee di simmetria costituiscono vere e proprie trasformazioni macroscopiche dello stato del sistema.

Come hanno chiarito Umezawa e collaboratori, condensazioni bosoniche associate a rotture spontanee delle simmetrie possono aver luogo in regioni finite dello spazio. Gli stessi confini di queste regioni, o insiemi interstiziali interni a esse, diventano luoghi di condensazione bosonica. Ad esempio, le facce dei cristalli sono luoghi di condensazione fononica. La visione che ci viene offerta percorrendo la scala dei livelli in senso opposto a quello usuale della fisica delle particelle elementari, verso il mondo dei fenomeni macroscopici, è dunque questa: tutto ciò che in natura si presenta come oggetto esteso di dimensioni finite, distinto da altri che si trovano accanto ad esso o al suo interno, è un'emergenza fenomenica di una livello quantistico fondamentale che si è prodotta in seguito a una rottura spontanea di qualche simmetria e tramite una condensazione bosonica. Sono queste condensazioni localizzate che formano le emergenze del mondo macroscopico, sono esse che, in concomitanza alle variazioni di entropia termodinamica, catturano o dissolvono irreversibilmente l'informazione, sono dunque esse che danno origine alla complessità della natura.

 

3. L'emergenza delle qualità biologiche

In un articolo del 1980, Anderson e Stein posero la questione se i sistemi termodinamici aperti ammettano una fenomenologia quantistica capace di produrre qualità emergenti di tipo superiore rispetto a quelle che si manifestano nel mondo dei sistemi in equilibrio termodinamico e hanno espresso il dubbio che ciò non sia possibile.

Lo scetticismo di questi autori è principalmente motivato dal fatto che la teoria di Prigogine, dei sistemi dissipativi aperti lontani dall'equilibrio termodinamico che si auto-organizzano sotto la spinta del flusso metabolico, appare lontana dalla fenomenologia quantistica.

"Possono emergere da un sistema più complesso proprietà che non sono presenti nel più semplice substrato da cui il sistema complesso si forma?" Si chiedono in prima istanza i due fisici, e subito rispondono: "La teoria della rottura delle simmetrie dà un inequivocabilmente ‘sì': nei sistemi in equilibrio contenenti un gran numero di atomi, possono emergere nuove proprietà — come la rigidità o la superconduttività — e nuove entità o strutture stabili — come le linee vorticali quantizzate — che non solo non esistono ma sono persino prive di significato a livello atomico."

Essi poi avanzano questo secondo interrogativo: "Ci sono proprietà emergenti nei sistemi dissipativi condotti fuori dall'equilibrio termodinamico?"

"La risposta è ancora sì — essi aggiungono - instabilità dinamiche come turbolenze e moti convettivi sono comuni in natura e la loro origine è ben compresa matematicamente. Quando accadono, questi fenomeni esibiscono sorprendenti effetti da rottura spontanea di simmetria, che assomigliano moltissimo alle strutture in equilibrio termodinamico che esistono nei sistemi materiali condensati. Esse sono state chiamate ‘strutture dissipative'. Ne sono esempi le celle di convezione o i vortici nei fluidi turbolenti. Ma esse appaiono sempre molto instabili e transitorie: possono esse spiegare la vita, che è molto stabile e permanente (almeno su scale temporali atomiche)?"

Poi proseguono con l'ulteriore domanda: "C'è una teoria delle strutture dissipative paragonabile a quella delle strutture dei sistemi in equilibrio, che spieghi l'esistenza di nuove stabili proprietà ed entità in tali sistemi?"

"Contrariamente alle enunciazioni che si trovano in vari libri e articoli su questo campo, noi crediamo che una tale teoria non ci sia — concludono gli autori - e può anche essere che non ci siano quelle strutture la cui esistenza è stata implicata da Prigogine, Haken e loro collaboratori. Ciò che di fatto esiste in questo campo è piuttosto diverso dalle speculazioni di Prigogine ed è attualmente oggetto di intensi studi sperimentali e teorici."

Ma leggendo questo articolo si ha l'impressione che gli autori spostino il problema sul terreno di una polemica contro la visione di Prigogine, senza nemmeno tentare di varcare la soglia del territorio in cui il problema realmente si pone, cioè il mondo dei sistemi biologici reali. Oltretutto, i processi di auto-organizzazione descritti da Prigogine sfruttano ben poco le risorse della meccanica quantistica.

In realtà, la dinamica quantistica dei sistemi densi è in grado di generare forme spettacolari di ordinamento. Ciò accade ad esempio quando le rotazioni di fase degli stati quantici di un insieme di piccoli sistemi tutti uguali si coordinano spontaneamente formando uno stato collettivo coerente. L'emissione di luce coerente da parte di un laser condotto fuori dall'equilibrio termodinamico da una corrente elettrica o da un fascio di luce incoerente ne è un esempio lampante. Le fasi delle eccitazioni quantiche del campo elettromagnetico e quelle della popolazione molecolare si agganciano spontaneamente tra loro in una rotazione di fase cooperativa alla frequenza della luce coerente.

Purtroppo il laser non è un buon modello per la formazione dell'ordine nei sistemi biologici. L'ordine che si stabilisce in questo dispositivo artificiale è stabile e permanente solo se la cavità risonante è dotata di superfici riflettenti fisse. Niente del genere esiste negli organismi viventi.

Ciononostante, ci sono diverse buone ragioni per ritenere che i sistemi biologici siano sede di fenomenologie quantistiche generatrici di ordine e organizzazione. Gli organismi viventi sono assai più stabili e duraturi delle macchine di produzione industriale e questo non può essere spiegato invocando solo l'efficienza della cascata metabolica che li mantiene fuori dall'equilibrio termodinamico.

La biologia molecolare sembra poter spiegare tutto, in realtà essa non fornisce molto di più che una descrizione molto accurata di ciò che si osserva nei sistemi viventi. Essa ce li presenta come macchine biochimiche che si reggono solo in virtù di interazioni e reazioni molecolari, ma non arriva a spiegare quali siano veramente i fattori della loro straordinaria stabilità. La stabilità delle strutture cellulari viene ricondotta al turnover proteico che provvede alla riparazione della macchina biologica mediante una continua emissione di pezzi di ricambio. Ma come accade che, senza l'intervento di alcun meticoloso apparato supervisore, tutti questi pezzi vadano perfettamente al loro posto rigenerando la stessa identica forma per durate temporali enormi rispetto alla scala temporale dei processi molecolari?

La biofisica, scienza ancora giovane, si è finora prevalentemente dedicata ad applicare le conoscenze della fisica allo studio dei sistemi biologici, ma non ha compiuto grandi progressi nella comprensione dei fattori che producono l'ordine e l'organizzazione che si ammirano negli organismi viventi.

Che l'evoluzione del vivente non possa spiegarsi soltanto per effetto di processi selettivi di tipo darwiniano ma anche per una naturale tendenza alla formazione di strutture ordinate, è stato spiegato e vigorosamente ribadito da Stuart Kauffman nel suo libro The Origins of Order. Questo autore ha studiato molti modelli di selezione naturale simulando con i calcolatori la formazione dei paesaggi adattativi che descrivono le biforcazioni e le migrazioni di ipotetiche popolazioni in corso di evoluzione. I risultati delle sue indagini forniscono una chiara dimostrazione che la sola dispersione dei caratteri genetici in combinazione con la selezione naturale non dà luogo a una proliferazione di specie differenziate, ma conduce l'intera popolazione di organismi che si autoriproducono verso quella che egli chiama la "catastrofe della complessità": "In primo luogo,- egli osserva - la selezione è limitata dalla struttura del paesaggio adattativo che agisce su di essa; in molti paesaggi, appena gli organismi sotto selezione diventano più complessi, le posizioni ottimali raggiungibili cadono verso le caratteristiche medie della classe di sistemi sui quali la selezione sta agendo. In secondo luogo, in ogni paesaggio, ogni bilancio mutazione-selezione viene abbattuto; oltre un certo livello di complessità, la selezione non riesce a mantenere una popolazione dotata di capacità adattative sui picchi alti del paesaggi, e la popolazione precipita allora verso le proprietà medie della classe sottostante di sistemi evolutivi."

In pratica, questo significa che ogni popolazione di organismi viventi altamente specializzata, che venisse in qualche modo creata a un certo istante, andrebbe incontro all'estinzione e i suoi caratteri genetici si disperderebbero in modo tendenzialmente uniforme intorno a quelli di una specie media inferiore. Esattamente il contrario di ciò che si osserva in natura.

"Entrambi questi limiti — conclude l'autore - suggeriscono che, in sistemi sufficientemente complessi, molta parte dell'ordine che si riscontra sia quello spontaneamente presente nella classe dei sistemi in corso di selezione. Pertanto, ci tengo a sostenere con forza che molta parte dell'ordine che si osserva negli organismi è precisamente l'ordine che si crea spontaneamente nei sistemi di cui siamo composti. Tale ordine possiede bellezza ed eleganza, esso proietta sopra la biologia un'immagine di permanenza e di legge sottostante. L'evoluzione non è propriamente ‘caso catturato sull'ala'. Non è un'ingegnosa riproposizione di ciò che si presenta ad hoc, del bricolage, dell'accorto espediente. E' ordine emergente onorato e affilato dalla selezione."

Come nasce questo ordine che Kauffman riconosce come un'emergenza spontanea, assolutamente fondamentale del vivente, e che Anderson e Stein negano potersi ricondurre alle tendenze auto-organizzative dei sistemi dissipativi?

La teoria delle rotture spontanee delle simmetrie spiega assai bene come le simmetrie fondamentali della materia si riarrangino generando una ricchissima varietà di oggetti macroscopici dotati di proprietà speciali e potenzialmente capaci di combinarsi tra loro per formare sistemi macroscopici di complessità illimitata. Ma esse sembrano favorire la diversificazione e il disordine piuttosto che l'organizzazione e l'ordine.

Eppure basta sfogliare un buon testo di biologia cellulare per accorgersi di quante strutture altamente organizzate e stupendamente ben ordinate siano presenti negli organismi viventi. Strutture che si formano spontaneamente senza la guida di alcuna provvida e accurata manina: membrane di vario tipo, lunghe catene molecolari avvolte a elica, mitocondri, microtubuli, trabecole di citoscheletro, trecce proteiche che si tendono attraverso ampi spazi extracellulari ecc., per non parlare degli aggregati di proteine che si organizzano spontaneamente per formare i canali ionici e i trasportatori molecolari delle membrane cellulari. Come è possibile che questa immensa varietà di microstrutture estremamente specializzate si ordinino spontaneamente dentro un miscuglio disordinato di componenti? Solo grazie al mantenimento di un potenziale elettrico attraverso la membrana cellulare? Si ha qui l'impressione che manchi nella fisica contemporanea il capitolo dei processi fondamentali di ordinamento e organizzazione spontanea delle strutture materiali.

 

4. Emergenza dell'informazione e dei linguaggi

Guardando verso i livelli della complessità crescente, si rimane spaventati per la quantità di cose che sono ancora da scoprire e capire. Il salto che separa livello degli stati condensati della materia da quelli in cui la complessità biologica esprime la sua massima potenza creativa è troppo grande perché si possa sperare di percorrerlo in tempi brevi. L'idea che ce ne possiamo fare oggi è certamente incompleta, e possiamo parlarne solo in modo approssimativo. Una cosa è tuttavia chiara: il dominio della complessità è fondato sull'emergenza dei processi informazionali.

L'informazione emerge dalla fenomenologia quantistica dei processi di osservazione in modo immediato e naturale: da un lato come riduzione d'incertezza soggettiva dell'osservatore, dall'altro come riduzione dell'indeterminazione quantistica dello stato di un sistema conseguente. La meccanica quantistica dei sistemi infiniti chiarisce come questi processi d'osservazione siano in realtà transizioni di fase termodinamiche del mondo macroscopico e in questo modo viene stabilita la corretta connessione tra l'informazione osservazionale e l'entropia termodinamica.

L'entropia termodinamica è la misura dell'indeterminazione oggettiva che uno stato fisico ha rispetto a un certo modo di osservarlo, e l'entropia informazionale è la misura dell'incertezza che l'osservatore ha prima che il processo di misura dia il suo risultato. In corrispondenza a questi due tipi di incertezza, possiamo definire due tipi di informazione: una come variazione negativa di entropia termodinamica l'altra come variazione negativa dell'entropia informazionale. Daremo alla prima il nome di neg-entropia, usando il termine coniato da Schrödinger, e alla seconda il semplice nome di informazione, secondo la dizione introdotta da Shannon nell'ambito della teoria della comunicazione. Si chiarisce così come il livello fenomenologico della fisica altro non sia che quello in cui i mutamenti di stato di un sistema fisico acquistano il significato di eventi informazionali disponibili alla comunicazione tra osservatori.

E' qui opportuno considerare come la termodinamica iniziata da Sadi Carnot e progressivamente sviluppata da Clausius, von Helmholtz, Nernst e Planck, per il fatto di attribuire all'entropia termodinamica un significato oggettivo fosse in conflitto con la visione determinista della fisica classica. La formula dell'entropia di Boltzmann, che secondo l'autore doveva rappresentare l'entropia termodinamica oggettiva, urtava contro almeno tre paradossi: 1) quello messo in evidenza da Maxwell, con l'esempio dell'essere intelligente microscopico che sfrutta i risultati delle sue osservazioni per diminuire l'entropia di un gas senza compiere lavoro (il famoso ‘demone' di Maxwell); 2) quello messo in evidenza da Gibbs circa l'ambiguità della misura dell'entropia di un volume gassoso che dovrebbe aumentare ogni volta che si inserisce e si toglie un setto divisorio; 3) quello messo in evidenza da Planck circa lo spettro di radiazione del corpo nero che dovrebbe emettere radiazioni di frequenza infinita.

Il paradosso di Planck fu risolto con la scoperta dei quanti di radiazione; quello di Gibbs col ripudio della meccanica statistica classica; quello di Maxwell fu spiegato nel 1929 da Leo Szilard e ulteriormente chiarito da Leon Brillouin nel 1950, con la dimostrazione che ogni acquisizione di informazione ha un costo termodinamico compensativo che si traduce in un aumento di entropia termodinamica dell'universo, pena la violazione del secondo principio della termodinamica.

Quest'ultimo chiarimento riveste un'importanza particolare per la meccanica quantistica perché ci impone di considerare le misurazioni e le osservazioni come processi termodinamici irreversibili che comportano aumenti compensativi di entropia termodinamica in misura non inferiore a quella che potrebbe essere diminuita utilizzando l'informazione acquisita dall'osservatore. La meccanica quantistica elementare non riesce a spiegare come ciò possa accadere, ma la teoria dei sistemi quantistici infiniti spiega perfettamente questi processi come transizioni di fase macroscopiche che avvengono negli stati condensanti materiali in seguito a rotture spontanee di simmetrie. Queste possono avvenire perché l'universo si trova in uno stato di espansione continua che mantiene la materia e la radiazione fuori dall'equilibrio termodinamico e quindi l'entropia termodinamica lontana dal suo valore massimo.

La fenomenologia macroscopica dell'universo si esplica come processo di continua conversione di neg-entropia sedimentata negli stati macroscopici della materia in segnali trasportatori di informazione e viceversa. Questa è la base da cui si genera la complessità organizzativa della materia e la formazione degli esseri viventi.

Ma quali sono le condizioni affinché uno stato macroscopico funzioni come memoria e un segnale come messaggio?

La teoria dell'informazione insegna a misurare la quantità di informazione, ma non dice nulla riguardo al valore dell'informazione. Uno stesso messaggio può essere memorizzato in due supporti materiali completamente diversi e trasportato da due segnali fisici completamente diversi. L'informazione memorizzata in un oggetto non è una proprietà fisica dell'oggetto. Dunque, per definire il concetto di informazione bisogna fare astrazione dalla qualità fisica del supporto.

D'altronde, una stessa traccia materiale o uno stesso segnale possono veicolare due messaggi completamente diversi. Infatti, il valore, la funzione, il significato di un messaggio, dipendono dal destinatario che lo riceve e lo decodifica in funzione dei suoi usi possibili. In assenza di un potenziale destinatario, una traccia magnetica su un dischetto sarebbe solo un stato fisico del dischetto e un'onda sonora sarebbe solo una vibrazione dell'aria. L'informazione memorizzata in un oggetto non è una proprietà formale, come può esserlo una particolare sequenza di segni o segnali, poiché gli effetti di questa sequenza dipendono dal funzionamento degli oggetti che la analizzano. Dunque, per definire il concetto di informazione bisogna fare astrazione anche dalla forma del messaggio.

Una duplice astrazione separa l'informazione dal mondo degli oggetti fisici e delle loro interazioni col più complesso mondo esterno e la trasferisce nel dominio astratto delle qualità simboliche. Solo in questo più ampio contesto l'informazione si pone come qualità emergente e i fenomeni naturali acquistano il significato di messaggi di un linguaggio.

"Quello che abbiamo bisogno di sapere è come una molecola diventi un messaggio." Scriveva Howard Pattee nel 1973 in un articolo intitolato Hierarchical Control in Living Matter, e subito aggiungeva: "Un vincolo arbitrario ma definito correla tra loro una struttura e un'operazione, questo crea l'aspetto simbolico degli eventi fisici." Ma questa correlazione diviene effettivamente operativa in un sistema di controllo automatico solo se è inserita in una processo di comunicazione.

Ai livelli più elementari dell'organizzazione biologica si collocano i processi di retroazione, che provvedono all'omeostasi e alla regolazione del sistema, in breve i processi di controllo automatico. D'altronde il controllo automatico richiede la coerenza e l'ordine sequenziale di eventi ben definiti, in modo che siano realizzate le condizioni fisiche affinché ciò avvenga. Solo così si forma un livello omogeneo di eventi ordinati capaci di sostenere un processo di comunicazione. Si comprende da qui l'importanza delle dinamiche coerenti e degli orologi biologici.

"Il controllo gerarchico nei sistemi viventi a tutti i livelli — sosteneva anche l'autore - richiede un insieme di vincoli coerenti che in qualche modo crea un contenuto simbolico o un messaggio in strutture fisiche, in altre parole, un insieme di vincoli che stabilisce una struttura di linguaggio." "In quanto vincoli individuali essi devono apparire come accidentalità congelate, ma in quanto collezioni essi devono apparire integrate e funzionali." "Vita e linguaggio sono concetti paralleli e inseparabili."

Secondo Pattee, le proprietà di un linguaggio operativo a un livello di controllo sono le seguenti: " 1) Gli elementi di un linguaggio sono discreti, preformati, e arbitrari. 2) Combinazioni di elementi sono sequenziali e numerabili. 3) Non tutte le combinazioni di elementi formano un messaggio. 4) Operazioni che formano o trasformano combinazioni coinvolgono livelli contigui. 5) Il metalinguaggio è contenuto nel linguaggio. 6) Il linguaggio cambia gradualmente e continuamente senza mai mancare di avere una struttura grammaticale."

L'autore parla di "gerarchie di controllo" perché la gerarchia di complessità strutturale che si osserva nei sistemi biologici (organelli, cellule, organi, organismi, popolazioni ecc.) richiede una corrispondente gerarchia di livelli di controllo funzionanti a scale temporali diverse. Ma sarebbe stato più appropriato se avesse usato l'espressione "stratificazione di livelli di comunicazione", poiché non si può escludere che uno stesso segnale sia operativo in più livelli di comunicazione, e che tra livelli diversi non si stabiliscano scambi incrociati di messaggi. Come non si può escludere che più livelli distinti si affianchino sopra o sotto uno stesso livello intermedio.

Sequenze spazialmente ordinate di acidi nucleici o di aminoacidi equivalgono a stringhe di lettere alfabetiche. Esse possono essere trascritte, decodificate, codificate in altra forma e così partecipare a un processo di comunicazione. Ma questo può avvenire solo se le sequenze spaziali vengono convertite in sequenze temporali e viceversa e ciò richiede l'esistenza fisica di opportune strutture operatrici. Chiaramente, i fattori di ordinamento spaziale e temporale sono altrettanto indispensabili per l'esistenza dei processi di comunicazione quanto lo sono le strutture fisiche che veìcolano l'informazione. L'informazione, benché sia una qualità emergente astratta, può esistere solo in un mondo di macchine strutturalmente stabili e dotate di fattori di ordinamento temporale globale.

In ultima analisi, i significati che le catene molecolari veicolano consistono nelle operazioni fisiche che vengono attivate alla periferia dei processi di comunicazione. Nei sistemi informatici artificiali queste operazioni servono soltanto ad attivare periferiche, monitor, emettitori acustici, servomotori ecc., ma negli organismi viventi esse sono essenziali per il mantenimento stesso del sistema.

Infatti, ogni parte di un organismo vivente può esistere solo perché è assistita da processi di regolazione che ne garantiscono la stabilità strutturale e funzionale. Doppie eliche di acidi nucleici, molecole proteiche, ionici, segnali elettrici, meccanici ecc. costituiscono i vincoli strutturali-operazionali di una stratificazione di linguaggi esplorata solo in minima parte. Essi istruiscono tutte le operazioni di controllo, calcolo e costruzione che sono indispensabili per l'esistenza e la riproduzione dell'organismo.

Poiché in generale ogni messaggio generato ad un livello di questa stratificazione è decodificato da un altro sistema generalmente più complesso, il suo significato risulta in generale definito dall'uso che ne viene fatto ai livelli superiori. Questo pone il problema di come sia organizzata la stratificazione dei livelli di comunicazione in rapporto alla gerarchia dei livelli di complessità del mondo naturale: se sia ipotizzabile una progressione infinita di livelli o se esista un ultimo livello nel quale ogni messaggio trova i suoi significati ultimi e definitivi. Se il livello della comunicazione umana è proprio questo, si pone anche la questione sia di capire come si ponga, in tale stratificazione, il livello di complessità generatrice della coscienza sia, infine, di capire cosa sia la coscienza.

 

5. Il fenomeno della coscienza dal punto di vista soggettivo

Dobbiamo riconoscere che ciò che per noi è significativo, lo è perché ci veicola informazione nel senso preciso della teoria dell'informazione: cioè come riduzione di un'incertezza aprioristica, come determinazione specifica entro un insieme di possibilità a priori.

Ogni osservazione che noi facciamo, ogni percezione che susciti la nostra attenzione, in quanto implica la riduzione di un'incertezza associata alle nostre aspettative, è acquisizione di informazione. E ogni scelta che noi facciamo, ogni decisione che noi prendiamo, in quanto equivale a una riduzione di incertezza, è produzione di informazione. La cognizione del possibile è dunque un presupposto necessario della nostra capacità di elaborare informazione. Naturalmente, questa sola proprietà non basta a spiegare il fatto che siamo coscienti.

La natura informazionale del nostro pensiero risalta anche dal fatto che i nostri pensieri possono essere definiti come i messaggi della nostra comunicazione interiore e dal fatto che, in generale, essi possono essere codificati in modo da essere segnalati ad altri, per esempio in termini verbali o scritti. I pensieri, in quanto messaggi della comunicazione interiore, sono significativi solo se sono comunicabili ad altri soggetti pensanti, ed essi riescono ad essere tali perché sono un prodotto storico della comunicazione tra soggetti pensanti.

Poiché un pensiero è significativo solo se porta informazione - e porta informazione solo se viene a ridurre qualche sorta di incertezza - in ultima analisi, dobbiamo riconoscere che l'incertezza è un presupposto indispensabile del nostro pensiero, un ingrediente necessario della nostra esistenza soggettiva. Se non avessimo l'esperienza dell'incertezza non potremmo avere conoscenza e quindi nemmeno coscienza e non esisteremmo soggettivamente. Si potrebbe dire, dopo ed oltre Cartesio, ‘dubito ergo sum'.

La certezza che noi esistiamo coincide con la percezione immediata della nostra esistenza. Essa non ci rivela in quale modo esistiamo, quali siano le cause e le circostanze del nostro esistere. Nonostante il fatto che questa certezza di esistere soggettivamente abbia la forma di una risposta positiva a un'incertezza aprioristica (esistiamo o no?), in realtà essa non è la risposta ad alcun dubbio, ed è l'unica certezza che si dà in questo modo.

La cognizione dell'incertezza coincide con quella del possibile. Il senso del libero arbitrio, o della libera possibilità di scelta, che accompagna ogni attimo della nostra presenza mentale quali esseri pensanti, implica la collocazione di ogni nostra percezione, come pure di ogni nostra azione, in un contesto immaginario di percezioni e azioni possibili. Solo in questo modo una percezione particolare o una particolare azione ci risultano significative.

La coscienza di esistere come soggetti pensanti si basa in modo essenziale sulla capacità autoriflessiva del pensiero, cioè nel poter porre il nostro stesso pensiero come oggetto della nostra attività pensante; nel poter pensare, ad esempio, ciò che abbiamo già pensato in un altro momento, il fatto che abbiamo pensato, il dubbio che ciò che abbiamo pensato sia giusto o sbagliato ecc. Questa attività autoriflessiva elabora informazione operando in modo ricorsivo, risolvendo ambiguità, correlando tra loro oggetti del pensiero apparentemente disparati. Essa non è affatto un semplice rimescolamento delle stesse cose, ma un incessante processo di sviluppo dell'organizzazione mentale. Essa produce nuova informazione riducendo incertezze presenti in stadi precedenti dell'attività mentale.

Se il valore che ha per noi una nostra percezione o una nostra immagine mentale dipende dalle azioni effettuabili in conseguenza di essa, possiamo facilmente comprendere come il significato di un nostro atto consapevole dipenda dalla circostanza che nell'immaginazione del possibile, su cui si basa la nostra consapevolezza, le possibilità di agire e di percepire si pongono in reciproca relazione in modi piuttosto complessi.

L'argomento si espande ulteriormente se teniamo conto del fatto che noi possiamo esperire consapevolmente il nostro particolare attimo esistenziale solo in rapporto a un sistema immaginario di possibilità esistenziali diverse da quella che stiamo vivendo; come se l'intuizione del possibile fosse lo sfondo necessario a far risaltare la percezione di noi stessi.

Se poi prendiamo in considerazione la nostra capacità di rammentare il pensiero che avevamo un attimo fa, quasi fosse esso stesso un oggetto della percezione - di tipo non sensoriale ma capace di informare il nostro agire come uno stimolo proveniente dall'ambiente esterno - dobbiamo concludere che anche l'atto di consapevolezza autoriflessiva del pensiero si basa sull'immaginazione del possibile.

Tutto questo sfugge a facili spiegazioni: come può aver luogo nella nostra testa la percezione del possibile, se tutto ciò che accade in ogni momento in noi è solo un complesso di fatti particolari e contingenti? In quale modo alcune di queste particolarità divengono capaci di rappresentare l'universalità del possibile? Quali sono i processi cerebrali concomitanti a questo fenomeno psichico?

Riesce difficile spiegare questo fenomeno se si ammette che nel nostro cervello non si formino in qualche modo le rappresentazioni delle nostre possibilità di agire e percepire; ma riesce altrettanto difficile spiegare che tali possibilità si dispieghino nella nostra materia grigia come la grande collezione, in tutte le sue varianti, del percepibile e dell'agibile.

Si sa bene, da esperimenti condotti sui cervelli di alcune specie di primati, che esistono aree della corteccia cerebrale ricchissime di piccole zone che rispondono in modi specifici alla presentazione di una vasto repertorio di stimoli percettivi. Le forme visive sono codificate in alcune aree corticali dei lobi temporali; analogamente, si sa che esistono aree corticali la cui stimolazione elettrica induce l'esecuzione di azioni motorie specifiche, in particolare nelle aree della corteccia premotoria.

Ma le complessità di queste forme percettive e motorie non sono arbitrariamente grandi e assomigliano piuttosto a moduli espressivi elementari suscettibili di combinarsi tra loro nei modi più svariati, come le parole nei discorsi o i simboli nei calcoli matematici.

Si potrebbe pensare che le aree della corteccia prefrontale, frontale e della regione limbica, caratteristiche della specie umana, siano sede di rappresentazioni percettive e motorie più complesse, corrispondenti a una varietà di possibili interazioni spazialmente e temporalmente estese nell'ambiente. Può darsi che ciò si verifichi effettivamente fino a un certo grado di complessità strutturale. Ma è facile intuire che la combinatoria delle possibilità esploderebbe con legge esponenziale non appena si superasse il livello degli schemi propriocettivi elementari, e che pertanto la quantità di dati necessaria per rappresentare una gamma di casi sufficientemente ampia da riprodurre le possibilità di comportamento di un soggetto umano supererebbe di gran lunga la capacità di memoria del cervello umano.

Non è dunque ipotizzabile che la rappresentazione dei comportamenti possibili che costituisce lo spazio mentale dell'autocoscienza possa darsi come dispiegamento simultaneo di una totalità di modi particolari, né d'altronde si può ipotizzare che essa venga generata mediante sequenze in rapida successione, poiché le massime frequenze in gioco nei processi nervosi non superano alcune centinaia di cicli al secondo.

Si potrebbe a questo punto ipotizzare che la percezione del possibile emerga come facoltà mentale senza bisogno di un processo fisico che la sostenga. In fin dei conti, questo è proprio quello che implicano coloro che sostengono l'esistenza dell'anima o dello spirito. Se ammettessimo questo, potremmo chiudere qui la nostra indagine.

Se d'altronde ammettessimo che questa facoltà si determina per un effetto cooperativo dell'attività neuronale - per il solo fatto che i neuroni interagiscono tra loro generando e trasportando informazione - se la ritenessimo come una sorta di proprietà dipendente dalla quantità di informazione circolante, allora dovremmo concludere che animaletti d'ogni specie, e persino i calcolatori elettronici, possiedano "quantità" di autocoscienza proporzionali alle loro masse neuronali o al loro numero di transistor. E non ci sentiremmo soddisfatti nemmeno di questa risposta.

O se infine, come appare più naturale, dovessimo attribuire il fenomeno a qualche speciale facoltà che si è formata nei cervelli superiori, forse solo in quelli umani, allora ci si ritroverebbe al punto di partenza, ovvero alla domanda: quale è la facoltà cerebrale associata alla rappresentazione mentale del possibile?

Naturalmente, viene subito da pensare che la facoltà cercata sia in qualche modo connessa al linguaggio. Non tanto alla capacità di percepire e articolare suoni complessi - perché anche i pappagalli e i merli indiani la possiedono, mentre i non udenti, che non la possiedono, hanno una competenza linguistica del tutto normale - quanto piuttosto alla capacità di associare funzioni di simbolizzazione a certe immagini di percezioni e programmi di azione. Si tratta di capire allora in quale modo un repertorio di moduli espressivi o propriocettivi, abbastanza elementari da non impegnare eccessivamente la memoria di un cervello delle dimensioni di quello umano, possano produrre, grazie alla facoltà di simbolizzazione linguistica, la rappresentazione simultanea di una varietà praticamente infinita di possibilità comportamentali.

 

6. Il fenomeno della coscienza dal punto di vista neurologico

Chiaramente, non può essere breve il cammino che separa queste osservazioni generali dall'orizzonte della spiegazione. Gettando uno sguardo su uno spettro più ampio della letteratura contemporanea, si ha l'impressione che non ci sia dominio del sapere scientifico che non venga chiamato in causa da qualche autore, ma che il tentativo di integrare reciprocamente i contributi proveniente da tutti i domini della conoscenza non riesca a cancellare l'impressione che la sospirata soluzione si dilegui nell'istante stesso in cui ci s'illude di averla a portata di mano.

Edelman riconduce il carattere autoriflessivo della coscienza primaria (prelinguistica) e di quella superiore (linguistica) a processi riflessivi e ricorsivi che sono possibili grazie al carattere di reciprocità delle interazioni tra le aree della corteccia cerebrale (mappe rientranti).

Antonio Damasio afferma che alla base della gerarchia dei livelli di coscienza ve n'è uno più fondamentale: la nucleo-coscienza (core-consciousness) che ha la sua centrale generatrice nella parte basale e prefrontale del cervello. La sua funzione principale sarebbe quella di fornire la rappresentazione simbolica fondamentale del soma individuale, dei suoi stati organici, delle sue modalità sensoriali e delle sue potenzialità operative ed espressive. Egli la descrive come un processo che si alimenta dei flussi d'informazione somatica e propriocettiva trasformandoli in espressioni visuali e gestuali coerenti. Damasio ipotizza l'esistenza in questa struttura centrale di una memoria dell'esperienza emotiva e di un processo di elaborazione, che egli chiama circuito del ‘come se' (as if), capace di produrre quelle emozioni fittizie e immaginarie che sono così importanti nella comunicazione parentale e nel gioco. Emozioni, sensazioni e sentimenti sarebbero le emergenze fenomeniche soggettive di questo processo. Dai suoi studi clinici egli trae solidi argomenti a favore della tesi che gli eventi che sono essenziali per la manifestazione della capacità decisionale di un soggetto, e presumibilmente per la formazione del suo senso di libero arbitrio, vengano reclutati dall'intero organismo e promossi alle funzioni superiori proprio da questa basilare struttura.

Leggendo le opere di questi autori, si ricava l'impressione che essi aggiungano qualcosa di importante senza tuttavia arrivare al cuore del problema. Quello che sembra mancare è un livello di analisi teoricamente soddisfacente.

Non basta infatti indicare le parti del cervello che sono essenziali alla formazione della coscienza, né precisare come queste parti siano interconnesse, né quali siano le dinamiche neuronali che si generano dalle loro interazioni. Quello di cui si avverte la mancanza è un ambito teorico formale in cui si possa formulare la questione nei termini di un problema ben posto, in cui poter dare, ad esempio, una definizione precisa e inequivocabile di ciò che deve intendersi per coscienza e quali proprietà oggettive debba avere un sistema naturale o artificiale - un cervello o una macchina - affinché si possa dire che ‘possiede una forma di coscienza'; che permetta quindi di rispondere alla domanda se la coscienza abbia avuto una molteplicità di gradi di sviluppo lungo la scala evolutiva animale o se sia innescata solo in seguito alla formazione di alcune strutture cerebrali specifiche.

Naturalmente il criterio di Turing secondo il quale una macchina potrebbe definirsi dotata di coscienza qualora il suo comportamento fosse del tutto simile a quello umano non risolve il problema. Ed è anche chiaro che, senza una teoria scientifica della coscienza, un solo ampliamento, anche poderoso, delle conoscenze anatomico-funzionali del cervello non sarebbe sufficiente a rispondere in modo totalmente convincente a queste domande.

Dal quadro contemporaneo delle bioscienze, in particolare dalle neuroscienze (fisiologia delle cellule nervose, studi sulla dinamica delle popolazioni di neuroni e delle loro cellule di supporto, neurologia ecc.) sta emergendo un complesso di fatti a favore della tesi jamesiana circa il carattere coerente e globale della dinamica cerebrale.

Le attività delle popolazioni di neuroni localizzate nelle diverse zone del cervello risultano statisticamente concomitanti a un'attività oscillatoria dei potenziali di membrana delle cellule cerebrali che si estende a tutta la massa cerebrale e che si manifesta macroscopicamente come attività elettroencefalografica. Nell'opinione di molti ricercatori si sta facendo strada l'idea che questa attività oscillatoria non sarebbe, come si è creduto per decenni, un semplice epifenomeno delle scariche neuronali, cioè un sorta di media statistica dei valori extracellulari dei potenziali di azione dei neuroni, ma un'attività propria delle membrane cellulari in una certa misura autonoma e indipendente rispetto ai processi di interazione sinaptica dei neuroni, anche se sinergica con questa.

Sembra ad esempio che aree della corteccia cerebrale, anche distanti tra loro, interagiscano fortemente attraverso connessioni polisinaptiche proprio quando le oscillazioni dei potenziali elettroencefalografici vanno temporaneamente in coerenza di fase (Varela et al.), e che siano questi episodi di coerenza di fase a innescare l'interazione lungo le vie sinaptiche tra popolazioni neurali distanti, e non viceversa.

Questi risultati sostanziano in modo impressionante le tesi che Donald Hebb avanzò fin dagli anni '50: che le popolazioni di neuroni reciprocamente interagenti attraverso connessioni sinaptiche siano soggette a un'attività coordinatrice che egli definì subliminale.

Le ricerche di Walter Freeman, che più di ogni altro ha studiato le dinamiche oscillatorie delle popolazioni neuronali del sistema olfattivo dei mammiferi, si accordano bene con questa fenomenologia. Freeman ha chiarito in modo inconfutabile che lo spiking neuronale è un processo statistico coordinato da un'attività oscillatoria dei potenziali di membrana che si estende su ogni area corticale omogena. L'attività oscillatoria, che è quasi periodica ma di fase coerente, tende a far fluttuare in modo coordinato le soglie di scarica dei neuroni favorendone la sincronizzazione. Questa attività, anche se non può essere identificata - per la sua natura macroscopica - con l'ampiezza d'onda di uno stato quantistico, si comporta di fatto come un'onda di probabilità.

Di fronte a questo stato di cose è inevitabile chiederci se il carattere coerente e globale dell'attività cerebrale invocato da James per spiegare il fenomeno della coscienza, che trova conferma nelle proprietà dei potenziali elettrocorticali, non sottenda in modo essenziale una fenomenologia quantistica. Chiaramente, non basta supporre che l'attività mentale sia una successione di riduzioni dei pacchetti d'onda quantistici, poiché questa si verifica in ogni processo fisico macroscopico. In questo senso, la meccanica quantistica è certamente operativa alla scala delle macromolecole e degli organelli cellulari. Quello che importa chiarire è se i cosiddetti stati mentali della coscienza siano stati quantistici globali del cervello, e se la dinamica cerebrale sia pilotata dalle transizioni di fase di questi stati globali.

In varie riprese, nei decenni trascorsi, alcuni studiosi, tra i quali Hiroomi Umezawa, Luigi Ricciardi, Karl Pribram, Kunio Yasue, Mari Jibu, Giuseppe Vitiello e altri, hanno cercato di avvalorare questa ipotesi assumendo che gli stati locali dell'intero sistema nervoso siano correlati dal campo elettromagnetico in modo da formare stati quantistici coerenti. Su questa base essi hanno elaborato una teoria che interpreta gli atti decisionali e intenzionali come transizioni di fase termodinamica che rompono le simmetrie degli stati coerenti. In linea di principio questo è possibile se, oltre alla comunicazione sinaptica veicolata dai potenziali d'azione dei neuroni, esiste anche un'interazione elettrica diretta attraverso un mezzo continuo distribuito sull'intera massa cerebrale.

Un sistema che risponde a questi requisiti esiste effettivamente nel sistema nervoso: esso è formato dalle cellule gliali (astrociti), che nel cervello del topo stanno nel rapporto quantitativo di circa 1 a 1 col numero dei neuroni ma che in quello umano adulto raggiungono il rapporto 10 a 1. Il fluido intracellulare di queste cellule forma un continuo elettricamente comunicante attraverso numerosi e ampi canali transmembranici chiamati gap-junctions. Per questa ragione si dice che le cellule gliali formano un sincizio. E' stato recentemente scoperto che anche i neuroni inibitori della corteccia formano tra loro un analogo sincizio. Ci sono evidenze che questi sincizi, che a dire il vero svolgono una moltitudine di funzioni diverse, abbiano un ruolo importante per il sostentamento dell'attività oscillatoria corticale. Bisognerà comunque attendere ulteriori risultati sperimentali prima di poter dire se questi siano i cercati fattori della coerenza quantistica.

 

7. Complessità strutturale e comportamentale

Considerando quanto fortemente la fisica sia orientata alla ricerca delle parti costitutive della materia, si direbbe che lo scopo primario di questa disciplina sia quello di conoscere la struttura degli oggetti naturali al fine di descriverne i possibili comportamenti.

L'impressione che la matematica garantisca un'illimitata potenza di calcolo tende a orientare il pensiero dei fisici verso l'ideale di una totale e completa calcolabilità dei comportamenti di ogni possibile sistema naturale a partire dalla conoscenza esatta della struttura fisica e delle leggi che ne governano l'evoluzione. Il riduzionismo, in quanto partito filosofico, come un tempo il determinismo, è legittimato da questo sentimento d'onnipotenza predittiva. Purtroppo questo grandioso ideale epistemico deve fare i conti con uno stato di cose un po' meno ottimistico.

Come abbiamo visto, salendo verso i livelli fenomenologici più complessi, la fisica lascia progressivamente il campo ad altre discipline. Appena si oltrepassa il dominio dei processi elementari di regolazione automatica, e si entra in quello dei processi informazionali veri e propri, la duplice astrazione che sta alla base della definizione di messaggio e informazione ci obbliga a mettere in secondo piano gli aspetti strutturali dei processi naturali a far risaltare invece quelli puramente formali che dipendono dall'ordinamento spaziotemporale e dagli effetti che questo ordinamento produce in sistemi più complessi. La descrizione dei fenomeni si trasferisce così nel dominio dei linguaggi e della comunicazione, dove la complessità dei sistemi naturali dispiega tutta la sua potenza creativa.

Secondo quanto riferito da Walter Burks in The Theory of Self-Reproducing Automata, von Neumann affermò in più occasioni che le condizioni che rendono un sistema capace di autoriprodursi, e persino di costruire un sistema più complicato di se stesso, investono la questione teorica della differenza tra complessità strutturale e complessità comportamentale. Ecco la traduzione delle parole pronunciate da von Neumann in una conferenza sugli automi:

Normalmente, una descrizione letterale di ciò che si suppone che un automa riesca a fare è più semplice dello schema completo dell'automa. Non è a priori vero che debba essere sempre così. Ce n'è abbastanza nella logica formale per indicare che la descrizione delle funzioni di un automa è più semplice dell'automa stesso, fintanto che l'automa non è molto complicato, ma che quando si giunge a complicazioni superiori, l'oggetto effettivo è più semplice della sua descrizione letterale.

Sto mutuando un pochino da un teorema logico, ma si tratta di un teorema logico perfettamente valido. E' un teorema di Gödel che il livello logico successivo, la descrizione di un oggetto, appartiene a una classe di tipo superiore a quella dell'oggetto, ed è pertanto asintoticamente infinitamente più lunga da descrivere. Sostengo che ciò è assolutamente necessario: quando si arriva a questo punto si ha a che fare proprio con una questione di complessità. Penso che ci sia una buona quantità di ragioni per sospettare che la faccenda si ponga in questi termini anche con le questioni che danno un'impressione spiacevolmente vaga e fluida, come "cos'è un'analogia visiva'', dove uno sente che non si raggiungerà mai la fine della descrizione. Esse possono trovarsi già in questa condizione, in cui fare una cosa è più veloce che descriverla, in cui tracciare un circuito è molto più veloce che dare una descrizione integrale di tutte le sue funzioni in tutte le sue condizioni concepibili.

Il concetto qui espresso è che la descrizione della struttura di un sistema e quella del suo comportamento appartengono a due diversi ordini di complessità descrittiva. Una struttura materiale descrivibile con un numero finito di parole può esibire un comportamento che richiederebbe una descrizione di lunghezza infinita. Se un comportamento di questo genere funziona come sequenza di istruzioni per la costruzione di un'altra struttura, la struttura che si genera risulta più complicata di quella che l'ha prodotta. Questo spiega perché un ovulo fecondato possa produrre un organismo enormemente più complesso dell'ovulo stesso.

Lo sviluppo impetuoso dell'informatica conferma pienamente questo stato di cose. E' un fatto ben noto che un calcolatore istruito da un programma relativamente semplice può generare il piano di costruzione di un calcolatore molto più complesso. E' questa la base concettuale su cui von Neumann fonda la nozione di macchina costruttrice universale, cioè di una macchina che, istruita da programmi di lunghezza finita, riesce ad assemblare oggetti di ogni possibile tipo utilizzando componenti disponibili in un ambiente esterno.

La questione appare più chiara se si prende come riferimento la nozione di macchina calcolatrice universale introdotta da Alan Turing nel 1936. La macchina calcolatrice immaginata da Turing costituisce l'esempio di un sistema la cui struttura è perfettamente descrivibile ma i cui singoli comportamenti possono risultare indescrivibilmente complicati. Oggi non è difficile dire cosa sia una macchina di questo tipo: se il comune calcolatore che avete sul vostro tavolo avesse un disco fisso di capacità illimitata, esso sarebbe una macchina calcolatrice universale.

Come e perché un processo di calcolo istruito da un programma finito possa risultare indescrivibilmente complicato dipende essenzialmente dal fatto che i risultati del calcolo prodotti a un certo istante vengano selettivamente utilizzati come dati di ingresso nei passi successivi dello stesso calcolo, ciò che può accadere se la macchina è dotata di memoria e opera in modo ricorsivo. Nell'ambito della teoria degli algoritmi si dimostra che esistono processi ricorsivi che diventano sempre più complicati col trascorrere del tempo, cosicché i risultati che vengono progressivamente caricati nella memoria per essere selettivamente utilizzati nei passi successivi diventano sempre più numerosi, vari e difficili da descrivere. Non è difficile rendersi conto che i processi biologici che rendono possibile la formazione di un organismo complesso a partire da un semplice ovulo fecondato hanno proprietà simili.

Il concetto di universalità computazionale si fonda sul seguente risultato: se un calcolatore programmabile è capace di effettuare calcoli indescrivibilmente complicati, allora esiste un programma finito che lo istruisce a produrre gli stessi risultati di un altro qualsivoglia calcolatore. Si dice allora che l'algoritmo usato dal calcolatore è universale e che il calcolatore possiede l'universalità algoritmica.

Il comportamento di un calcolatore universale è in generale imprevedibile, cosicché, in generale, nessun calcolatore universale più potente e veloce sarà in grado di prevedere se un suo processo di calcolo terminerà. Abbiamo qui un esempio di sistema fisico deterministico di complessità strutturale finita il cui comportamento non è logicamente deducibile dalla conoscenza della struttura stessa del sistema e dalle leggi che ne descrivono il funzionamento. Possiamo pertanto affermare con tutta generalità che a un livello di organizzazione sufficientemente elevato, un sistema fisico può esibire comportamenti infinitamente complessi, tali cioè che nessun calcolatore, per quanto potente, riuscirebbe a prevederli in un tempo finito. Questo significa, in pratica, che l'unico modo di conoscerli è di osservare l'evoluzione stessa del sistema.

Nella visione di von Neumann, il vivente è ben altro che un brodo di molecole replicanti. Il suo concetto di costruttore universale gioca un ruolo fondamentale nel chiarire quali siano le condizioni necessarie affinché un sistema sia capace di autoriprodursi. I risultati della sua indagine possono riassumersi in questo modo: 1) nessun organismo complesso è in grado di autoriprodursi se non contiene in primo luogo un costruttore universale; 2) nessun costruttore universale è in grado di copiare sé stesso semplicemente misurando e osservando la propria struttura, ma può farlo solo utilizzando il programma delle operazioni che deve compiere per riprodurre una copia di se stesso, cioè un programma genetico; 3) affinché il programma genetico possa essere meno complesso dell'organismo, questo deve contenere anche un calcolatore universale capace di espandere la complessità strutturale del programma genetico.

Questa visione proposta agli inizi degli anni '50, prima ancora che si sapesse cos'è l'elica del DNA, si è rivelata straordinariamente profetica e predittiva. In particolare, la recente scoperta che il genoma umano contiene molto meno informazione di quanta non sia espressa nella varietà delle proteine presenti nell'organismo umano è una prova indiretta che l'informazione genetica è compressa e che deve esistere un processo algoritmico capace di decomprimerla.

 

8. Linguaggi e metalinguaggi

Kurt Gödel, interpellato da Burks, dopo la morte di von Neumann, circa il possibile significato del riferimento fatto dal grande matematico ai suoi teoremi, si limitò ad aggiungere che la distinzione tra tipi logici citata da von Neumann è analoga a quella tra linguaggio e metalinguaggio introdotta da Tarski nel 1936.

Questa affermazione potrebbe sembrare tutt'altro che un chiarimento, ma a un'analisi più attenta essa si rivela molto suggestiva e ricca di implicazioni circa il rapporto tra la struttura e il comportamento di una macchina o di un sistema biologico e i linguaggi adatti a descriverli.

Secondo la definizione di Tarski, gli enunciati di un linguaggio sono messaggi che veicolano informazione su cose che accadono in un dominio del mondo esterno; quelle del metalinguaggio sono messaggi che veicolano informazione sulle relazioni tra i messaggi del linguaggio primitivo, che potremo pertanto definire linguaggio oggetto. La ragione per cui il metalinguaggio appartiene a un tipo logico superiore rispetto a quello del linguaggio è che le deduzioni logiche del metalinguaggio si comportano come procedure di calcolo ricorsivo applicate alle proposizioni del linguaggio oggetto assunto come universo del discorso. Per svolgere questa funzione, il metalinguaggio deve contenere al suo interno, oltre a tutte le proposizioni del linguaggio oggetto, anche quelle che servono per definire nuovi significati, per descrivere le operazioni logiche che si possono eseguire su queste proposizioni e i criteri che permettono di stabilirne le verità o le falsità ecc.

Partendo da questa considerazione, Tarski dimostra che esistono enunciati metalinguistici che sono intraducibili nel linguaggio oggetto, ad esempio il concetto stesso di verità non è definibile nel linguaggio oggetto.

Per farci un'idea sulla differenza tra complessità strutturale e comportamentale e la sua relazione con la differenza tra linguaggio e metalinguaggio, prendiamo come esempio quella figura piana delimitata da un contorno frattale che va sotto il nome di insieme di Mandelbrot. Il programma che lo genera consiste di poche righe che istruiscono un procedura ricorsiva condizionata da un criterio selettivo. Ciononostante esso è stato definito come l'oggetto geometrico più complesso che si sia mai visto nella matematica. Così, in un certo senso, la sua immagine fornisce una rappresentazione sinottica del comportamento del calcolatore sotto l'azione del minuscolo programma.

Nel tentativo di descrivere la sua forma, Roger Penrose (1989) usa non solo termini appartenenti al normale repertorio geometrico, ed esempio segmenti, cerchi, spirali, cardioidi., ma anche altri assai stravaganti e inconsueti come ‘code di cavallucci marini', ‘vallate di cavallucci marini', ‘anemoni marine', ‘dragoni a n teste', ‘apparenze floreali', ‘molteplicità filamentose', ‘mondi bambini' e così via.

Chiaramente, non c'è alcun modo di tradurre gli esatti significati di queste espressioni in puri termini geometrici o algebrici. Ingrandendo i dettagli dell'insieme di Mandelbrot - ciò che può farsi con un calcolatore di media potenza - si può facilmente mettere in evidenza un repertorio di figurazioni sempre diverse. Queste possono essere vagamente descritte come sofisticate arborizzazioni che si generano per infinita combinazione di cicli ed epicicli che hanno come periodi i numeri primi. Osservando questo gioco infinitamente complesso avvertiamo un grande senso di armonia, anche se ogni tentativo di descriverlo appare disperato.

Abbiamo qui un esempio di come il passaggio dal linguaggio che descrive la struttura del calcolatore e del programma che lo istruisce al linguaggio che ne descrive in qualche modo il comportamento — l'insieme di Mandelbrot - richieda l'uso di metafore ispirate alle forme di organismi biologici, di parole i cui significati oltrepassano il mondo delle strutture artificiali, di un linguaggio che può definirsi metastrutturale. Possiamo farci un'idea di come le elaborazioni che un metalinguaggio è in grado di operare sul suo linguaggio oggetto possa far emergere valori e significati che trascendono il livello del linguaggio oggetto e richiedono un più ampio bagaglio di nozioni e concetti primitivi per essere espresse.

 

9. Universalità algoritmica e capacità interpretativa e costruttiva universali

Alcuni approcci teorici al problema della coscienza sono stati avviati da alcuni decenni da studiosi di logica e intelligenza artificiale. Alcuni logici hanno cercato di studiare le condizioni affinché un linguaggio sia capace di sostenere procedure sintattiche autoreferenziali, ravvisando in questo un modello del carattere autoreferenziale e introspettivo del pensiero.

Tra tutti coloro che si sono dedicati a queste speculazioni, Douglas Hofstadter brilla come una stella. Nel suo magnifico Gödel, Escher e Bach: un'Eterna Ghirlanda Brillante, Hofstadter fa esplodere come in un fuoco pirotecnico i contenuti dei concetti logici più sofisticati ed ermetici che la scienza del ‘900 abbia prodotto, i teoremi di Gödel, e porta interessanti argomenti a favore della tesi che la macchina analitica gödeliana fornisca la chiave esplicativa della coscienza.

A proposito di questo, alcuni autori, ad esempio Penrose, usano i risultati di Gödel in senso negativo, sostenendo che il teorema di incompletezza di Gödel stabilisce i limiti della potenza analitica e creativa delle macchine ma non quelli della mente umana, che sembra invece eluderli. Diversamente da essi, Hofstadter ipotizza invece che il processo autoriflessivo del pensiero abbia il suo modello esplicativo proprio nel procedimento di autoreferenziazione dell'aritmetica con cui Gödel nel 1930 trasse i suoi straordinari risultati. Vediamo di cosa si tratta.

Il procedimento gödeliano è reso possibile dalla natura doppia, per un verso pratica per l'altro teorica, dell'aritmetica.

Dal punto di vista pratico, l'aritmetica è una tecnica che permette di produrre dati particolari, cioè numeri interi, mediante operazioni su dati particolari dello stesso genere. In questo senso essa è un algoritmo. La ragione per cui il calcolo aritmetico è così importante nella matematica è che esso è un algoritmo universale, nel senso che qualsiasi altro algoritmo, ad esempio la geometria pratica, che insegna a produrre figure geometriche mediante operazioni effettuabili con riga e compasso, può essere tradotto in un sistema di calcoli aritmetici, magari al prezzo di una codificazione noiosa e complicata.

Dal punto di vista teorico, l'aritmetica viene presentata come una teoria logica, esattamente come la geometria euclidea, cioè come una collezione di nozioni e proposizioni logiche primitive (assiomi), corredato da un sistema di regole di buona formazione e deduzione, che permettono di derivare nuove proposizioni (teoremi). Ciò fu fatto da Giovanni Peano nella seconda metà dell'800. Le proposizioni dell'aritmetica permettono di definire e descrivere proprietà generali di numeri interi, così come la geometria euclidea permette di definire e descrivere proprietà generali delle figure geometriche. In generale, essa non si occupa tanto di numeri particolari quanto piuttosto di classi infinite di numeri. Ne sono esempi le definizioni di numeri pari e dispari, il teorema che afferma l'esistenza di infiniti numeri primi, ecc. Possiamo pertanto dire che gli assiomi e i teoremi aritmetici rappresentano non tanto le applicazioni specifiche dell'algoritmo aritmetico, quanto piuttosto l'infinito repertorio delle possibilità algoritmiche dell'aritmetica.

Il procedimento gödeliano sfrutta questa duplice natura dell'aritmetica per creare un circuito autoreferenziale all'interno dello stesso algoritmo aritmetico. Il passaggio chiave sta nel fatto che: 1) i procedimenti dimostrativi che si applicano per dimostrare i teoremi di una qualsiasi teoria matematica, ad esempio la geometria euclidea, costituiscono essi stessi un algoritmo; 2) l'aritmetica, essendo un algoritmo universale, è in grado di rappresentare questi procedimenti dimostrativi nella forma di operazioni aritmetiche. Ciò si ottiene codificando assiomi e teoremi in forma numerica e dimostrando che esistono calcoli aritmetici che, applicati a numeri che codificano assiomi, producono numeri che codificano teoremi.

L'impresa difficilissima e spettacolare portata a termine da Gödel fu la dimostrazione che è possibile codificare nella forma di calcoli aritmetici le dimostrazioni dell'aritmetica teorica stessa; che l'infinito repertorio delle proprietà generali e universali logicamente accertabili dell'aritmetica può essere interpretato da un'infinita collezione di fatti aritmetici particolari. Si ha qui un esempio di come l'insieme delle "possibilità" di un algoritmo possa essere interpretato da un insieme di "attualità" dell'algoritmo stesso. Si chiude così un circuitoautoreferenziale straordinariamente ricco di conseguenze e implicazioni.

Secondo Hoftsadter, questo procedimento, che egli chiama di gödelizzazione, fornisce un modello esplicativo della capacità autoriproduttiva degli organismi viventi. Le identificazioni basilari del modello sono le seguenti: 1) gli assiomi dell'aritmetica corrispondono al codice genetico; 2) l'aritmetica logica corrisponde al processo di decodifica genetico e di produzione delle proteine; 3) l'algoritmo aritmetico corrisponde alle interazioni proteiche concrete e particolari che realizzano le strutture cellulari; 4) la gödelizzazione corrisponde al processo attraverso il quale viene prodotta la copia della cellula o una sua variante.

In modo del tutto analogo, Hofstadter propone la gödelizzazione come modello della capacità autoriflessiva del pensiero. Egli ipotizza: 1) che i processi mentali si formino per interazione di stati di eccitazione neuronale, che egli chiama simboli attivi, i quali funzionerebbero sia come dati da elaborare che come operatori capaci di trasformare i dati dell'algoritmo cerebrale; 2) che esista una sorta di codice genetico della coscienza, un sistema assiomatico che ne codifica l'identità, che egli chiama il simbolo del sé.

Le idee di Hoftsadter non vanno molto oltre queste ipotesi, ma è evidente che egli così facendo — anche se non lo dichiara - stabilisce implicitamente una relazione tra la teoria degli automi di von Neumann e un'ipotetica teoria della coscienza.

Proviamo a prendere sul serio le sue idee cercando di capire meglio quali potrebbero essere i corrispondenti dei concetti gödeliani nell'ambito dell'attività mentale. Cosa corrisponderebbe, nella fenomenologia soggettiva della mente, all'algoritmo aritmetico? Cosa all'aritmetica teorica? E cosa al simbolo del sé?

La memoria dei mammiferi è associativa e causale. Il ricordo di un certo evento e/o una certa azione richiama immediatamente il ricordo del risultato che ne è seguito come pure degli eventi e/o azioni che lo hanno preceduto. La concatenazione di ricordi in sequenze evocative causali costituisce l'attività immaginativa. Essa permette all'animale di focalizzare l'attenzione sensoriale e di preparare il comportamento più adeguato. Essa funziona come una sorta di algoritmo per la produzione di immagini a mezzo di immagini ed è pertanto paragonabile alla produzione di dati numerici a mezzo di dati numerici tipica dell'algoritmo aritmetico.

Questa facoltà immaginativa è integrata e potenziata dalla comunicazione simbolica. L'uso di segnali e segni atti a evocare e promuovere processi immaginativi non è una prerogativa della sola specie umana. Quello che sembra caratterizzare la comunicazione umana è invece lo sviluppo di una competenza linguistica complessa basata sulla formazione di regole grammaticali e sintattiche. Le sequenze implicazionali simboliche generate dalla produzione linguistica suppliscono in qualche modo alla funzione della memoria immaginativa, fornendo potenti scorciatoie alla sua attività evocativa.

La memoria linguistica ha caratteristiche assai diverse da quella immaginativa. Una proposizione linguistica non codifica un ricordo particolare, ma una classe di ricordi. Una regola sintattica non codifica una catena evocativa, ma le proprietà generali di una classe di catene evocative. Un elaborato sintattico corretto funziona in modo efficace perché veicola informazione riguardo certe proprietà generali e universali delle esperienze individuali; le quali non sono esse stesse percepite come eventi particolari o agite come comportamenti particolari, ma sono invece costanti caratteristiche di classi di comportamenti particolari. La memoria linguistica codifica il possibile piuttosto che l'attuale, l'universale piuttosto che il particolare. Possiamo pertanto ravvisare nel linguaggio umano una funzione simile a quella che ha la trattazione logica di una disciplina matematica in rapporto alla sua pratica algoritmica.

Ora, per ottenere qualcosa che assomigli al procedimento di gödelizzazione, bisogna supporre che i messaggi linguistici vengano rappresentati da processi immaginativi concreti, in modo che a sequenze simboliche, grammaticalmente e sintatticamente ben formate, corrispondano particolari immagini percettivo-comportamentali. Non è difficile fornire esempi di come ciò possa accadere.

Se pensiamo al significato generale della parola ‘cane', che non si riferisca a un cane particolare ma sia rappresentativo della specie canina, non possiamo evitare che si formi nella mente l'immagine di un cane particolare, che potrà essere di colore bruno o bianco, in posizione eretta o accucciato ecc. Questa immagine mentale, che viene evocata dalla parola ‘cane', è lo stereotipo con cui la nostra immaginazione interpreta la classe canina. In qualche modo essa corrisponde al numero che nel procedimento di Gödel, codifica la proposizione logica.

Quest'altro esempio indica come l'immaginazione possa codificare le nostre possibilità operative. Nel dimostrare il teorema di Pitagora, noi cominciamo col tracciare su un foglio di carta o sulla lavagna un triangolo rettangolo particolare e quindi procediamo eseguendo su questo una certa costruzione geometrica. Nonostante il fatto che la dimostrazione sia stata effettuata su un caso particolare, essa vale per triangoli rettangoli di forma e dimensione qualsiasi. Il caso particolare è divenuto metafora del caso universale e il risultato ottenuto viene trasferito a livello linguistico come enunciato di una proprietà universale.

Mediante stereotipi, esemplificazioni, metafore ecc. possiamo dunque codificare, nella forma di immagini mentali particolari, espressioni linguistiche che sono significative di classi di immagini mentali e possiamo quindi gödelizzare su questa base l'attività mentale. In questo modo, attraverso la mediazione del linguaggio, il vastissimo campo delle ‘possibilità' percettivo-comportamentali, cioè le classi universali del pensiero immaginativo, può trovare rappresentazione simbolica in particolari sequenze dello stesso pensiero immaginativo.

Chiaramente, affinché l'analogia valga in modo completo, bisogna assumere in primo luogo che l'immaginazione umana abbia le caratteristiche di un algoritmo universale, che sia cioè capace di rappresentare qualunque altro algoritmo; in secondo luogo che la grammatica e la sintassi del linguaggio umano possieda una struttura logica; in terzo luogo che il codice genetico di questa struttura logica, il simbolo del sé, sia il nucleo assiomatico centrale della comunicazione simbolica.

Se tutte queste condizioni sono soddisfatte, la mente umana può sviluppare una capacità interpretativa e costruttiva universale, quindi anche auto-interpretativa e auto-costruttiva, in breve autoriflessiva. Si può spiegare allora in questo modo perché gli esseri umani siano potenzialmente capaci di attribuire significato a ogni dato della loro esperienza, a ogni fatto che accada, e di agire per costruire e trasformare il mondo che lo circonda, perché l'homo faber sia divenuto homo sapiens.

Le condizioni per la formazione della capacità autoreferenziale del pensiero sono simili a quelle poste da von Neumann per l'autoriproduzione di un organismo vivente. Così, per completare il quadro, possiamo indicare quali dovrebbero essere, nei sistemi capaci di autoriflessione, gli analoghi dei componenti necessari per l'autoriproduzione: 1) un costruttore universale capace di produrre, sulla base di programmi opportunamente codificati ed elaborati, qualunque combinazione di immagini mentali, dunque anche qualunque stereotipo, esemplificazione o metafora; 2) una memoria in cui sono conservati tali programmi; 3) un elaboratore universale ausiliario capace di decodificare i programmi traducendoli in sequenze simboliche complesse che governano e controllano l'attività del costruttore universale; 4) un programma particolare, il "simbolo del sé", che contiene le istruzioni per la produzione delle sequenze simboliche che governano e controllano la costruzione delle immagini mentali che rappresentano il sistema pensante stesso.

E' chiaro che in questa visione le sequenze simboliche elaborate dall'elaboratore universale devono identificarsi coi messaggi fruibili nell'ambito di una rete di comunicazione umana e che il simbolo del sé deve identificarsi in un sistema capace di generare i messaggi che riguardano la figura, gli atteggiamenti, le condizioni organiche e le espressioni dell'essere umano generico in relazione alla figura, agli atteggiamenti, alle condizioni organiche e alle espressioni internamente percepite come proprie dal soggetto pensante stesso. E' interessante notare come questa caratterizzazione del simbolo del sé e del suo elaboratore universale corrisponda abbastanza bene alla nucleo-coscienza individuata da Damasio su una base investigativa puramente neurologica, che abbiamo menzionato nel paragrafo 6.

 

10. Essere e tempo

Le ipotesi ora formulate riguardo al meccanismo generatore del pensiero autoriflessivo non risolvono completamene il problema della realtà interiore della coscienza. I calcolatori elettronici eseguono sequenze di calcoli a velocità elevatissime, ma il cervello usa un processo parallelo enormemente più lento. In teoria, le prestazioni di un sistema di calcolo parallelo possono essere fornite anche da un calcolatore sequenziale sufficientemente veloce. Assumiamo pure che il procedimento di gödelizzazione descritto nel precedente paragrafo possa essere eseguito da un calcolatore sequenziale velocissimo. In questo caso il processo non sarebbe riconducibile a una successione di transizioni tra stati coerenti come sembra avvenire nel cervello. Se le prestazioni di un cervello sequenziale fossero le stesse bisognerebbe assumere che la coerenza non gioca alcun ruolo importante nel determinare il processo autoriflessivo del pensiero.

Eppure non è così. La coerenza dello stato di eccitazione cerebrale ha un ruolo importante nella percezione della nostra collocazione temporale. In ogni momento della nostra esistenza consapevole noi sentiamo il potere di influenzare gli eventi futuri immaginando il passato come qualcosa che sta dietro le nostre spalle e, per causare effettivamente un evento futuro, noi dobbiamo attivare pressoché simultaneamente un numero enorme di funzioni nel nostro organismo. Tutto questo deve avvenire in modo coerente, altrimenti le nostre azioni si disperderebbero in una miriade di processi indipendenti e generalmente contrastanti. La coerenza dei processi parziali è dunque fondamentale per la percezione della nostra individualità operatrice. La dinamica del nostro cervello deve garantire il riemergere della coerenza comportamentale in ogni momento della nostra vita cosciente e ciò può avvenire solo se la dinamica cerebrale è in qualche modo una successione di transizioni tra stati coerenti.

Gli attimi di consapevolezza sembrano coincidere con queste fasi coerenti. Infatti il tempo vissuto soggettivamente è qualcosa di diverso dal tempo oggettivato nella sua rappresentazione fisica. La percezione della nostra esistenza si dà solo nel presente; dalla nostra prospettiva interiore il passato non esiste perché è passato, il futuro nemmeno perché non si è ancora realizzato. Se il presente fosse - come vuole la teoria della relatività - l'interfaccia tra il passato e il futuro, allora sarebbe il confine che separa due cose non esistenti. Così dobbiamo ammettere che la sostanza immanente della nostra coscienza sia il nostro stato presente, che il passato non sia altro che la memoria di esso nello stato presente e che il futuro non sia altro che le possibilità di realizzazione di questo stesso stato in rapporto alle emergenze macroscopiche prossime venture.

La meccanica quantistica attribuisce allo stato di un sistema il significato di una pura potenzialità di manifestazione macroscopica, vale a dire, come è stato chiarito da Hans Reichenbach (1954); non un'esistenza fenomenica ma una puramente interfenomenica che possiede un'indeterminazione intrinseca rispetto alle possibili osservazioni che si possono compiere su di esso. Così, secondo questa visuale, la coscienza sarebbe osservazione delle emergenze fenomeniche concomitanti alla determinazione dello stato presente del cervello e nello stesso tempo percezione dell'indeterminazione veicolata da questo stesso stato. E' difficile immaginare come queste condizioni possano essere riprodotte da un processo sequenziale.

 

11. Conclusioni

L'analisi che abbiamo presentato per grandi linee ci ha condotto a questa visione generale: ogni teoria scientifica mette in relazione due livelli di descrizione del mondo, uno strutturale e l'altro fenomenologico. Abbiamo quindi scoperto che la fenomenologia dell'esistente si estende tra due livelli estremi: quello della semplicità microscopica universale e quello della potenza interpretativa e costruttiva universale; il livello dei campi fondamentali rinormalizzabili e quello del processo informazionale autoriflessivo che produce l'autocoscienza. In entrambi i casi i livelli risultano autoreferenziali.

Salendo dal livello strutturale fondamentale verso livelli di descrizione fenomenica sempre più articolati e complessi, abbiamo potuto seguire l'emergere del mondo macroscopico come dominio dell'osservabile. Nel fare questo non ci siamo preoccupati di rinviare a livelli ulteriori il determinarsi della condizione in cui l'osservabile acquista senso proprio ponendosi come oggetto della comunicazione tra osservatori.

Abbiamo ordinato la complessità naturale lungo la scala dei livelli di comunicazione in modo che alla fine lo stesso problema di ciò che siano gli osservatori è rimasto confinato nel mondo dei fenomeni oggettivi. Abbiamo visto emergere l'informazione fin dall'inizio come prodotto naturale della fenomenologia quantistica, e nello stesso tempo abbiamo imparato che il valore e il significato dell'informazione emergente da un livello sono determinati dall'uso che ne fanno i livelli superiori.

Siamo andati avanti nella costruzione di questo fragile castello assumendo che la formazione del significato e del valore dei messaggi circolanti a ogni determinano livello possa spiegarsi a livelli via via più elevati senza chiederci se questo continuo rinvio potesse portarci da qualche parte o perdersi invece nelle nebbie dell'infinito. Alla fine siamo giunti a un livello che, essendo autoreferenziale, mette termine all'ascesa indefinita. Quello in cui la formazione della capacità d'introspezione riflessiva degli organismi dotati di autocoscienza fa coincidere l'osservato con l'osservatore. E qui ci siamo fermati.

Abbiamo imparato dalla teoria dell'informazione che l'incertezza è un presupposto indispensabile di ogni evento informazionale e un'incursione nel mondo della fenomenologia soggettiva ci ha chiarito che il nostro senso di realtà soggettiva è fondato sulla percezione dell'incertezza soggettiva. La consapevolezza che il libero arbitrio può darsi soltanto in un contesto di relazioni causali non deterministiche ha indotto alcuni filosofi del passato a confutare le visioni integralmente deterministiche del mondo fisico, altri a separare il dominio dell'esistenza soggettiva da quello dell'esistenza oggettiva istituendo il dualismo spirito-materia. La visione classica del mondo fisico impediva di attribuire un'incertezza intrinseca alle cose della natura.

La descrizione del mondo fisico offertaci dalla meccanica quantistica ci permette di ristabilire la simmetria tra le due forme di esistenza, portandoci a riconoscere nel mondo fisico un'incertezza oggettiva intrinseca. Nel fare ciò essa ci ha obbligato ad attribuire esistenza fisica a ciò che la fisica classica riconosceva solo nel mondo del pensiero: agli interfenomeni, ai ‘possibili' allo stato puro.

Abbiamo anche descritto come l'emergenza fenomenica di un evento fisico macroscopico sia un processo termodinamico di condensazione di infinite particelle di massa nulla concomitante alla rottura spontanea di una simmetria, un'attualizzazione dell'infinito in un mondo di possibilità discrete.

Essendo così costretti ad attribuire un valore ontologico a due ordini di possibili, quello oggettivo degli interfenomeni fisici e quello soggettivo dell'incertezza informazionale dell'osservatore, se accogliamo l'ardita ipotesi di identificare questi due ordini e trattarli come un'unica entità sostanziale, siamo costretti a rovesciare la concezione tradizionale del reale. Dobbiamo dire che la sostanza propria dell'universo reale è il possibile, mentre la sua storia fenomenica è una catena di accumulazioni di infiniti possibili.

 

Padova, 20 Settembre, 2001

Anderson, P.W., Basic Notions of Condensed Matter Physics, The Benjamin/Cummings Pub. Com., 1984; Brainwashed by Feynman?, in Physics Today, 11, Feb 2000.

Brillouin, L., Science and Information Theory, Academic Press, New York, 1950.

Damasio, A. R., L'errore di Cartesio, Adelphi Ed., Milano, 1995; Emozione e coscienza, Adelphi Ed., Milano, 2000.

Davydov, A.S., Biology & Quantum mechanics", translated by D. Oliver, Pergamon Press, 1982.

Edelman, G.M., Il presente ricordato — Una teoria biologica della coscienza, Rizzoli Ed., Milano, 1991; Sulla materia della mente, Adelphi Ed., Milano, 1993.

Fröhlich, H., Long range coherence and energy storage in biological systems. Int. J. Quant. Chem. (2), 641-649, 1968.

Freeman, W. J., Neurodynamics: An Exploration in Mesoscopic Brain Dynamics, Springer-Verlag, 2000.

Hebb, D.O., L'organizzazione del comportamento, Franco Angeli Editore, Milano,1975.

Hofstadter, D. R., Gödel, Escher e Bach: un'Eterna Ghirlanda Brillante, Adelphi Ed., 1985.

Kauffman, S.A., The Origins of Order — Self-Organization and Selection in Evolution, Oxford University Press, 1993.

Konolige, K., A Computational Theory of Belief Introspection, in Reflexivity — A Source-Book in Self-Reference, S.J. Bartlett Editor, 1992.

James, W., Principi di Psicologia, Edizioni Principato; L'uomo come esperienza, identità, istinti, emozioni, Edizioni L'Ancora; La volontà di credere, Edizioni Principato (1969).

von Neumann, J., I fondamenti matematici della meccanica quantistica, Il Poligrafo Ed., Padova, 1998; The Theory of Self-Reproducing Automata, A.W.Burks Editor, University of Illinois Press, 1966.

Pattee, H., Hierarchical Control in Living Matter, Mathematical Biology, vol.I, 1973.

Penrose, R., La Mente Nuova dell'Imperatore, Rizzoli Ed., Milano, 2000; Ombre della mente, alla ricerca della coscienza, Rizzoli Ed., Milano, 1996; Il grande, il piccolo e la mente, Raffaello Cortina Ed., Milano, 2000.

Plank, M., Treatise on Thermodynamics, Dover Pub., New York, 1945.

Pribram, K.H., Languages of the Brain, Englewood Cliffs Ed., 1971.

Reichenbach, H., I fondamenti filosofici della meccanica quantistica, Einaudi Editore, Torino, 1954.

Ricciardi, L.M. and Umezawa H., Brain and physics of many-body problems, Kibernetik, (4), 44-48, 1967.

Schrödinger, E., Che cos'è la vita?, Sansoni Editore, Firenze, 1947.

Shannon, C.E. and Weaver, W., Mathematical Theory of Communication, Illinois University Press, Urbana, 1949.

Stapp, H. P., Mind, Matter, and Quantum Mechanics, Springer-Verlag, Berlin, 1993.

Szilard, L., On the Decrease of Entropy in a Thermodynamic System by the Intervention of Intelligent Beings, in Behavioural Science, 1964.

Tarski, A., The Concept of Truth in Formalized Languages, in Logic, Semantic, Metamathematics, 152-278, Clarendon Press, Oxford, 1956.

H.Umezawa, H.Matsumoto and Tachiki, M., Thermo Field Dynamics and Condensed States, North-Holland Pub.Co., Amsterdam, 1982.

Varela, F., Lacheaux, J.P., Rodriguez, E. and Martinerie, J., The Brainweb: Phase Synchronozation and Large-Scale Integration, Nature Reviews | Neuroscience, (2), 229-239, 2001.

Yasue, K. and Jibu, M., Quantum Brain Dynamics and Consciousness, John Benjamins Pub.Co.

> Lascia un commento


Totale visualizzazioni: 863