Philosophia Naturalis Conscientiae

Pars 1


Negli ultimi anni mi sono trovato occasionalmente a discutere di coscienza, vita, intenzionalità, libero arbitrio e intelligenza. Il mio punto di vista, nonostante le innumerevoli considerazioni e riflessioni che ho avuto modo di perseguire durante questo periodo, è rimasto vicino a quella che potrei definire una visione riduzionista–meccanicistica. In ultima analisi sono d’accordo con Brian Greene quando, in Fino alla fine del tempo, sostiene che alla base della realtà ci siano particelle governate da leggi fisiche, e che le descrizioni di livello superiore — la vita, la mente, la coscienza — siano racconti annidati a scale diverse, ciascuno legittimo nel proprio dominio. Anche per me, tutto emerge dalla fisica del piccolo: dalle particelle e dall’informazione che esse portano nella loro organizzazione strutturale ed interazione dinamica.

Vorrei palesare fin da subito una sfumatura concettuale - forse non proprio una sfumatura - che orienta gran parte di ciò che dirò in seguito. Certi pattern prodotti dall’organizzazione strutturale di sistemi fisici complessi diventano riconoscibili — e quindi descrivibili in modo trattabile — soltanto a livello macroscopico. La temperatura, la pressione, la vita, la coscienza non sono “cose in più” rispetto alle particelle, ma non sono nemmeno visibili dalla sola descrizione particellare. Da qui la mia tendenza a parlare di un fisicalismo dinamico-organizzativo: non per contrapporlo al fisicalismo particellare, ma per insistere sul fatto che la descrizione completa di un sistema fisico complesso deve includere anche la sua forma dinamica e la sua organizzazione nel tempo. È in quella forma — non al di là delle particelle, ma come pattern di informazione portato dalle particelle — che si trovano le proprietà che noi chiamiamo “vita”, “pensiero” e “coscienza”. Il punto, in altre parole, è epistemico prima che metafisico: certe regolarità si vedono solo da un certo livello descrittivo.

La coscienza, secondo questa lettura, non è una sostanza che si aggiunge alla materia, e non è nemmeno una banale conseguenza di “tante particelle messe insieme”. È il nome che diamo a un certo regime organizzativo che alcuni sistemi fisici complessi possono realizzare.

A causa dei numerosi e pressoché costanti impegni, devo ammettere che non ho avuto modo di elaborare una risposta “formale” e “quantitativa” alla “questione” della coscienza. Onestamente, non avevo i mezzi cognitivi per poterlo fare, data l’assenza di una formazione quantitativa adeguata. Ho appena iniziato a rimediare a tale lacuna. L’avventura, pertanto, è realmente appena iniziata, e il mio punto di vista potrebbe evolvere rispetto a quanto affermato in questo manoscritto. Quello che state leggendo ora è una prima riflessione, articolata - spero bene - ma senz’altro aperta. Chi manifesti interesse per le tematiche trattate e non sia d’accordo o abbia un punto di vista differente su determinati argomenti, non esiti pertanto a contattarmi per mail per proseguire la discussione.

Una premessa

Mi sono spesso accorto che la mia posizione, quando viene espressa in modo troppo conciso, può sembrare più drastica di quanto sia realmente. A volte affermo “non ha senso parlare di coscienza”, con fare leggermente focoso. Formulata così, la frase è imprecisa. Il punto giusto è un altro: non ha senso reificare la coscienza, cioè trattarla come una sostanza separata dal sistema fisico che la realizza. Non penso che la parola “coscienza” sia inutile, né che fenomeni come esperienza, dolore, sonno, coma, memoria o attenzione siano illusioni linguistiche prive di realtà. Sono pattern reali, riconoscibili, e in molti casi misurabili. Ciò che rifiuto è l’inferenza dalla loro realtà funzionale alla loro autonomia ontologica.

Livelli di descrizione

La coscienza è un nome di livello alto per certi regimi organizzativi, dinamici e informazionali di sistemi fisici complessi. Parlare di coscienza è legittimo come descrizione di alto livello, ma non implica l’esistenza di un’entità extra-fisica, di un principio vitale, di un’anima computazionale o di un’intenzionalità svincolata dalla causalità naturale. Questa posizione è compatibile con un fisicalismo non riduttivo: tutto ciò che esiste appartiene al dominio fisico o dipende da esso, ma le proprietà di alto livello — biologiche, psicologiche, sociali e culturali — non sono eliminabili a favore della descrizione microfisica, perché spesso sono inaccessibili a quel livello.

Come la temperatura non è una particella speciale aggiunta alle molecole, ma una descrizione macroscopica del comportamento collettivo di molte particelle, così la coscienza può essere intesa come una descrizione macroscopica di certe organizzazioni dinamiche del cervello, del corpo e dell’ambiente. La società è costituita dai singoli individui che la compongono ma emerge solo come pattern collettivo. In questo senso, la coscienza è reale come pattern organizzativo, non come sostanza autonoma.

Le neuroscienze teoriche lavorano già attraverso livelli diversi. Dayan e Abbott, nel loro classico Theoretical Neuroscience, distinguono tre tipi di modelli, secondo la domanda che ciascun tipo si pone.

I modelli descrittivi rispondono alla domanda che cosa fa un neurone o un circuito: per esempio, una tuning curve che specifica come la frequenza di scarica di una cellula nella corteccia visiva primaria dipenda dall’orientamento di una linea presentata nel campo visivo. La tuning curve dice cosa fa il neurone, senza chiedersi come lo faccia.

I modelli meccanicistici rispondono invece alla domanda come lo fa, sulla base di anatomia, fisiologia e biofisica: per esempio, le equazioni di Hodgkin-Huxley che derivano la dinamica del potenziale d’azione dalla cinetica dei canali ionici della membrana neuronale. Qui non si descrive un comportamento, lo si genera a partire dai meccanismi sottostanti. La differenza con il livello descrittivo è quindi: il descrittivo cataloga, il meccanicistico ricostruisce dal basso.

I modelli interpretativi, infine, rispondono alla domanda perché il sistema fa ciò che fa: quale problema computazionale, comportamentale o cognitivo sta risolvendo. Una stessa tuning curve può così essere descritta (livello 1), generata da un modello biofisico (livello 2), e infine interpretata come la soluzione che il sistema visivo ha trovato per estrarre orientamenti da un’immagine retinica (livello 3).

Dayan e Abbott sottolineano anche che il modello più dettagliato non è automaticamente il migliore: un buon modello deve connettere i livelli, non semplicemente accumulare dettagli. Questa distinzione mi sembra centrale. In primis perchè sono del parere che una buona teoria deve essere in grado di comprimere in maniera architetturalmente coerente una grossa quantità di informazione. In secondo luogo perchè non intendo eliminare la parola “coscienza”; voglio naturalizzarla. Liberarla da un carico metafisico che ritengo non necessario, riconoscendo che essa opera a livello descrittivo-interpretativo, non a quello meccanicistico; una specie di “tuning curve della totalità del sistema”, se posso permettermi un’analogia un po’ grossolana.

Il caso del coma e la covert consciousness

Durante una conversazione, mi è stato portato l’esempio del coma come possibile controargomento alla mia posizione: una persona in coma non è cosciente, ma il suo cervello potrebbe comunque avere attività interna quali sogni, frammenti di esperienza e stati non accessibili all’esterno. Questo, secondo l’obiezione, mostrerebbe che la coscienza è qualcosa che esiste al di là del comportamento osservabile, e quindi al di là di una descrizione fisicalista.

A mio avviso, questo non confuta la mia posizione: la rinforza. Clinicamente, coma, unresponsive wakefulness syndrome (ex stato vegetativo) e stato di minima coscienza sono categorie funzionali del sistema nervoso, non prove dell’esistenza di una sostanza cosciente separata. Sono descrizioni di pattern macroscopici del sistema, utili per decisioni cliniche.

Più interessante ancora è il fenomeno della covert consciousness o cognitive motor dissociation: alcuni pazienti senza evidenza comportamentale di risposta ai comandi mostrano modulazione volontaria dell’attività cerebrale rilevabile tramite fMRI o EEG. Studi recenti suggeriscono che questo possa accadere in circa un paziente su quattro tra quelli senza command following comportamentale (Owen et al. 2006; vedi anche Claassen et al. 2019, NEJM). La dissociazione qui è tra attività cerebrale volontaria e capacità di produrre output motorio: i pazienti hanno l’una ma non l’altra. Detto in altro modo: in un sistema fisico sufficientemente complesso possiamo avere attività interna senza output motorio osservabile. Questo non dimostra che la coscienza sia non-fisica. Dimostra che il rapporto tra stato dinamico interno, esperienza possibile e comportamento motorio osservabile è complesso, e che identificare banalmente la coscienza con la capacità di un sistema di produrre output motorio è un errore. Inoltre, un output c’è stato, semplicemente non motorio. Questi studi li ho ad ora guardati in maniera sommaria, pertanto il loro approfondimento sarà oggetto di successiva trattazione.

La soggettività e l’hard problem

Un’altra obiezione che mi viene sovente portata riguarda la soggettività. “Io so soltanto che io sono cosciente; non posso sapere se lo sei tu”. Questa obiezione tocca quello che David Chalmers ha chiamato l’hard problem of consciousness: perché certi processi fisici dovrebbero essere accompagnati da un’esperienza soggettiva, dal “che cosa si prova” a essere quel sistema?

Riconosco che la questione è seria, e non ho intenzione di liquidarla. Brian Greene, fisico teorico e divulgatore scientifico, ha confessato in Fino alla fine del tempo di essere stato turbato dall’argomento di Frank Jackson sulla “stanza di Mary” — l’esperimento mentale di una neuroscienziata che conosce ogni dettaglio fisico della percezione del rosso ma non l’ha mai sperimentato in prima persona. Greene ammette che la sua “sbrigativa certezza” si è “incrinata” leggendo Jackson. Non è andato per questo verso il dualismo, e nemmeno io ci vado, ma trovo intellettualmente onesto riconoscere il peso della questione.

La mia posizione su questo punto è la seguente. Se l’obiettore mi dice “hai spiegato perché un sistema rappresenta sé stesso come cosciente, ma non hai spiegato perché c’è qualcosa che si prova dall’interno”, io non rispondo “ti sbagli, il problema non esiste”. Rispondo che la questione è aperta, ma che non obbliga al dualismo. Il fatto che io abbia accesso privilegiato alla mia esperienza dimostra un’asimmetria epistemica, non una differenza ontologica. In un sistema fisico complesso che modella sé stesso, ci sono naturalmente due punti di vista sulle stesse proprietà: un punto di vista intrinseco, dato dalla rappresentazione che il sistema ha di sé, e un punto di vista estrinseco, dato da chi osserva il sistema dall’esterno. Questi due punti di vista accedono a un’informazione diversa perché sono posizionati diversamente rispetto ai meccanismi del sistema. Questo è perfettamente coerente con un’unica realtà fisica.

Detto altrimenti: io conosco il mio dolore in prima persona; tu lo inferisci dal mio comportamento, linguaggio e fisiologia. Da questo non segue che il dolore sia fatto di una sostanza non fisica. Segue che la descrizione epistemica sui sistemi fisici dipende da dove ti posizioni rispetto a essi.

Mi colloco, in questo, vicino a quello che Anil Seth chiama real problem approach (Seth & Bayne 2022): non nego l’esistenza di una questione genuina sulla fenomenicità, ma rifiuto che essa debba essere risolta come problema metafisico preliminare a una scienza della coscienza. Il compito è spiegare, predire e controllare le proprietà fenomeniche specifiche - perché un’esperienza visiva ha quel carattere e non un altro, perché alcuni stati globali sono coscienti e altri no - non rendere conto dell’esistenza della fenomenologia come tale in modo aprioristico. La presa sul hard problem, secondo questa visione, si allenterà man mano che la nostra capacità di spiegare e manipolare le proprietà funzionali e fenomeniche della coscienza si espanderà.

Provo ora a formulare positivamente la mia ipotesi. Ciò che noi chiamiamo “esperienza cosciente” è ciò che si prova ad essere il pattern di organizzazione strutturale e fisica di un sistema le cui particelle, interagendo, codificano un’informazione di un certo tipo. Il percetto di un sistema — il suo “che cosa si prova a essere” — è determinato dal pattern dinamico-organizzativo che il sistema realizza, purché il sistema possegga l’organizzazione strutturale necessaria per essere il tipo di cosa che possa avere un percetto. Non tutti i sistemi fisici lo sono. Quali siano esattamente queste condizioni necessarie è una questione empirica e teorica aperta e per me oggetto di grande fascino. Ma il punto filosofico è netto: se la coscienza è prodotta da quel pattern, non è una sostanza separata; non è nemmeno una proprietà che fluttua nel sistema. È quel pattern, considerato dal lato in cui il sistema lo è. In sostanza - ora sto per fare un’affermazione forte - ritengo che la differenza tra un sasso e una persona sia data esclusivamente dal tipo di pattern di informazione portata dall’organizzazione ed interazione delle particelle fondamentali (con questo termine mi riferisco alle particelle subatomiche elementari oggi note alla fisica, come quark ed elettroni, le quali sono qualitativamente le medesime in qualsiasi cosa che sia “fatta” di materia ordinaria) che lo costituiscono.

Coscienza, intenzionalità, intelligenza come categorie interpretative

Mi sento in dovere di delineare meglio cosa intendo quando descrivo coscienza, intenzionalità e intelligenza come “categorie interpretative umane”, in quanto mi è capitato che l’interlocutore si sentisse “offeso” come se io stessi “sminuendo” qualcosa, con questa mia descrizione. Non significa che siano arbitrarie. Le attribuiamo perché certi sistemi mostrano regolarità funzionali reali: integrazione, memoria, adattamento, apprendimento, previsione, controllo, flessibilità, autoregolazione. Non sono illusioni linguistiche. Sono descrizioni compressive di proprietà reali, come “pressione” in fisica, “fitness” in biologia evolutiva, “infiammazione” in medicina o “attenzione” in neuroscienze cognitive.

Un’intuizione dal neuromorphic computing: strutturare processi, non elaborare strutture

Questa riflessione da adito ad un collegamento diretto con i miei interessi nel neuromorphic computing, ed è il punto in cui il mio framework dice qualcosa di poco frequente nel dibattito generalista sulla coscienza. In un articolo pubblicato su Nature Communications nel 2023, Jaeger, Noheda e van der Wiel hanno articolato una distinzione concettuale che mi sembra centrale anche per il problema della coscienza, e che vale la pena riportare. La questione da loro sviscerata è ancora fonte di interrogativo per me, pertanto ad ora il mio parere a riguardo è solo una “demo” preliminare e diventerà senz’altro più articolato.

I tre autori distinguono due paradigmi storicamente sviluppati della computazione. Il primo è quello che chiamano Algorithmic Computing (AC), erede della tradizione che da Aristotele passa per Leibniz, Boole, Frege e culmina in Turing: la computazione è elaborazione di strutture simboliche tramite regole logiche, organizzata in passi discreti di inferenza. La macchina di Turing è il modello matematico paradigmatico di questa famiglia, e tutta la computazione digitale moderna ne è una realizzazione fisica (estremamente sofisticata, ma ontologicamente classificabile come AC). Il secondo paradigma è il Cybernetic Computing (CC), erede della tradizione cibernetica e delle neuroscienze: la computazione è accoppiamento dinamico continuo tra sistemi fisici, in cui input e output sono segnali (o, nella loro terminologia più generale, chronicles) che evolvono in tempo reale, e in cui ciò che si calcola è il prodotto dell’evoluzione di un sistema dinamico, non la valutazione di una funzione su una struttura statica. Il cervello e i materiali neuromorphic appartengono a questa seconda famiglia.

La frase che condensa il loro punto di vista è: classical models of computing systems describe the processing of structures, mentre la computazione fisica va compresa come the structuring of processes. Detto altrimenti: nella computazione algoritmica si elaborano strutture simboliche tramite processi disciplinati; nella computazione fisica, invece, si strutturano processi tramite l’organizzazione di sistemi dinamici. La proposta che essi avanzano — che battezzano Fluent Computing (FC) — è una sintesi formale di queste due eredità che mira a fornire una teoria comune.

Questa distinzione ha un’implicazione filosofica profonda. Anche un computer digitale, a livello fisico, è fatto di transistor, correnti, materiali, campi elettrici. Non è “meno fisico” del cervello. La differenza non è ontologica, ma architetturale e descrittiva. Il computer digitale usa la fisica per stabilizzare simboli discreti e regole formali — la fisica viene disciplinata per implementare un livello simbolico, e tutto il calcolo significativo avviene a quel livello, separato dal substrato. Il cervello e molti sistemi neuromorfi sfruttano invece direttamente la dinamica fisica: non linearità, memoria materiale, storia, rumore, transizioni, attrattori e criticità. In un caso la fisica viene “addomesticata” per supportare un livello simbolico; nell’altro la fisica è il calcolo.

Vorrei inoltre portare all’attenzione di chi sta leggendo la seguente osservazione. Il paper di Jaeger cita esplicitamente la criticità auto-organizzata come enabling condition per dinamiche complesse di elaborazione dell’informazione, riferendosi tra gli altri proprio a Beggs — lo stesso autore che cito più avanti in questo saggio nella sezione sull’emergenza. Le mie letture sui sistemi neurali biologici e il framework teorico che si sta articolando per descrivere i sistemi neuromorfi non biologici stanno convergendo sui medesimi riferimenti canonici. Questa convergenza non è - a mio avviso - banale, ed è coerente con l’idea che alcuni regimi organizzativi rendano possibile certe forme di elaborazione complessa indipendentemente dal substrato fisico specifico, a patto che il substrato sia capace di entrare in quei regimi.

Da tutto ciò segue una conseguenza filosoficamente non banale per il problema della coscienza. Se la coscienza è legata a un certo regime dinamico di un sistema fisico organizzato — alla strutturazione di processi, per usare la formulazione di Jaeger — non a un certo programma eseguito su un substrato qualsiasi, allora il funzionalismo computazionale classico, secondo cui qualunque sistema che istanzia la stessa funzione computazionale realizza la stessa esperienza, è probabilmente falso. Non perché la coscienza non sia fisica, ma perché la coscienza dipende dalla fisica come fisica, non dalla fisica come implementazione di simboli. La differenza tra un cervello e un’emulazione algoritmica del cervello su un hardware digitale potrebbe non essere il software: potrebbe essere la fisica. La distinzione tra Algorithmic Computing e Cybernetic/Fluent Computing fornisce, in questo senso, un quadro concettuale entro cui questa ipotesi può essere formulata in modo non triviale. Quest’ultima affermazione è lasciata un po’ in sospeso, ne sono consapevole. Tuttavia, è un’ipotesi di lavoro coerente con la prospettiva che sto descrivendo.

Emergenza

Resta da chiarire l’ultimo punto: l’emergenza. Non penso che, quando un sistema diventa complesso, emerga qualcosa di extra-fisico. Però emergono — nel senso che diventano effettivamente visibili e descrittivamente irriducibili — proprietà macroscopiche reali. Diventano riconoscibili pattern, vincoli e regolarità di livello alto che non sono evidenti osservando un singolo componente isolato, ma che non richiedono nuove forze o sostanze per essere spiegati. La vita non è dentro un singolo atomo; il pensiero non è dentro un singolo canale ionico; la coscienza non è dentro un singolo neurone. Da questo non segue che vita, pensiero e coscienza siano non-fisici.

Beggs, parlando della criticità corticale, sottolinea che molte proprietà rilevanti dei network neuronali — trasmissione dell’informazione, sensibilità agli input, capacità computazionale — possono dipendere dal regime collettivo della rete e non soltanto dalle proprietà dei singoli elementi. Mi sembra un modo rigoroso di intendere l’emergenza: non una rottura della fisica, ma una proprietà reale di livello alto prodotta da organizzazione e dinamica collettiva.

Conclusione

In sintesi, la mia non è un’eliminazione della coscienza alla maniera degli eliminativisti radicali, e non è un materialismo ingenuo. È un fisicalismo naturalistico e dinamico: tutto ciò che accade accade in sistemi fisici, ma i sistemi fisici possono essere descritti a molti livelli, e la coscienza è uno di questi livelli. Non è una sostanza separata, ma non è nemmeno una parola vuota. È il nome che diamo a un certo modo in cui alcuni sistemi fisici organizzati integrano l’informazione.

Cosa segue da tutto questo, in pratica?

Primo: una domanda aperta sulla quale, devo confessare, non ho un parere definitivo. Anzi, se qualcuno ha un’argomentazione valida o un punto di vista differente a riguardo, la/lo prego di contattarmi alla mia mail personale in modo da poter discutere di questo quesito e giungere a una visione più coerente e soddisfacente. Se la coscienza è legata al regime dinamico-organizzativo di un sistema fisico — alla strutturazione di processi, e non al programma eseguito su un substrato qualsiasi — allora architetture neuromorfe e architetture digitali con identica funzione input-output potrebbero in linea di principio differire sotto il profilo della coscienza. Tuttavia, se la fisica di quel sistema digitale, considerata nel dettaglio, codificasse lo stesso identico pattern di informazione del sistema “incarnato” — non solo lo stesso comportamento input-output a un certo livello di astrazione, ma proprio la stessa organizzazione informazionale — allora forse non vi sarebbe alcuna differenza. La questione, formulata così, dipende da cosa significhi rigorosamente “codificare la stessa informazione” tra substrati diversi, e dal fatto se questa equivalenza, in un caso non banale, sia in pratica realizzabile. Non possiedo oggi gli strumenti formali per potermi pronunciare. È una delle questioni che intendo maggiormente esplorare.

Secondo: naturalizzare la coscienza non significa sminuirla. Anzi, sono convinto che capire come un sistema fisico organizzato possa pensare, percepire, soffrire e amare non sottrae nulla alla meraviglia. Aggiunge il fatto, non ovvio, che ciò che siamo è radicato in dinamiche fisiche che possiamo, in linea di principio, comprendere e che, verosimilmente, possiamo anche realizzare in materiali diversi da quello biologico. Questo rende - a mio parere - ancora più affascinante ciò che siamo e ciò che ci circonda.

L’avventura è realmente appena iniziata.


Riferimenti

  • Beggs, J. M. (2008). The criticality hypothesis: how local cortical networks might optimize information processing. Philosophical Transactions of the Royal Society A, 366, 329-343.
  • Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200-219.
  • Claassen, J. et al. (2019). Detection of brain activation in unresponsive patients with acute brain injury. New England Journal of Medicine, 380, 2497-2505.
  • Dayan, P., Abbott, L. F. (2001). Theoretical Neuroscience. MIT Press.
  • Greene, B. (2020). Until the End of Time: Mind, Matter, and Our Search for Meaning in an Evolving Universe. Knopf. [Trad. it.: Fino alla fine del tempo, Einaudi, 2020.]
  • Jackson, F. (1982). Epiphenomenal qualia. Philosophical Quarterly, 32, 127-136.
  • Jaeger, H., Noheda, B., van der Wiel, W. G. (2023). Toward a formal theory for computing machines made out of whatever physics offers. Nature Communications, 14, 4911.
  • Owen, A. M. et al. (2006). Detecting awareness in the vegetative state. Science, 313, 1402.
  • Seth, A. K., Bayne, T. (2022). Theories of consciousness. Nature Reviews Neuroscience, 23, 439-452.