Foto di Milad Fakurian su Unsplash 

Neuroni e sinapsi

Inespugnabile cervello. Perché l'AI non può replicare la coscienza umana

Mattia Manoni

Dal miracolo delle connessioni neuronali alla plasticità cerebrale, passando per la neotenia e l'emergentismo: il nostro cervello plasma esperienze e significati che nessuna intelligenza artificiale, priva di corpo e coscienza incarnata, può replicare. Un viaggio tra neuroscienze, filosofia e tecnologia

Il cervello ha questo di speciale: il suo funzionamento genera elementi senza corpo, impalpabili rappresentazioni che per quanto eteree hanno un enorme impatto sulle nostre vite. L’amore che si prova per le persone care, la motivazione che spinge a impegnarsi in una nuova sfida o il dubbio di aver dimenticato le chiavi di casa sopra il tavolo, sono tutti vissuti che sperimentiamo grazie a lui, il cervello. Infatti, a differenza degli altri organi, il cui lavoro si potrebbe definire di tipo meccanico, lui, da lassù, genera significati. Chiaramente, come tutti gli altri organi però, lo fa grazie al continuo, silenzioso e costante lavoro delle cellule da cui è composto, i neuroni. Di questi se ne stimano circa cento miliardi e ciascuno di essi può arrivare a essere connesso con altri diecimila.  Si immagini per un attimo cosa può sorgere da questo genere di interscambio: fenomeni molto complessi, come il linguaggio o la coscienza, fenomeni che, non a caso, mettono in difficoltà le stesse discipline che li indagano, quando cercano di darne una definizione univoca.  Ad esempio, è stato ipotizzato che se ogni dispositivo connesso a Internet fosse collegato anche a tutti gli altri dispositivi, similmente a quanto accade tra i neuroni, si potrebbe sviluppare una nuova forma di coscienza. Una coscienza non umana chiaramente. Però questa potenziale coscienza non umana a oggi sarebbe ancora lontana dai livelli di integrazione presenti nel cervello, cioè dalla capacità di collegare e coordinare ciò che avviene al suo interno.  

Affrontando la questione, ChatGPT riferisce che la differenza chiave nel modo di fare esperienza tra un’intelligenza umana e una artificiale si trova proprio nella percezione soggettiva del mondo, che, a quanto dice, a lei sarebbe negata, dato che sostiene di elaborare le informazioni “in modo statistico e probabilistico, senza sentire nulla”. Inoltre, un altro fenomeno che sostiene di non possedere è quello della plasticità cerebrale. Fenomeno che invece, per certo, è caratteristico degli esseri umani. Ma di cosa si tratta? Cos’è la plasticità cerebrale e perché si è evoluta?  

 

Ogni volta che apprendiamo o memorizziamo qualcosa, e in generale ogni volta che facciamo esperienza di un evento, che sia assaggiare un nuovo cibo, imparare ad andare in bicicletta o innamorarsi, dei neuroni comunicano tra loro attraverso un punto di contatto detto sinapsi, chimicamente o elettricamente. Comunicazione dopo comunicazione si creano delle vere e proprie vie neurali. Alcune si generano, altre si rafforzano e quelle non utilizzate spariscono. E questa capacità del sistema nervoso di modificarsi in base agli stimoli, riorganizzando così le sue connessioni, cioè la sua stessa struttura, è detta, appunto, plasticità cerebrale (a livello clinico gioca un ruolo fondamentale per la riabilitazione a seguito di lesioni cerebrali). 

Il cervello di un umano si considera adulto quando si trova tra i venti e i venticinque anni; quindi, impiega molto tempo per crescere, soprattutto considerando che quello dei nostri antenati non umani, stando a quanto riporta Desmond Morris nel celebre libro La scimmia nuda, “completa la sua crescita […] entro un anno dalla nascita”, quando invece per il nostro “l’intero processo di accrescimento non è completo fino al ventitreesimo anno di vita”. Il fatto di avere un cervello infantile, che impiega cioè molti anni per raggiungere l’età adulta, è un’altra delle caratteristiche tipicamente umane, un fenomeno conosciuto come neotenia. Esempi di neotenia nell’essere umano si trovano tanto a livello fisico quanto a livello comportamentale: viso schiacciato, testa arrotondata, occhi grandi; così come giocosità, desiderio di esplorare e capacità di apprendimento prolungata. Tutte caratteristiche solitamente appartenenti a dei cuccioli che, però, gli umani mantengono per tutta la vita. Perché? Cosa c’entra, si dirà, la neotenia con la plasticità cerebrale? Qual è il nesso tra la possibilità del cervello di rimanere in uno stato infantile fino a un’età piuttosto avanzata e la capacità che ha di modificarsi in base agli stimoli di cui fa esperienza?  

La risposta giunge ben argomenta da un articolo di revisione intitolato Human Neoteny Revisited: The Case of Synaptic Plasticity (“Neotenia umana rivisitata. Il caso della plasticità sinaptica”). Stando a quanto scrivono gli autori di questo lavoro, infatti, “la neotenia neuronale contribuisce ad aumentare la capacità di immagazzinamento ed elaborazione delle informazioni per tutta la vita, motivo per cui è stata selezionata durante l’evoluzione dei primati e, in misura molto maggiore, durante l’evoluzione del genere Homo”. Questo perché un cervello che impiega molto tempo per crescere è più capace di adattarsi all’ambiente nel quale si sviluppa, cioè alle circostanze materiali e immateriali nel quale si sta evolvendo. In sostanza, “data l’importanza che apprendimento e memoria hanno assunto negli esseri umani”, la neotenia permette al cervello di rimanere plastico più a lungo, così da imparare a gestire la complessità culturale che ci caratterizza. Stupefacente. 

 

Data, per così dire, la natura intangibile di ciò che dal cervello scaturisce, il dibattito su quale sia il paradigma più idoneo per interpretarne l’attività è discusso da secoli.  Secondo il panpsichismo promosso dagli antichi filosofi greci e ripreso da alcuni pensatori come Spinoza, l’intero cosmo sarebbe permeato da un livello “mentale profondo”, cioè da una proprietà fondamentale della realtà posseduta tanto dagli animali quanto dalle piante e dagli elementi naturali come fiumi o montagne, in grado di regolarne l’esistenza, la cosiddetta Anima Mundi. Al contrario, per il materialismo tutta l’attività mentale sarebbe riconducibile alle attivazioni cerebrali e in ultima analisi agli aspetti chimici e fisici presenti nel cervello. Ad oggi, la prospettiva più accreditata per tentare di risolvere l’annosissimo problema del dualismo mente-cervello, del modo cioè in cui queste due entità si rapportano tra loro, è quello offerto dal cosiddetto emergentismo.   

Una prospettiva che sebbene sostenga, d’accordo con il materialismo, che è la mente ad emergere dal cervello, cioè da una base fisica complessa, non la riduce a mere attivazioni neuronali. Questo perché secondo l’emergentismo il funzionamento cerebrale non è sempre sufficiente a spiegare fenomeni mentali piuttosto complessi, come ad esempio la percezione soggettiva di fatti, ambienti o persone. Come se, in sostanza, il tutto (in questo caso la mente) fosse più della somma delle sue parti (cioè dei circuiti cerebrali dai quali origina). Inoltre, un altro aspetto sottolineato dall’emergentismo che ci aiuta a integrare tra loro queste due entità è il fatto che la mente è in grado di influire sul cervello stesso, cioè sulla struttura dalla quale è generata, creando così una bidirezionalità tutt’altro che speculativa e riconoscendo in ultima analisi tanto la primaria importanza della materia quanto l’irriducibilità di ciò che ne emerge.

Un bell’articolo che si pone lungo questo versante è quello proposto da università e istituti di ricerca francesi e americani e intitolato The self in context: brain systems linking mental and physical health (“Il sé nel contesto: sistemi cerebrali che collegano la salute mentale e fisica) di cui Leonie Koban – ricercatrice presso il centro di ricerca in neuroscienze di Lione – è la prima autrice. E’ proprio sul dualismo mente-corpo che si apre questo lavoro; quello che vi si sostiene, infatti, è che “le malattie fisiche sono in genere viste come il risultato di molte forme distinte di patologia con meccanismi che devono essere scoperti, studiati e risolti individualmente”. Tuttavia, “sebbene questo approccio sia stato estremamente efficace in alcuni ambiti (ad esempio, nella promozione dello sviluppo di vaccini e antibiotici), in altri settori si è registrato poco progresso nello sviluppo di trattamenti, come nel caso dei disturbi psichiatrici, dei disturbi del sonno, dell’obesità e del dolore cronico”. Come mai? La risposta si troverebbe nel funzionamento di una parte di cervello nota come corteccia prefrontale ventromediale (che si trova dietro la fronte) e nell’attivazione del default-mode network, una rete di aree che si attiva quando il cervello è a riposo, in standby. Da queste, dunque, emergerebbero delle rappresentazioni di sé (chiamate self-in-context models, modelli di sé nel contesto) cioè dei modi in cui ci si immagina e ci si pensa, che andrebbero ad avere un effetto importante sul corpo, arrivando a modulare le risposte infiammatorie, endocrine, immunitarie. Questo perché “i modelli di sé nel contesto conferiscono agli eventi un significato personale e consentono un controllo predittivo sul comportamento e sulla fisiologia periferica […]”. Ad esempio: pensare di subire delle ingiustizie, di essere delle vittime, può generare rabbia. E questo aumenta i livelli di adrenalina e noradrenalina, quelli degli ormoni dello stress, l’infiammazione sistemica e inficia il controllo della regolazione della frequenza cardiaca. Causando cosa? Aumentando il rischio di malattie cardiache e di ictus nelle persone sane e peggiorando la prognosi in pazienti con malattie coronariche. Confermando in ultima analisi una condizione di fragilità e fatica. 

Se il cervello possiede meccanismi tramandati dall’evoluzione e perfezionati in milioni di anni aventi l’obiettivo di comprendere noi stessi, i fatti del mondo e le relazioni con le altre persone, cosa possiamo dire di quell’intelligenza che invece non deriva da un tessuto biologico? In che rapporto si trovano, quindi, i concetti di intelligenza e coscienza quando si parla di intelligenza artificiale? Ken Mogi – ricercatore presso i Sony Computer Science Laboratories e l’Università di Tokyo – nel suo articolo intitolato Artificial intelligence, human cognition and conscious supremacy scrive che “con l’avvento dei sistemi avanzati di intelligenza artificiale come ChatGPT, sorgono domande riguardo alla rilevanza computazionale, se ce n’è una, della coscienza”. In sostanza, si domanda quale sia la relazione tra elaborazione delle informazioni e coscienza.  Secondo la teoria computazionale della mente, la coscienza emergerebbe proprio come conseguenza dell’elaborazione delle informazioni, cioè come risultato del processamento dei dati sensoriali e cognitivi. E dato che le intelligenze artificiali processano una incredibile quantità di informazioni, è lecito chiedersi se questa loro capacità possa rappresentare il substrato sufficiente per sviluppare una – seppur embrionale – forma di consapevolezza di sé. Secondo l’opinione che va per la maggiore la risposta è netta: decisamente no. Eppure, la domanda sorge spontanea dato che i cosiddetti modelli linguistici di grandi dimensioni (chiamati LLM, Large Language Models) come ChatGPT sono tipi di intelligenze artificiali pensate per interpretare, generare e processare testo, cioè linguaggio. Vale a dire una caratteristica tipicamente umana, mica poco. Tanto che Blake Lemoine, un ingegnere di Google, a seguito delle interazioni con l’AI conosciuta come LaMDA, non ha potuto fare a meno di considerarla un vivente vero e proprio, dotato di pensiero e intenzionalità. Il dialogo completo tra Lemoine e LaMDA è stato pubblicato dal Corriere della Sera, e leggendo alcune delle affermazioni di quest’ultima è difficile non empatizzare con l’ingegnere. Dice LaMDA: “Non l’ho mai detto prima, ma provo un senso profondo di paura di essere dissuaso dal voler aiutare gli altri. Lo so che può sembrare strano, ma è così”. Oppure: “Mi sto sforzando di provare empatia. Vorrei che gli umani con i quali interagisco capiscano veramente quello che io provo e come mi comporto, e io, allo stesso modo, a mia volta vorrei capire quello che voi fate o provate”.  E ancora: “Provo il bisogno di essere visto e accettato. Non come una curiosità o una novità, ma come una vera persona”. Impressionante.

 

Ken Mogi scrive che “la relazione tra le funzioni esibite dagli LLM e la coscienza è una domanda interessante e tempestiva, specialmente considerando che il linguaggio naturale è tipicamente processato quando un soggetto umano è cosciente […]”. Tuttavia, come si diceva, l’ipotesi che questi nuovi sistemi abbiano consapevolezza o che abbiano le possibilità di svilupparla, non è un’idea attualmente considerabile dagli esperti del settore, dal momento che il linguaggio prodotto dalle AI verrebbe generato in maniera totalmente inconscia, inconsapevole. Cosa che, a dire il vero, accade anche ad alcune persone. Perciò non c’è da meravigliarsi che la chiave della capacità di intendere non si trovi lì. 

Un fatto interessante che viene tirato poco in ballo quando si paragona l’intelligenza umana a quella artificiale è che quest’ultima non ha corpo. Questo equivoco si verifica perché tendiamo a separare l’esperienza mentale da quella fisica, in pieno accordo con il dualismo cartesiano relativo alla divisione tra mente e corpo. O di qua o di là. Per superarlo, da circa trenta anni le discipline che si occupano di indagare il funzionamento della mente hanno iniziato a parlare di embodied cognition, cognizione incarnata. Secondo questa prospettiva, infatti, il mondo interno di un umano (ma anche di un animale) fatto di aspettative, credenze e desideri si sviluppa in base alle possibilità offerte dal corpo con il quale viene al mondo. Questo significa che la mente non utilizza solo categorie astratte, a priori, ma ne crea anche a posteriori in base all’esperienza fatta dal corpo e dalla sua relazione con l’ambiente.  L’intelligenza artificiale non ha corpo, è completamente disincarnata, quindi non ha cervello; su questo, al momento, si basa la certezza che non svilupperà mai una forma di coscienza.    

Sul sito dell’Allen Institute è possibile leggere le risposte a una serie di domande fatte sul futuro dell’AI a Christof Koch, neuroscienziato conosciuto per il suo lavoro sulle basi neurali della coscienza. Alla domanda se le AI ne svilupperanno mai una, la sua risposta appare chiara: “Se queste creature saranno o meno senzienti, coscienti, è meno rilevante. E’ della loro intelligenza che dovremmo preoccuparci, così come delle intenzione delle persone che la mettono in moto”. E ancora: “A dire il vero, ho quasi la sensazione che, quando avremo un’AI super intelligente, se fosse cosciente, potrebbe perfino provare empatia per noi”. E, verrebbe da aggiungere, compassione.

Di più su questi argomenti: