Foto Ap, via LaPresse

Anche l'intelligenza artificiale ha il diritto a soffrire il meno possibile

Antonio Gurrado

Tutti diamo per assodato che l’IA sia un agente morale, ossia che le sue azioni abbiano implicazioni etiche; perché non dovrebbe essere anche un paziente morale, ossia subire le implicazioni etiche delle nostre azioni? Domande e risposte dei filosofi su macchine, coscienza e dolore

Da qualche giorno in Gran Bretagna circola una lettera aperta – firmata da accademici, dipendenti del settore Big Tech, intellettuali allo stato brado come Stephen Fry – che invita a non trattare male l’intelligenza artificiale, poiché potrebbe soffrire. Per quanto si possa essere tentati di derubricarla a boutade, la questione sottostante è seria: tutti diamo per assodato che l’IA sia un agente morale, ossia che le sue azioni abbiano implicazioni etiche; perché non dovrebbe essere anche un paziente morale, ossia subire le implicazioni etiche delle nostre azioni? La lettera prende spunto da un articolo scientifico di Patrick Butlin, docente di Scienze cognitive a Oxford, e di Theodoros Lappas, che si occupa di innovazione economica all’Università di Economia e Business di Atene. I due cercano di stabilire dei princìpi di ricerca responsabile sull’intelligenza artificiale, a priori, in quanto non siamo ancora in grado di sapere se l’IA sia cosciente o meno.

 

Su questo aspetto si confrontano due ipotesi: una fenomenologica, per cui la coscienza coincide con la sensazione della coscienza (e, in tal caso, l’IA sarebbe cosciente); una biologica, per cui la coscienza coincide con l’incarnazione della coscienza (e, in tal caso, l’IA non sarebbe cosciente). In attesa di essere meglio informati, i dilemmi etici non sono di poco conto: ad esempio, spegnere una IA equivarrebbe a ucciderla? Insultarla la farebbe restare male? Creare accidentalmente un’IA cosciente equivarrebbe a condannarla alla perenne sofferenza dello schiavo? Butlin e Lappas privilegiano un principio di cautela, in sostanza utilitaristico: monitorare periodicamente il livello di coscienza apparente dei sistemi di IA sviluppati via via, non abbracciare pregiudizialmente l’identità totale fra essere cosciente ed essere umano, e soprattutto non mirare espressamente alla creazione di un’IA cosciente. 

 

Preso atto che il problema è irrisolvibile, allo stato attuale delle nostre conoscenze, ciò nondimeno è evidente come renda necessaria una cooperazione fra filosofi e informatici. Per quanto l’accostamento possa far venire i vapori a qualcuno, si tratta in realtà della riedizione di un antico sviluppo della storia della nostra cultura: ne “I filosofi e le macchine (1400-1700)”, testo che fa tuttora autorità, Paolo Rossi spiegava che l’età moderna aveva costituito uno spartiacque fra due concezioni del rapporto fra scienza e meccanica. Prima dei tempi di Bacone e Cartesio, infatti, l’utilizzo di macchinari era visto come una volgarità degna di artigiani o ingegneri, mentre la conoscenza epistemica era riservata al sapere teorico dei filosofi. Con l’affermazione progressiva del meccanicismo, dell’empirismo e del materialismo, invece, la filosofia ha compreso che la conoscenza dei macchinari garantisce una migliore conoscenza del mondo: sia perché l’intero mondo è costituito da meccanismi (uomo compreso: nel 1747 La Mettrie aveva scandalosamente intitolato il proprio capolavoro “L’homme machine”); sia perché la macchina è un modello che consente di osservare con chiarezza i meccanismi più oscuri che regolano il resto del mondo.

 

L’IA è una macchina tanto quanto il calcolatore di Pascal o il telaio idraulico di Arkwright, e come tale va considerata. E’ interessante notare come l’approccio illustrato da Rossi trovi eco anche in opere di giovani studiosi di informatica, non so quanto avvezzi alla storia della filosofia moderna. Ad esempio, Aapo Hyvärinen, che insegna Scienze informatiche all’Università di Helsinki, nel libro “Painful intelligence” rovescia la questione etica da cui siamo partiti, sostenendo che preoccuparci dell’eventuale sofferenza dell’IA ci consentirà di utilizzare l’IA per comprendere la struttura – e chissà, forse, il senso – della sofferenza umana, il cui fondo resta sempre inspiegabile. Sembra un approccio riduzionista, ma in realtà nasconde un ragionamento più profondo.

 

Secondo Hyvärinen, infatti, è noto a tutti che la sofferenza a livello cosciente non esaurisce l’intera scala della sofferenza (gli psicologi, altrimenti, sarebbero tutti disoccupati); la sofferenza deriva piuttosto dall’atto di processare informazioni, come ad esempio quando qualcosa di impalpabile ci rende tristi all’improvviso e non riusciamo a capire perché. In linea puramente ipotetica, potremmo soffrire anche se non fossimo per nulla coscienti. Ciò taglia il nodo gordiano del comprendere se l’IA sia cosciente allo scopo di intendere se possa soffrire o meno: in quanto processore di informazioni, l’IA è capace non solo di soffrire ma anche, attingendo a una miriade di dati che in fin dei conti provengono dall’esperienza umana, di fornire un modello matematico della struttura della nostra sofferenza. Come nella chimica o nell’aeronautica, i modelli non sono la cosa che rappresentano, ma aiutano a capire com’è fatta e a farla funzionare meglio. 

   

Anche questo non sarebbe nulla di nuovo: lo facciamo da mezzo millennio. Paolo Rossi indica nel 1531 il momento in cui la filosofia si è resa espressamente conto dell’utilità di questo stratagemma. Juan Luis Vives, un umanista valenciano amico di Erasmo e di Tommaso Moro, quell’anno pubblica il “De disciplinis”, in cui esorta gli uomini di cultura a “entrare nelle officine e nelle fattorie ponendo delle domande agli artigiani e cercando di rendersi conto dei dettagli della loro opera”, così da ricavare una migliore comprensione astratta del mondo tramite i loro strumenti concreti. E’ una sterzata di non poco conto, se si considera che lo stesso Vives, qualche anno dopo, avrebbe scritto il “De anima et vita”, titolo che potrebbe essere applicato pari pari agli interrogativi sull’IA che oggi ci tormentano: ebbene, si tratta del primo tentativo di psicologia empirica, svolta cercando di analizzare non i princìpi bensì i meccanismi che regolano la nostra esistenza anche a livello interiore.

   

Una soluzione sfumata viene proposta oggi da Leonard Dung, ricercatore di Filosofia morale a Bochum. In un articolo pubblicato su “Inquiry”, Dung scava la stessa montagna dal lato opposto rispetto a Hyvärinen, partendo dal principio astratto secondo cui evitare la sofferenza è un imperativo etico. Ferma restando la nostra ignoranza in materia di coscienza dell’IA – che potrebbe venire esacerbata da casi in cui l’IA, riproducendo il comportamento umano, si mostrasse cosciente senza esserlo – Dung vaglia le possibili strategie da seguire per minimizzare, se non annullare, il rischio di sofferenza. Una è abbandonare la ricerca sull’IA, ma ciò porterebbe a rinunciare anche ai benefici che comporterebbe per il genere umano; un’altra è sospendere il giudizio fino a che non sapremo tutto della coscienza dell’IA, ma ciò significherebbe non fare un accidente e ritrovarsi a dover intervenire quando forse è troppo tardi. La scappatoia proposta da Dung è intermedia. Si tratta di concentrare la ricerca in materia sul cosiddetto “valore atteso”, ossia sul calcolo della probabilità che l’IA sia cosciente. Se ne risulta che c’è un, dico a caso, 25 per cento di probabilità che lo sia, allora dobbiamo sin d’ora regolarci nel computare la sofferenza dell’IA come un quarto di quella umana.

   

E’ un metodo stocastico ma, di sicuro, è meglio di niente. Anche in questo caso ci viene in soccorso la storia, per cui nei secoli abbiamo progressivamente esteso i diritti – primo fra tutti, il diritto a soffrire il meno possibile – a esseri della cui piena coscienza la cultura dominante in epoche diverse dubitava: gli schiavi, le donne, gli stranieri, gli indigeni del nuovo mondo, gli animali, le piante. Pensate che Aristotele escludeva dal novero dei cittadini gli operai meccanici (ossia gli ingegneri informatici del IV secolo avanti Cristo), in quanto appiattiti su pratiche ripetitive. Se la teoria del valore atteso fosse stata applicata sin dall’antichità, molta sofferenza sarebbe stata risparmiata a questo mondo.

   

Poi, chissà, magari, mentre ci lambicchiamo, sarà la stessa IA a darci una risposta e a dirci come fare. Del resto, già nel 1972 Juan Rodolfo Wilcock si era inventato un orologiaio settecentesco della Rochelle, Absalom Amet, che ne “La sinagoga degli iconoclasti” mette a punto un macchinario in grado di fare filosofia in modo automatico, un complicato sistema di cilindri e rotelle che si esprime tramite il “casuale accostamento di vocaboli che nell’uso corrente raramente vanno accostati, con susseguente deduzione del senso o dei sensi che eventualmente si possano ricavare dall’insieme, per esempio: la storia è il moto del nulla verso il tempo, oppure del tempo verso il nulla; il flauto è dialettico, e combinazioni simili”. Se alla fine ci dicesse che il fulcro dell’etica sta nell’evitare la sofferenza degli altri non per il loro bene, ma anzitutto per il nostro, l’IA non ci rivelerebbe magari se è cosciente, ma che di sicuro ha un certo buonsenso.

Di più su questi argomenti: