La giustizia dei robot

L'algoritmo studiato per velocizzare i processi. La formula matematica per prevedere i crimini. Come cambierà il sistema giudiziario con l'intelligenza artificiale? Un'indagine

Annalisa Chirico

    V i fareste giudicare da un giudice robot? Affidereste a un algoritmo, per quanto smart, la decisione sulla vostra libertà personale o sulla vostra proprietà? Non siamo in un film fantasy. L'applicazione dell'intelligenza artificiale al settore giuridico porta con sé una cascata di conseguenze pratiche e una riflessione, affascinante e spaventosa insieme, sulle ricadute in termini di tutela dei diritti fondamentali e di giusto processo. “E' una sfida straordinaria per il futuro della giurisdizione”, dichiara al Foglio Fabio Pinelli, avvocato di lungo corso e membro della Fondazione Leonardo. Un futuro che è già presente: l'Estonia, paese all'avanguardia nel campo dell'e-government e della cittadinanza digitale, utilizza un algoritmo per risolvere le controversie risarcitorie fino al valore di settemila euro. “Nel caso estone – prosegue l'avvocato Pinelli – il cosiddetto ‘automated decision system', già operativo in un gran numero di controversie civili, è in grado di ricevere la documentazione elettronica delle parti e di confrontarla con normative, atti depositati, regolamenti, per trarne infine le conclusioni. In caso di opposizione di una delle parti, si può procedere al giudizio con un giudice in carne e ossa. L'obiettivo è quello di rendere l'amministrazione più rapida e snella alleggerendo il carico di lavoro per cancellieri e magistrati”. La qualità del giudizio rischia di essere sacrificata sull'altare dell'efficienza? “L'algoritmo è in grado di gestire e comparare tutti i precedenti giurisprudenziali come nessun giudice umano saprebbe fare. Inoltre, la decisione automatizzata non risente di condizionamenti emotivi o di pregiudizi soggettivi”. Un giudice robot difficilmente verrà ricusato… “Anche la disciplina dell'astensione, al cospetto di un software, perde di significato. Per chi ambisce alla decisione fredda di un giudice privo di emozioni, è uno scenario affascinante. Continuo tuttavia a ritenere che strumenti così potenti vadano utilizzati con l'ausilio dell'umanità, anche emotiva, di un giudice, soprattutto in ambito penale”. Negli Stati Uniti da anni le corti impiegano algoritmi, forniti da società private come Compas, per determinare la misura della cauzione e, in modo ancor più controverso, per calcolare il rischio di recidiva e l'entità della pena detentiva. Diversi studi hanno dimostrato come i principali algoritmi in uso oltreoceano abbiano discriminato a sfavore dei neri e a favore dei bianchi. “La trasparenza del sistema informatico, che noi giuristi non siamo in grado di garantire, pone un problema insormontabile. Essendo sistemi brevettati, il loro funzionamento non è conoscibile in quanto coperto dal segreto industriale. Non a caso, nel 2018 il Consiglio d'Europa ha adottato la Carta etica europea per l'uso dell'Ia nei sistemi di giustizia penale; in essa si pone l'accento sul rischio di discriminazione poiché tra i dati valorizzati dall'algoritmo è elevata la probabilità che specifici fattori di pericolosità vengano ricostruiti in relazione a determinate appartenenze etniche, religiose, di estrazione economico-sociale”. Nel 2016 la Corte Suprema del Wisconsin ha respinto il ricorso di un condannato a sei anni di reclusione affermando la legittimità della procedura: all'obiezione sulla non conoscenza del funzionamento dell'algoritmo le società fornitrici dei software reclamano che i propri algoritmi sono segreti industriali non divulgabili, nemmeno agli imputati a cui si applicano. “E' una materia controversa che sta prendendo forma man mano che casi simili finiscono in tribunale. Non è irragionevole pensare che il progresso dell'Ia potrà condurre a prodotti sempre più sofisticati, effettivamente in grado, se forniti delle corrette informazioni, di dare risultati paragonabili a quelli cui giungerebbe un essere umano. Ricordo quando nel 2006, per la prima volta, la stampa nazionale diede notizia del tribunale di Zibo, in una regione sperduta della Cina, dove un computer sofisticato aveva già emesso oltre millecinquecento sentenze. La reazione tra i giuristi fu tra lo stupito e il divertito. Oggi invece siamo chiamati a occuparcene perché, dalle auto a guida autonoma fino all'algoritmo nei tribunali, l'impiego dei software è destinato a essere sempre più esteso. Per questo con la fondazione Leonardo, presieduta dal professore Luciano Violante, stiamo lavorando sul rapporto tra esercizio della giurisdizione e progresso tecnologico”. Nell'esperienza cinese, il computer si era rivelato più o meno indulgente del giudice umano? “Contrariamente a quello che si potrebbe pensare, nei primi millecinquecento processi il computer non aveva mai comminato la pena di morte, pur applicabile a oltre la metà dei crimini attribuiti alla sua competenza. Quella macchina artificiale era sensibile alla funzione rieducativa della pena. E nessuna impugnazione era stata proposta contro le sue decisioni: le sentenze venivano percepite come eque anche da parte di chi le subiva”. Rispetto a queste nuove entità artificiali si pone poi il tema della responsabilità in sede giudiziaria: il dogma del machina delinquere non potest non regge più. “Il caso emblematico è quello della self-driving car, l'auto senza conducente. Chi risponde di un eventuale incidente? Il modello tradizionale per il quale le macchine sono meri strumenti dell'agire criminoso umano non è più applicabile perché il risultato dannoso è causa della scelta della sola macchina, in modo del tutto scollegato dall'agire dell'uomo che l'ha costruita. E anche l'uomo che della macchina fa uso difficilmente può essere ritenuto responsabile del danno, nella misura in cui questo non è impedibile attraverso l'utilizzo di un qualche strumento di vigilanza sulla condotta arbitraria della macchina. Se la vettura è semi-autonoma, ovvero dotata di comandi che permettono di intervenire in caso di emergenza, possono permanere margini di responsabilità colposa del potenziale guidatore; nel caso invece in cui l'automazione sia completa, al punto da ritenere l'uomo un vero e proprio trasportato, allora l'impossibilità oggettiva di interventi umani di emergenza impedisce di contestare penalmente una qualche colpa dell'utilizzatore”. I terzi danneggiati dovrebbero citare in giudizio una macchina? “La prospettiva di punire direttamente la macchina sembra fantasia e invece è particolarmente feconda negli ambienti di common law. Esiste tuttavia il rischio evidente di un vuoto di tutela penale per taluni tipi di offesa dal momento che i modelli imputativi di responsabilità oggettiva non sono compatibili con il principio di colpevolezza e personalità della responsabilità penale”. Le potenzialità investigative della cosiddetta “polizia predittiva” superano i confini dell'immaginazione. “Quello delle indagini è un ambito di enorme rilievo sotto il profilo sia dell'efficacia sia dei rischi per la privacy. Già oggi i nuovi strumenti informatici sono in grado di raccogliere e processare una grande quantità di dati, in particolare video e immagini, che arrivano a prevedere, sulla base di una serie di similarità e ripetizioni comportamentali, il rischio della commissione di specifiche attività criminali in un determinato contesto spazio-temporale. I cosiddetti ‘trasfertisti' delle rapine in banca, per esempio, colpiscono in un tempo circoscritto più obiettivi; elaborando i dati relativi a un elevato numero di rapine sul territorio, l'algoritmo è in grado di predire, probabilisticamente, luogo e fascia oraria della rapina successiva, consentendo così un'efficace azione di contrasto”. La lotta al crimine può giustificare un Grande fratello senza limiti? “Questo è il punto decisivo. L'algoritmo che predice le rapine immagazzina una mole infinita di dati (immagini di persone, targhe di auto etc.) del tutto estranei agli interessi pubblici che vengono perseguiti”. Nel 2018 è entrato in vigore il nuovo Regolamento europeo sulla privacy che all'articolo 22 sancisce il diritto di non essere sottoposti a una decisione giudiziaria basata esclusivamente sul trattamento automatizzato, compresa la profilazione. “Anche la Carta etica già menzionata cita tra i princìpi irrinunciabili il rispetto dei diritti fondamentali della persona, inclusa la riservatezza, la trasparenza del sistema e la garanzia del controllo umano. I giuristi ovviamente non possono occuparsi delle difficoltà operative connesse agli strumenti informatici. E' chiaro che oggi il tema dell'Ia e dei Big data comporta una riflessione più ampia sul rapporto tra stato e cittadino”. In che senso? “Il legislatore contemporaneo, in una deriva securitaria e giustizialista, s'ispira al principio molto totalitario che il cittadino debba essere una casa di vetro nei confronti delle istituzioni. In una prospettiva liberale invece vale il contrario: le istituzioni hanno l'obbligo della trasparenza mentre gli individui sono titolari del diritto primario alla riservatezza. La scarsa sensibilità in proposito è testimoniata dalla ‘legge spazzacorrotti' che ha ampliato significativamente lo spazio di praticabilità delle indagini a mezzo trojan horse”. Lei si riferisce all'utilizzo del captatore informatico, originariamente limitato ai reati di mafia e terrorismo e ora impiegato ai delitti di criminalità organizzata. “Io non sono tra coloro che vorrebbero fare a meno di questi strumenti, né ho un'idea romantica dei diritti che non fa i conti con la contemporaneità. Ma è stata la Corte di Cassazione a sezioni unite, nella famosa sentenza Scurati del 2016, ad affermare che il mezzo tecnologico ‘impone un difficile bilanciamento delle esigenze investigative che suggeriscono di fare ricorso a questo strumento dalle potenzialità non pienamente esplorate con la garanzia dei diritti individuali che possono subire gravi lesioni'”. Il legislatore però ha bypassato questa decisione allargando l'ambito applicativo del virus spia. “I diritti fondamentali non possono essere sacrificati sull'altare della lotta al crimine. Mafia e terrorismo sono fenomeni criminosi di gravità eccezionale, il che giustifica l'impiego di mezzi investigativi particolarmente invasivi. Ma l'eccezione non può diventare la normalità. Gli smartphone che tutti teniamo in tasca accumulano una miriade di dati personali e sensibili che entrano nella disponibilità di un gestore privato. Si dice che certi tipi di smart watch, quelli che registrano anche dati biometrici come velocità del passo e frequenza cardiaca, consentano di monitorare, a fini commerciali, le reazioni emotive delle persone in seguito alla visione di determinati contenuti sul web. Uno scenario inquietante”. In conclusione, il giudice robot presenta luci e ombre. Più efficienza, d'accordo, ma sul fronte penale il giudice umano, per quanto imperfetto, resta forse l'opzione migliore? “Il giusto processo non può prescindere dal diritto costituzionale dell'accusato di interrogare o far interrogare coloro che rendono dichiarazioni a suo carico davanti a un giudice terzo e imparziale. E allora, pur ammettendo l'imparzialità del giudice robot (almeno all'apparenza, visto che è sconosciuta la sua progettazione e programmazione), si può svolgere il contraddittorio di fronte a una macchina spersonalizzata, distante, che elabora dati? Non si può. Chiunque pratichi le aule di giustizia sa che il contraddittorio è fatto di sguardi, inciampi emotivi, sensazioni e percezioni assolutamente umane e reali che non possono essere sottratte al controllo umano. Il diritto e il processo penale penetrano nel profondo il cuore dell'umanità; e basta questa considerazione per concludere che non possono essere disumanizzati”.