Chi ha paura di un giudice robot? Non è fantascienza, succede già
Algoritmi e intelligenza artificiale nei tribunali
Roma. Immaginate di aver commesso un reato, speriamo uno poco grave. Siete davanti al giudice, che deve decidere quale pena comminarvi. Il giudice vi guarda, poi si gira verso uno schermo e dice: “Computer, quanti anni diamo all’imputato?”. Il computer macina un pochino e poi dice: “Quattro anni con la condizionale”. Il giudice conferma la condanna.
C’è tutto un filone giornalistico che tratta di temi legati alla tecnologia e all’innovazione e che vive di un topos molto ben definito: “Non è fantascienza, ma…”; “Sembra un racconto distopico di Philip Dick, ma invece è realtà”. E’ una figura retorica facile con cui si tenta di battere l’incredulità. Anche in questo caso, la stessa figura retorica risulta molto utile: è mai possibile che ci siano dei tribunali in cui i computer decidono la sorte di imputati umani? Sì.
Non è nemmeno una cosa tanto nuova. Negli Stati Uniti e in altri paesi i tribunali utilizzano sistemi a intelligenza artificiale per contribuire alle indagini già da qualche anno, usando big data ed elaborazioni algoritmiche – per non parlare di quando si tratta di prevenire il crimine, con le tecnologie di riconoscimento facciale già ben sviluppate in paesi come la Cina. Ma l’uso dell’intelligenza artificiale è sempre più frequente anche in fase di deliberazione.
L’Associated Press ha pubblicato un lungo report in cui racconta per esempio il caso di Hercules Shepherd Jr., arrestato per possesso di cocaina. Crimine poco grave, che l’algoritmo ha analizzato tenendo conto dei precedenti e della storia giudiziaria dell’imputato. Verdetto: probabilità di commettere un altro crimine, due su sei; probabilità di saltare udienze del processo, una su sei. Per il computer, Hercules Shepherd Jr. era un ottimo candidato per essere rilasciato con una cauzione molto bassa, e il giudice di Cleveland ha concordato.
Secondo Ap, l’introduzione dell’intelligenza artificiale nei tribunali è l’innovazione più importante dai tempi dell’introduzione delle scienze sociali come la psicologia e la criminologia, e può soltanto diventare più influente man mano che gli algoritmi si fanno più sofisticati. Per ora i computer sostituiscono più che altro gli assistenti e gli archivisti che dovrebbero compilare i fascicoli sulla storia giudiziaria di un imputato e aiutare il giudice a prendere una decisione più equa, ma presto sarà possibile avere macchine che, in casi semplici, saranno in grado di sostituire i magistrati.
Il problema è che non sempre le cose vanno lisce come con Hercules Shepherd. E’ celebre per esempio il caso di Compas, un algoritmo usato da molti tribunali americani per definire il livello di rischio per la società di ciascun imputato. Nel 2016, per esempio, un tribunale del Wisconsin condannò a sei anni Eric L. Loomis, arrestato mentre guidava un’automobile usata in una sparatoria, basandosi in parte su un responso di Compas, che giudicò Loomis come un individuo “ad alto rischio di violenza”. Problema: Compas è prodotto da un’azienda privata, e dunque l’algoritmo che ha giudicato Loomis è segreto. I suoi avvocati non hanno potuto comprendere il processo decisionale della macchina, e dunque non hanno avuto appigli per controbattere il suo responso.
Qui il discorso diventa più ampio, e riguarda la neutralità della tecnologia. Gli algoritmi non sono buoni o cattivi, ma la loro neutralità dipende dai dati a loro disposizione. Per esempio, ProPublica scoprì che Compas giudicava che fosse due volte più probabile che gli uomini di colore commettessero reato rispetto ai bianchi. Non c’era un problema di algoritmo: la macchina aveva semplicemente immagazzinato i dati giudiziari e riportato un bias preesistente. Alla fine l’errore è sempre umano.