Il confine del futuro
La recensione del libro di Francesca Rossi, Feltrinelli, 128 pp. 16 euro
Francesca Rossi è ricercatrice all’Ibm, ed è fra i 50 leader mondiali della ricerca nel campo dell’intelligenza artificiale, specializzata in etica dell’Ia. Il che significa che dedica le sue giornate a capire come si possa indirizzare lo sviluppo dell’Ia in modo che metta sempre al centro la persona e il suo benessere, che sia allineata ai valori e ai diritti fondamentali, che sia imparziale, trasparente e spiegabile e con meno errori possibile. Perché questa è la sfida principale posta dall’Ia.
Per spiegare che cosa sia l’intelligenza artificiale, il libro parte dal confronto con l’intelligenza umana, così come viene descritta dalla nota teoria di Daniel Kahneman, secondo cui esistono due tipi di attività mentali: il pensiero lento e il pensiero veloce. Nel caso delle macchine, l’intelligenza lenta è quella degli algoritmi procedurali, che forniscono tutte le istruzioni passo passo, come una ricetta di cucina; l’intelligenza veloce è invece quella del machine learning o apprendimento automatico – una tecnica per cui il computer impara allenandosi su un’enorme quantità di esempi oppure procedendo per tentativi successivi di cui riceve di volta in volta riscontro positivo o negativo. E la straordinaria capacità della macchina di imparare genera una “autonomia” che suscita timori e diffidenze. In realtà – spiega Rossi – se laddove sono richieste potenza di calcolo e capacità di elaborare grandi quantità di dati l’Ia supera di gran lunga le capacità umane, la macchina ha invece enormi difficoltà in attività che per noi sono naturali e banali, come camminare o aprire la maniglia di una porta; per cui oggi non esiste intelligenza artificiale capace di “effettuare le stesse attività di una persona, con la flessibilità e l’adattabilità” che contraddistinguono quest’ultima nell’affrontare problemi nuovi. Perciò l’approccio prevalente nel campo dell’Ia è il tentativo di ampliare le possibilità dell’intelligenza umana, non di crearne una nuova. Per la soluzione di problemi molto complessi infatti – per esempio la diagnosi di un tumore – il margine di errore delle macchine è più alto di quello degli umani, mentre nella collaborazione tra uomo e macchina si abbassa drasticamente.
Però esistono alcuni rischi reali. Perché le macchine sono una creazione umana e perciò ne replicano – e anzi amplificano grazie alla loro potenza – i limiti: i pregiudizi, l’imprecisione, l’ambiguità del linguaggio… Ecco perché negli ultimi anni la comunità dei ricercatori ma anche gli organismi politici si sono attivati – con un approccio multidisciplinare che coinvolge informatici, psicologi, economisti, filosofi, ingegneri… – per formulare codici di condotta, princìpi etici, best practices per lo sviluppo e l’uso dell’intelligenza artificiale in modo da contenerne i rischi e mitigarne gli effetti negativi. Insomma, in un tempo di allarmismi e profezie catastrofiche, un libro come questo contribuisce ad affrontare “le giuste preoccupazioni in modo realistico e non annebbiato da informazioni parziali e fuorvianti”.
Francesca Rossi
Feltrinelli, 128 pp. 16 euro