I robot non sognano di eliminarci
Il limite dell’intelligenza artificiale è la stupidità umana. Manuale per non credere a scenari alla Terminator
L’intelligenza artificiale è uno dei temi caldi del momento. Ne parlano tutti: consulenti, guru (o presunti tali), fornitori di tecnologie, “esperti” e non, e ovviamente anche i politici. Ma cosa si cela di realmente concreto, utile e praticabile dietro questa espressione? Quanto è moda e chiacchiera e quanto invece è concretezza e opportunità per imprese e cittadini? Veramente stiamo creando intelligenza al di fuori della nostra realtà di esseri umani o stiamo abusando di questo termine? Ma Andiamo con ordine.
L’idea di intelligenza artificiale è nata con l’informatica. Non per niente si deve ad Alan Turing un famoso test (descritto nel 1950) che ha come obiettivo quello di riconoscere se un sistema informatico si stia realmente comportandosi in modo intelligente o meno. Da allora schiere di ricercatori hanno sviluppato tecnologie e strumenti per cercare di creare sistemi “intelligenti”. Si studiava la materia già quando feci l’università alla fine degli anni Settanta. Perché dunque oggi se ne parla tanto? Abbiamo creato finalmente un’intelligenza artificiale?
Diciamo subito che se con intelligenza artificiale intendiamo un essere o un’entità artificiale che ha emozioni, intuizioni, autonomia di pensiero e capacità deduttive equivalenti a quelle di un essere umano la risposta è NO. Scordiamoci i robottini dei film di fantascienza alla Star Wars: non esiste nulla di tutto questo, né si vede all’orizzonte alcunché che possa avvicinarsi a questo scenario.
La visione della singolarità tecnologica evocata da Kurzweil rimane per l’appunto una visione. I sistemi di calcolo, i modelli computazionali, le architetture tecnologiche nel loro impianto generale non sono sostanzialmente cambiate rispetto a quanto abbiamo visto negli scorsi decenni. C3BO per ora rimane possibile solo nella “galassia lontana lontana” di George Lucas.
Oggi l’intelligenza artificiale include diversi settori scientifici, a partire dallo studio di come rappresentare la conoscenza e dagli algoritmi in grado di risolvere specifici problemi di ricerca, classificazione e riconoscimento (per esempio, immagini e parlato).
Particolarmente importante l’interazione tra intelligenza artificiale e robotica che è soprattutto automazione e non tanto replica del comportamento umano in senso lato. Un ambito importante dell’intelligenza artificiale è il machine learning che in realtà si pone all’intersezione tra statistica, ricerca operativa e intelligenza artificiale vera e propria. In generale, come scrive Giorgio De Michelis in un suo recente saggio intitolato “Macchine intelligenti o tecnologie della conoscenza?”, ciò che si sta realizzando sono sistemi capaci di analizzare dati per classificarli, riconoscere tratti ricorrenti, identificare correlazioni, simulare e predire lo sviluppo di un sistema complesso. Ciò a supporto delle nostre capacità decisionali e non tanto per creare una copia di noi stessi. Come dice De Michelis, siamo di fronte ad una “Razionalità artificiale” più che intelligenza, cioè a strumenti e modelli che ci aiutano a razionalizzare e studiare la conoscenza che accumuliamo nel tempo.
Questa caratterizzazione assume contorni ancora più precisi nel momento in cui analizziamo come molti di questi sistemi operano. Un aspetto centrale è il processo di “data labeling” grazie al quale grandi quantità di dati di vengono opportunamente analizzate, qualificate e caratterizzate. Per esempio, un sistema “intelligente” che riconosce se un paziente ha la polmonite o un’altra malattia ai polmoni, opera confrontando il caso in esame con migliaia di altri casi simili di riferimento (per esempio, tramite il raffronto di radiografie).
Ciascuno di questi casi è stato studiato da uno specialista che ne ha definito le caratteristiche salienti dal punto epidemiologico. Il processo di analisi “intelligente” si basa quindi su due elementi: il primo è la corretta classificazione fatta dallo specialista delle diverse casistiche di riferimento e il secondo è la qualità dell’algoritmo che confronta il caso in esame con quelli di riferimento. In generale, molto dipende dal lavoro “manuale” di analisi, classificazione e caratterizzazione dei dati di riferimento. Non sono quindi al momento in vista scenari futuristici dove robot intelligenti sostituiscono l’essere umano.
Queste considerazioni portano ad alcune valutazioni complessive. In primo luogo, dobbiamo eliminare dal dibattito tutti quei risvolti a metà tra il fantasioso e il melodrammatico. In secondo luogo, dobbiamo prendere atto che i metodi dell’intelligenza artificiale, grazie allo sviluppo delle tecnologie e agli algoritmi di raccolta, memorizzazione, distribuzione e elaborazione di quantità di dati estremamente complessi e articolati, oggi possono essere applicati con successo a molti settori della nostra società e dell’economia. In terzo luogo, va sottolineato che “l’intelligenza” di questi sistemi è in realtà quella che gli umani riescono a identificare, classificare e rappresentare in forma digitale. Infine, proprio perché sono sistemi automatici e non tanto “intelligenti”, dobbiamo capire come fare in modo che non ci siano rappresentazioni e regole di funzionamento erronee che inducano errori o valutazioni sbagliate.
Quindi, più che preoccuparci di poco verosimili scenari angoscianti alla Matrix o Terminator, dovremmo investire per studiare, sviluppare e applicare queste tecnologie e metodi, così da rendere più competitive le nostre imprese e per sviluppare nuovi tipi di servizi che migliorino la qualità della nostra vita.
Alfonso Fuggetta è professore ordinario di Informatica presso il Politecnico di Milano e amministratore delegato di Cefriel