il dibattito
Un libro chiaro per non perdersi nel labirinto delle IA
Il volume dell'informatico Nello Cristianini aiuta a comprendere il fenomeno dell'intelligenza artificiale. Tra dilemmi etici e “scorciatoia” pragmatica
Da quando anche i più distratti di noi – che ne siamo da tempo i poco consapevoli utilizzatori finali – si sono accorti di questo cambiamento epocale, totale, che facilita (o minaccia) le nostre vite, cioè l’avvento su grande scala dell’intelligenza artificiale (ce ne siamo accorti per il successo al fulmicotone di ChatGPT, il chatbot che sa più cose e scrive meglio del 99 per cento degli umani), è cresciuto anche un dibattito serrato, libri e articoli: perché le domande e le paure sono tante davvero. È interessante che spesso protagonisti di questo dibattito non siano scienziati o manager di finanza, ma linguisti, scrittori, artisti.
Il tema, verrebbe da dire “umanistico”, è “l’essenza” di quelle macchine. Hanno un’etica? Ci rubano la creatività (grandi paure tra artisti, illustratori, galleristi)? Condizioneranno le nostre scelte personali e politiche? Ora hanno fatto irruzione nel dibattito, con toni allarmistici, anche personalità tutt’altro che estranee o nemiche delle rivoluzioni informatiche come Elon Musk, il ceo di Apple, Steve Wozniak, il filosofo e saggista Yuval Noah Harari. Assieme ad altri hanno pubblicato una “lettera aperta” per chiedere ai grandi produttori di IA una moratoria, “Pause Giant AI Experiments”, fino a quando non saranno chiariti ambiti ed eventuali limiti e regole di applicazione.
Si può invece provare a comprendere il fenomeno iniziando per prima cosa a chiarirsi le idee, con correttezza scientifica e più pragmatica? Anche questo sarebbe un gran cambio di paradigma. “Tutte le volte che licenzio un linguista la performance del nostro sistema migliora”. Inizia praticamente così, con questa citazione fulminante che non farebbe piacere a Noam Chomsky e a moltissimi altri studiosi, un libro interessante e decisamente utile che si intitola “La scorciatoia-Come le macchine sono diventate intelligenti senza pensare in modo umano” (il Mulino, 216 pp., 16 euro).
L’autore si chiama Nello Cristianini, studioso di informatica e professore di Intelligenza artificiale all’Università di Bath, in Gran Bretagna. La frase così apparentemente tranchant sui poveri linguisti – una delle molte, con esempi e aneddoti che l’autore utilizza per indirizzare l’andamento divulgativo, ma rigorosissimo, del suo libro – la disse nel 1988 Frederick Jelinek, che era a capo di un progetto per la traduzione automatica e la trascrizione del linguaggio parlato presso il Continuous Speech Recognition Group della Ibm.
E contiene il senso almeno iniziale della “scorciatoia” che gli scienziati hanno usato, dopo molto tempo buttato battendo altre vie per arrivare a sistemi di intelligenza artificiale utili. “Dopo avere cercato per anni di scoprire l’elusiva qualità che rende le cose intelligenti per implementarla nelle loro macchine, i ricercatori si sono accontentati di studiare i comportamenti intesi a perseguire uno scopo e di generarli con vari metodi”, scrive Cristianini.
Semplificando la spiegazione offerta dallo studioso: per molto tempo, dagli anni Cinquanta del secolo scorso, si susseguirono tentativi di impostare macchine “pensanti” sull’imitazione dei nostri sistemi logici, e dei nostri sistemi linguistici e neuronici ancora più complessi. Ma senza risultato. Da questo punto di vista, quando il padre del generativismo Chomsky sostiene che le IA non potranno mai accedere ai meccanismi di generazione del linguaggio umano, ha le sue ragioni. È a questo punto, per dirla con Jelinek, che bisogna licenziare i linguisti.
I ricercatori imboccarono la strada statistica: far processare una mole sempre maggiore di dati al sistema, in modo che potesse “apprendere” e poi fare previsioni o produrre soluzioni basate su un controllo statistico. I chatbot di oggi sono di fatto dei modelli statistici applicati al linguaggio. Insomma si è presa una “scorciatoia” che sta producendo i risultati che conosciamo. Il libro di Cristianini è interessante e utile perché ha un approccio, oltre che divulgativo, pragmatico.
Mentre altri studiosi – i libri in materia non mancano – si arrovellano su problemi etici, o di qualità della conoscenza, o di possibilità di controllo delle macchine. Molto citato è ad esempio un altro saggio, uscito lo scorso anno dal Mulino, della studiosa americana Kate Crawford, “Né intelligente né artificiale - Il lato oscuro dell’IA”, che propone una critica radicale non solo delle IA in sé, ma del sistema economico, scientifico e politico che le ha prodotte. Una sorta di applicazione dei “Cultural Studies” all’industria della conoscenza informatica, che sfocia in una denuncia globale dei colonialismi socio-economici “sistemici” che le IA amplificano e non modificano.
Mentre Cortina Editore ha pubblicato un saggio di Luciano Floridi, filosofo di Oxford considerato tra i migliori studiosi di questi argomenti, dal titolo “Etica dell’intelligenza artificiale-Sviluppi, opportunità, sfide”, in cui prova a indicare possibili risposte etiche, pratiche e anche legislative alle potenzialità, non sempre rassicuranti, del nuovo mondo. Cristianini si pone innanzitutto il problema di farci mettere nella posizione giusta di fronte alle IA. La “scorciatoia” che gli umani hanno preso, spiega, ha prodotto grandi risultati, ma generato anche confusione: siamo convinti che le learning machine “pensino” e “parlino” come noi, invece si comportano in modo diverso.
“Dimostrare intelligenza non significa assomigliare agli esseri umani, ma essere capaci di comportarsi in modo efficace in condizioni nuove”. In altre parole, dobbiamo per prima cosa resettare la nostra nozione di intelligenza: per millenaria tradizione la identifichiamo con la conoscenza, la sapienza morale, persino la cultura. Invece quella delle IA è semplice capacità di elaborazione di dati preesistenti per trovare risultati attuali. Noi pensiamo subito agli articoli di giornale, o ai discorsi dei politici: ma le IA servono (già) a selezionare i curriculum, o a valutare la concessione di un prestito bancario. E social network e motori di ricerca le usano per proporre pubblicità o aumentare i tempi di utilizzo delle piattaforme. ChatGPT e i suoi fratelli non si muovono su una visione del mondo, che non possiedono, o in base a linguaggi, e scarti di senso, umani.
Insistere a considerare le IA come qualcosa che ha analogie con il funzionamento delle nostre menti ci espone al vero rischio, quello di smarrire la strada di un necessario controllo, ed è l’argomento di Cristianini. Si finirebbe in un vicolo cieco addirittura “galattico”, come quello dei celebri esperimenti di Carl Sagan, astronomo impegnato nel Programma Pioneer della Nasa, che negli anni Settanta provò a inviare nello spazio “codici” e “segni” sperando che una “intelligenza” diversa dalla nostra li potesse comunque interpretare. Non è avvenuto e non avverrà, commenta l’autore.
E in qualche modo la rassicurazione serve a farci capire che il destino delle IA non è quello di trasformarsi in tante Hal 9000, il supercomputer impazzito di “2001: Odissea nello spazio”, che si appropria di sentimenti e malvagità umane. Ma non è che i rischi non esistano, e innanzitutto “non sappiamo molto riguardo agli effetti a lungo termine dell’interazione costante” tra noi e le applicazioni di queste software in grado di apprendere ed elaborare. Per questo bisogna ancora molto studiare e capire.
Floridi, nel suo libro, ritiene che debbano essere fissati una serie di princìpi in grado di rendere controllabili ed “etici” gli usi delle IA: concetti conosciuti, ma spesso un po’ utopistici, come la “non maleficenza”, la contrarietà a usi criminali o dannosi per il bene comune. Forse più cruciali, e molto attuali nel dibattito in corso, sono il principio della “esplicabilità” – va trovato il modo per cui sia intelligibile il percorso di elaborazione delle risposte – e quello di “accountability”, cioè la possibilità che il funzionamento dell’IA sia spiegabile. Sono proprio due dei rischi da cui metteva maggiormente in guardia Henry Kissinger in un articolo pubblicato con altri studiosi sul Wall Street Journal qualche tempo fa. Cristianini parla ad esempio della necessaria “ispezionabilità”.
“Non possiamo realisticamente ritornare a un mondo senza intelligenza artificiale”, scrive lo studioso nel capitolo conclusivo, “Regolare, non spegnere”. E per fare questo, oltre al necessario dibattito – la moratoria richiesta da Elon Musk, Steve Wozniak e Yuval Noah Harari va in questa direzione – è necessaria una condivisione delle conoscenze. L’autore cita un altro celebre esempio, quello di Tim Berners-Lee, uno dei padri di internet, che nel 1991 stilò uno “Short summary of the World Wide Web project”, e lo divulgò liberamente sulla rete.
Avverte Cristianini che come ogni automazione, la IA serve “per sostituire le persone”, o quantomeno per delegare alle macchine le attività che non vogliamo o sappiamo fare. Ma il rischio che la tecnologia possa indebolire “certi valori sociali, come privacy, uguaglianza, autonomia o libertà d’espressione” esiste. Dove ci conduca la “scorciatoia”, e come fare per non trasformarla in una falsa pista, è il lavoro gigantesco che ci attende.