non solo ChatGPT
Il problema siamo noi che vogliamo rendere un po' umana l'intelligenza artificiale
Le persone battezzano le barche da che mondo è mondo, alcuni danno un nome alle loro auto, in molti persino al proprio cellulare. L’uomo è predisposto ad antropomorfizzare, ovvero ad attribuire qualità umane ai non umani. Succede anche con l'IA
Fra i tanti allarmi suscitati dall’intelligenza artificiale, l’ultimo è che potrebbe condurre all’estinzione della razza umana. Chi è ossessionato dalla fine del mondo pensa di solito alla fine del proprio, come diceva un esperto del tema come Ernesto De Martino. Ma in questo caso non sono i professionisti che potrebbero essere sostituiti dall’IA a dirigere l’orchestra delle preoccupazioni. I timori sono ben più diffusi e rappresentano solo la conferma di attitudini psicologiche diffuse: per esempio, il fatto che noi tutti amiamo avere paura.
I rischi di cui si parla sono in larga misura sovrastimati, non si discute invece di quello che a noi pare essere un problema più reale.
ChatGPT e altri modelli linguistici simili sono in grado di produrre risposte convincenti, e talora molto meno, a secondo della forma in cui sono interrogati. Si tratta, in buona sostanza, di nipotini del correttore automatico del nostro programma di videoscrittura, la cui forza risiede nell’attingere a un campionario di testi straordinariamente ampio. Per questo rispondono in modo non troppo diverso da come farebbe un umano a una serie infinita di domande, da quelle sul miglior ristorante di New York alla spiegazione di teorie concorrenti sulla natura del male e del bene.
Il miglioramento della capacità di scrittura della tecnologia ha fatto riemergere vecchie questioni – fino a poco tempo fa relegate al mondo della fantascienza e delle speculazioni etiche – sulla possibilità che queste macchine diventino coscienti, autocoscienti, senzienti, minacciose per la sopravvivenza della specie. Usiamo questi aggettivi come intercambiabili, perché si tratta di un campo nel quale le definizioni sono molto scivolose.
E’ facile capire da dove nascano i timori per la senzienza delle macchine.
La cultura popolare, ovvero la psicologia intuitiva, abitua le persone a pensare a distopie in cui l’intelligenza artificiale abbandona le catene del controllo umano e assume una vita propria, come i cyborg potenziati dall’intelligenza artificiale in “Terminator 2” o come le macchine di “Matrix”, che spremono gli esseri umani come limoni. Il fisico Stephen Hawking, scomparso nel 2018, e il filosofo Yuval Harari hanno ulteriormente alimentato queste ansie descrivendo l’ascesa dell’intelligenza artificiale generale come una delle maggiori minacce per il futuro dell’umanità.
Ma queste preoccupazioni sono – almeno per quanto riguarda i modelli linguistici di grandi dimensioni – prive di fondamento. ChatGPT e tecnologie simili sono sofisticate applicazioni per il completamento su basi statistiche di frasi – niente di più, niente di meno. Le loro risposte inquietanti sono una funzione di quanto gli esseri umani siano prevedibili se si dispone di dati sufficienti sui modi in cui comunichiamo.
Anche se i chatbot diventassero qualcosa di più di fantasiose macchine per il completamento automatico di frasi – e sono ben lontani da questo – gli scienziati impiegheranno un po’ di tempo per capire se sono diventati coscienti. I filosofi e i neuroscienziati non riescono nemmeno a mettersi d’accordo su come spiegare la coscienza umana!
La questione non è se le macchine sono senzienti, ma perché è così facile per noi immaginare che lo siano. Il vero problema, in altre parole, è la facilità con cui le persone antropomorfizzano o proiettano caratteristiche umane sulle nostre tecnologie, piuttosto che l’effettiva personalità delle macchine.
In un certo senso, i dilemmi sulla “intelligenza” artificiale, per come molti li pongono, tradiscono proprio questo: la nostra incapacità, per esempio, di comprendere l’intelligenza (ovvero la capacità di adattamento) di processi come il mercato o il linguaggio, utilizzando la parola solo per comportamenti volontari e consapevoli da parte di esseri umani.
E’ facile immaginare che altri utenti di Bing chiedano a Sydney di essere guidati nelle decisioni importanti della loro vita e che magari sviluppino un legame emotivo con lui. Un numero maggiore di persone potrebbe iniziare a pensare ai bot come amici o addirittura come partner romantici, proprio come Theodore Twombly si innamora di Samantha, l’assistente virtuale nel film “Her”.
Le persone battezzano le barche da che mondo è mondo, alcuni danno un nome alle loro automobili, in molti persino al proprio cellulare. L’uomo è predisposto ad antropomorfizzare, ovvero ad attribuire qualità umane ai non umani. E’ così dai tempi dei greci e dei loro dei, come aveva già capito Senofonte. Tutt’ora diamo un nome alle grandi tempeste; alcuni di noi parlano con i propri animali domestici, dicendo a sé stessi che le nostre vite emotive imitano le loro.
Si pensi a quanto aumenterà la tendenza e la tentazione di antropomorfizzare con l’introduzione di sistemi dall'aspetto e dal suono umano.
Questa possibilità è vicina e non è esente da problemi (lasciamo la parola pericoli ad altri). Modelli linguistici di grandi dimensioni come ChatGPT vengono già utilizzati per alimentare robot umanoidi, come i robot Ameca sviluppati da Engineered Arts nel Regno Unito. Il podcast tecnologico dell’Economist, Babbage, ha recentemente condotto un'intervista con un Ameca guidato da ChatGPT. Le risposte del robot, anche se a volte un po’ frammentarie, sono state sorprendenti.
La tendenza a considerare le macchine come persone e ad affezionarsi a esse, unita allo sviluppo di macchine con caratteristiche simili a quelle umane, indica il rischio reale di un legame psicologico con la tecnologia. E psicologi e filosofi dovrebbero occuparsene, cosa che invece non fanno, preferendo inseguire scenari apocalittici.
I modelli linguistici di grandi dimensioni possono rivelarsi utili come ausili per la scrittura e la codifica. Probabilmente rivoluzioneranno la ricerca su Internet, il modo di programmare altri computer, riveleranno ancor più i problemi dell’accademia contemporanea, costringendo (forse) a cambiare le prove per valutare gli studenti. Forse ci aiuteranno a sviluppare nuove ricerche su significato e dinamiche dell’intelligenza.
La questione che abbiamo sollevato non sembri insignificante: il problema di far confusione fra Alexa e il gatto. Da un’identificazione troppo stretta con le macchine possono venirne manipolazioni, soprattutto in quelle fasce della popolazione dove forti si avvertono solitudine e abbandono. A tutti ne vengono altri problemi nel percepire correttamente la realtà sociale. Accelerare la tendenza ad antropomorfizzare il mondo può rendere il dibattito ancora più infantile e polarizzato di quanto non abbiano fatto i social.