il glossario
Le parole delle intelligenze artificiali
I termini del dibattito sulle AI e i principali attori e interlocutori di questo nuovo mondo che ci ha già cambiato la vita. Dal prompt alle graffette, passando per Sam Altman, il nostro glossario
Per orientarsi nel dibattito sulle intelligenze artificiali ormai polarizzato come un po’ tutto tra catastrofisti e ottimisti, serve intanto intendersi sulle parole, sul loro significato e sui principali ideatori e interlocutori di questo nuovo mondo. Ecco un piccolo glossario.
Artificial Intelligence. Per intelligenza artificiale si intende un insieme di tecnologie informatiche in grado di simulare, almeno in parte, le capacità logiche e d’apprendimento del pensiero umano. Dietro alla sigla IA (da artificial intelligence) si celano quindi molti ambiti di ricerca spesso in competizione tra loro, che vengono accomunati per semplicità. Nell’ultimo anno si è molto parlato di questa tecnologia in riferimento a uno specifico tipo di IA detto generativo, perché capace di produrre contenuti sulla base delle richieste degli utenti (vedi: media sintetici). Ma le IA sono a ben guardare ovunque: dietro ai risultati delle ricerche su Google o YouTube, alle inserzioni pubblicitarie dei social network e alla disposizione di foto e contenuti vari nei loro feed; per non parlare dei software con cui analizziamo vaste moli di dati in tempi sempre minori (vedi: il riconoscimento facciale). Il recente interesse mediatico ed economico si basa soprattutto sul successo di alcuni prodotti (vedi: OpenAI) e il rischio che, secondo alcuni, rappresenterebbero per il nostro futuro e addirittura per la sopravvivenza dell’umanità. Secondo John McCarthy, grande informatico che insegnò a Stanford, per IA si intende “la scienza e l’ingegneria del fare macchine intelligenti, specialmente programmi computer intelligenti. E’ legata alla funzione simile d’utilizzare i computer per comprendere l’intelligenza umana ma le IA non devono per forza limitarsi a metodi biologicamente osservabili”.
L’AGI permette di replicare qualsiasi capacità pensiero umano. E’ un elemento fondamentale per i catastrofisti
Artificial General Intelligence. Detta anche “intelligenza artificiale forte” e indicata con la sigla AGI, si tratta di una forma avanzatissima – e per ora del tutto ipotetica – di IA in grado di replicare qualsiasi capacità di pensiero umano. Secondo alcune teorie, in un simile scenario questa tecnologia diventerebbe del tutto autonoma e cosciente di sé, sfuggendo presto al controllo degli umani con conseguenze disastrose. L’AGI è un elemento fondamentale di ogni visione pessimista sul futuro delle IA (vedi: Apocalisse e Graffette).
Sam Altman è un prepper, cioè si prepara a emergenze future progettando la sopravvivenza in uno scenario apocalittico
Altman, Sam. Nato nel 1985 a Chicago, nel 2005, appena diciannovenne, diventa ceo di Loopt, app per la condivisione della posizione su smartphone, che lascia nel 2011 (un anno prima del suo fallimento) per entrare in Y Combinator, potentissimo acceleratore di startup californiano e centro nevralgico della Silicon Valley. Ne diventa presidente tre anni dopo. Qui cura investimenti in decine di aziende d’ogni tipo in un momento di enorme crescita per il settore digitale. Nel 2015 fonda insieme a Elon Musk (vedi: Musk, Elon) OpenAI, una società senza scopi di lucro che ha come missione promuovere e sviluppare un’intelligenza artificiale “amichevole” (vedi: OpenAI). Tra il 2019 e il 2020 lascia Y Combinator per concentrarsi sulla società e altre imprese personali come Worldcoin, un progetto per una criptovaluta globale. Grazie al successo di DALL-E e ChatGPT, servizi molto diffusi e sviluppati da OpenAI, a partire dal 2022 diventa uno dei nomi più importanti del panorama tecnologico. E’ un prepper, ovvero una persona che si prepara a emergenze e cataclismi futuri progettando la sopravvivenza in uno scenario apocalittico o di grande crisi.
Apocalisse. Negli ultimi mesi sono circolate almeno due lettere aperte che hanno fatto molto discutere, richiedendo – con toni e modi diversi – di riconsiderare e rallentare gli investimenti e lo sviluppo delle IA. La prima, dello scorso marzo, è stata pubblicata dal Future of Life Institute ed è stata firmata da personalità molto note del mondo tecnologico (tra cui Steve Wozniak e Musk), che chiedevano di mettere in pausa lo sviluppo dei sistemi più potenti “per almeno sei mesi”. La seconda, dello scorso maggio, è stata pubblicata dal Center for AI Safety ed è composta da un’unica frase: “Mitigare il rischio di estinzione dalle AI dovrebbe essere una priorità globale insieme ad altri rischi come le pandemie e la guerra nucleare”. A sostenere iniziative simili ci sono stati molti imprenditori e ricercatori dello stesso settore delle IA, a conferma di come molte delle persone che stanno sviluppando queste tecnologie abbiano grossi timori, dubbi e spesso visioni apocalittiche riguardanti il loro lavoro. Lo stesso Altman (vedi: Altman, Sam) parla spesso di “rischio d’estinzione” dell’umanità legato alle IA più potenti, spesso in relazione all’ipotetico sviluppo improvviso di una AGI (vedi: Artificial General Intelligence).
Chatbot. Un chatbot è un bot – un software programmato per svolgere una specifica funzione automaticamente – con il quale è possibile conversare, solitamente via scritta. Nel 1966 il programmatore tedesco Joseph Weizenbaum realizzò ELIZA, un software di questo tipo che si rivelò in grado di ingannare gli utenti, che erano convinti di comunicare con un essere umano. Per questo, in informatica si parla da allora di “effetto ELIZA” per indicare la tendenza da parte degli utenti di interpretare i comportamenti di un software come fossero umani, in una forma di antropomorfizzazione. Della categoria dei chatbot fa parte anche ChatGPT di OpenAI, in grado di rispondere a molte domande correttamente (vedi: Hallucination), generando risposte testuali d’ogni tipo sulla base delle richieste scritte degli utenti.
Deep learning. L’apprendimento profondo è un’area di ricerca del più vasto campo dell’apprendimento automatico (vedi: machine learning) in cui gli algoritmi utilizzati per analizzare i dati sono strutturati in diversi “strati” fino a creare una “rete neurale” (vedi: rete neurale) in grado di apprendere e prendere decisioni in modo più autonomo.
Deepfake. I deepfake sono un tipo di media sintetico, ovvero un contenuto che viene generato – sintetizzato – da un’intelligenza artificiale. Il termine – frutto della crasi tra “deep”, in riferimento al deep learning, e “fake” (finto) – è stato coniato nel 2017 da un utente di Reddit che per primo lo usò per indicare delle immagini pornografiche in cui venivano aggiunti digitalmente volti di personaggi femminili famosi. Oggi viene utilizzato per definire qualsiasi contenuto (audio o video) in cui la voce o le fattezze di un personaggio reale sono generate digitalmente.
Doomerism. In inglese, una persona viene definita “doomed” quando è spacciata, condannata alla sconfitta e alla distruzione. Di conseguenza, per “doomerism” si intende una condizione di estremo pessimismo e fatalismo nei confronti delle possibilità di miglioramento della condizione umana – o della stessa sopravvivenza della civiltà. Da tempo il termine è utilizzato online per definire persone particolarmente pessimiste su temi come la sovrappopolazione, le pandemie e il cambiamento climatico; i recenti progressi delle IA hanno ispirato un movimento che sembra attendere con timore reverenziale la fine del mondo causata dalle macchine. Marc Andreessen, fondatore del potente fondo di investimenti tecnologici a16z, ha recentemente pubblicato un lungo j’accuse contro il doomerism, che ha paragonato a una setta.
Le due lettere in cui si denunciano i guai delle AI e le accuse al “doomerism”, paragonato a una setta
GPT. La sigla sta per Generative Pre-Trained Transformer, un modello linguistico multimodale di grandi dimensioni sviluppato da OpenAI e giunto alla quarta generazione, chiamata GPT-4, uscita nel marzo di quest’anno. Un modello linguistico è un sistema per determinare la probabilità di distribuzione delle parole all’interno di una frase: per esempio, alla parola “sole” è più probabile che venga associata un aggettivo come “caldo” che la parola “penna”. A rendere i modelli GPT tanto avanzati è l’utilizzo della tecnologia Transformer – sviluppata da Google nel 2017 – che si basa sulla “attenzione”, ovvero la capacità di dare peso a determinate parti dell’input considerate più importanti, rendendoli particolarmente avanzati nell’elaborazione linguistica.
Google. L’azienda fa parte del gruppo Alphabet, che include YouTube, Waymo e anche Google Brain, una divisione nata nel 2011 per sviluppare IA, che si recentemente fusasi con Deepmind, azienda inglese acquisita da Google nel 2014. Dopo molti anni di competizione interna, le due realtà sono state unite creando Google DeepMind, che si occupa dello sviluppo di intelligenze artificiali e di prodotti come Bard, il chatbot di Google il cui sviluppo è stato velocizzato dal successo di ChatGPT.
Graffette. Nel 2003, il filosofo inglese Nick Bostrom presentò un esperimento mentale chiamato “Paperclip Maximizer” con cui provò a dimostrare i rischi dello sviluppo di IA avanzate e la possibilità che sfuggano di mano ai loro creatori per una pura incomprensione tra umano e macchina. Nell’esperimento, Bostrom immagina un’IA avanzatissima a cui veniva chiesto di “massimizzare la produzione” di un oggetto molto banale come delle graffette da ufficio. Seguendo le direzioni del prompt (vedi), l’IA cambia la produzione di graffette, compra miniere e sposta risorse, fa costruire nuove fabbriche sempre più robotizzate fino a usare l’intero pianeta per la costruzione di graffette. Esaurita la Terra, prosegue l’esercizio, l’IA continua a vagare nello spazio trasformando meteoriti e pianeti in graffette, sempre in onore del prompt ricevuto inizialmente. L’esperimento è uno degli argomenti più citati quando si vogliono sottolineare i rischi spesso imprevedibili legati allo sviluppo di questa tecnologia.
Hallucination. Vengono anche dette “confabulation” (chiacchierata) o “delusion” (illusione), sono le risposte fornite dalle IA che risultano essere completamente false nonostante il tono autorevole con cui sono espresse. Succede molto spesso con ChatGPT, che è noto per inventare dati e informazioni storiche presentandole con tono serissimo, citando articoli di giornale mai usciti o precedenti legali inventati. Le hallucination rimangono uno dei principali problemi delle IA, specie per realtà come Google, divisa tra la necessità di potenziare il proprio chatbot Bard e l’obbligo di preservare una certa credibilità agli occhi dei suoi utenti.
Le “hallucination” sono le risposte dell’AI dette in modo assertivo ma del tutto false. Sono il problema più grave
Hype. La febbrile attesa e aspettativa per un determinato evento, prodotto o personaggio, strettamente legata alla sua capacità di generare interesse mediatico (e social). Negli ultimi anni il settore digitale ha attraversato diversi cicli di hype, come quello legato alla blockchain e alle criptovalute, al centro di una bolla che oggi risulta essersi sgonfiata. Un processo simile sta interessando anche il settore delle IA, con molte startup – sia nella Silicon Valley sia in Europa – che ottengono investimenti notevoli semplicemente presentandosi come specializzate in IA.
Machine Learning. La branca delle intelligenze artificiali che comprende una serie di tecniche e metodi per analizzare grandi moli di dati, individuandone velocemente pattern spesso invisibili grazie a degli algoritmi in grado di individuarli. Il deep learning (vedi) può essere visto come una forma particolare e più “autonoma” di machine learning.
Musk, Elon. Nato nel 1971 in Sudafrica, oggi è cittadino statunitense. Ha fondato alcune piccole startup negli anni Novanta, una delle quali fu acquisita da PayPal; divenne miliardario grazie all’acquisizione di quest’ultima da parte di eBay. Da allora ha investito o co-fondato SpaceX, Tesla e OpenAI ed è proprietario di Twitter. Attorno al 2020 è uscito da OpenAI in aperta rottura con l’azienda. Recentemente ha fondato una società nel settore delle IA con la quale intende affrontare la concorrenza di OpenAI, Microsoft e Google. E’ uno dei più accesi sostenitori della tesi “apocalittica” sulle IA, e ha firmato una nota lettera aperta che chiedeva la messa in pausa delle IA più potenti per almeno sei mesi.
Nadella, Satya. Nato nel 1967, è amministratore delegato di Microsoft dal 2014, regista di un percorso di espansione e riallineamento dell’azienda che ha dato ottimi risultati. Grande fautore dell’alleanza con OpenAI, che interpreta come un passo fondamentale per il futuro dell’azienda e un ottimo modo di arrecare fastidio all’avversario Google, costringendola a cambiare drasticamente strategia sulle IA. In un’intervista al sito The Verge, Nadella ha dichiarato che Google è come “un gorilla da 360 chili” che vuole far “ballare”. “E vogliamo che si sappia che siamo stati noi a farlo ballare”, ha aggiunto.
Neural network.Un modello matematico/informatico di calcolo basato sulle reti neurali biologiche che simula digitalmente il funzionamento di una rete neurale biologica: è uno dei modelli più diffusi dell’apprendimento automatico.
OpenAI. Fondata nel 2015 da Altman e Musk, è la società sviluppatrice di GPT-4 e di prodotti come ChatGPT e DALL-E. Secondo il sito Insider, Musk avrebbe lasciato la società nel 2018, dopo aver provato a prenderne il controllo, venendo respinto dalla dirigenza e da Altman stesso. Dopo il successo di GPT-3, OpenAI ha stretto una proficua alleanza con Microsoft, che ha investito dieci miliardi di dollari nella società per utilizzare le sue IA nei suoi prodotti, come il motore di ricerca Bing o la suite Office (vedi: Nadella, Satya).
Prompt. L’input solitamente testuale con cui si descrive a un’IA generativa che tipo di immagine, suono o video produrre, con eventuali precisazioni riguardanti lo stile, le tecniche e i riferimenti a cui richiamarsi.
Riconoscimento facciale. I software per il riconoscimento facciale sono diffusi da tempo e sono tra le prime applicazioni dell’IA ad aver attirato l’attenzione della politica, soprattutto a causa del vasto utilizzo di questi sistemi da parte del governo cinese. Le preoccupazioni riguardanti la privacy dei cittadini e la possibile influenza cinese sono stati tra i punti che hanno ispirato l’Artificial Intelligence Act, il regolamento sulle IA approvato dal Parlamento europeo il 14 giugno scorso.
Turing, Alan. Nel 1950 il matematico inglese Alan Turing pubblicò un paper intitolato “Computing Machinery and Intelligence” in cui si domandò se le macchine potessero pensare, arrivando a delineare un test – il test di Turing – pensato per riconoscere gli esseri umani dai computer intenti a spacciarsi per loro. Turing è ritenuto uno dei padri dell’informatica e il pioniere di una discussione diventata sempre più importante negli ultimi anni.
Cose dai nostri schermi