Chi ha paura dell'Ai cinese
Ricerca, investimenti miliardari, successo di ChatGPT: è la primavera dell’intelligenza artificiale. Ora però l’irruzione di DeepSeek fa soffrire i giganti dell’hi-tech e rimette in discussione le certezze dell’AI, dai costi al primato americano. Come finirà? Un’indagine
Se si vuole capire meglio il settore tecnologico è importante ricordare che il suo sviluppo alterna periodi “invernali”, di stallo e incertezza, a quelli “primaverili”, caratterizzati da crescita ed entusiasmo generale. Da ormai qualche anno stiamo vivendo una primavera per l’intelligenza artificiale, a cui siamo arrivati dopo un decennale inverno (AI winter), durato dal 1974 al 1980 (o dal 1987 al 2000, secondo alcuni). D’inverno fa freddo, la natura si assopisce e anche lo sviluppo della AI, in quegli anni, procedette lento e con difficoltà. Dal 2022 è sbocciata invece la primavera, grazie soprattutto al successo di OpenAI, che nel giro di pochi mesi rese disponibili online prima DALL-E (un’AI in grado di generare immagini sulla base di descrizioni testuali) e poi il chatbot ChatGPT, che oggi ha più di 300 milioni di utenti.
La nuova stagione arrivò nel settore grazie al lavoro incessante di ricercatori e scienziati, certamente, ma a dare una spinta ulteriore fu l’antipatia e competizione sfrenata che interessava già allora un manipolo di personaggi, tutti miliardari e nei pressi della Silicon Valley, in California. Un po’ di date: nel 2014 Google comprò DeepMind, laboratorio di ricerca londinese che aveva segnato alcune conquiste nel settore delle AI, sviluppando AlphaGo, la prima AI in grado di sconfiggere i campioni mondiali di Go, e AlphaFold, un software in grado di studiare la struttura delle proteine.
Nei mesi successivi Elon Musk, all’epoca icona liberal, e Sam Altman, nome grosso della scena startuppara locale, iniziarono a scambiarsi dubbi e timori sull’influenza crescente che Google stava accumulando nel settore. Oggi abbiamo la tendenza a far coincidere la sigla “AI” con l’idea di un chatbot che scrive poesie o mail, ma si tratta in realtà di un ambito ampissimo e dall’enorme potenziale per tutti gli aspetti delle nostre vite. L’idea che Google, dopo aver divorato il web, posasse il proprio affamato sguardo anche su questo settore sterminato non piaceva né a Musk né ad Altman, che all’epoca erano amici e confidenti.
Alla fine del 2015 nacque così OpenAI, laboratorio di ricerca non profit: un luogo aperto (da qui viene il suo nome, del resto), infuso di spirito accademico, dove sviluppare “un’intelligenza artificiale amichevole” nei confronti dell’umanità. Perché i fattori di rischio in gioco, secondo i suoi fondatori, non erano solo di tipo industriale (l’ennesima vittoria di Google): in gioco c’era il destino dell’umanità, nientemeno, poiché lo sviluppo sconsiderato di queste tecnologie poteva portare alla creazione di un’entità super intelligente e onnipotente. E pericolosa.
Questa prospettiva, influenzata da vecchi libri e film di fantascienza, portò alla discussione tuttora in corso sulla cosiddetta AGI (Artificial General Intelligence, o Intelligenza artificiale forte, in italiano), un’evoluzione per ora teorica della tecnologia, in cui l’AI ottiene competenze comparabili a quelle umane, ed è quindi in grado di eseguire attività per le quali non è stata specificamente addestrata. Per evitare spiacevoli inconvenienti – o l’estinzione dell’umanità – serviva collaborare e fare ricerche. OpenAI aveva anche bisogno di tanti soldi, che Musk promise di versare alla non profit nel corso di alcuni anni. Nel 2016, parlando con Wired, l’azienda giurò di distribuire gratuitamente alla collettività i risultati dei suoi studi. Stava andando tutto per il meglio.
L’idillio durò poco. Come ricostruito recentemente dal sito Semafor, la bromance tra Musk e Altman era un composto altamente instabile che impazzì all’inizio del 2018, quando Musk provò a prendere il controllo di OpenAI, accusando i soci di muoversi lentamente e non competere con Google. Altman fece resistenza e Musk decise di andarsene, portando con sé i fondi promessi (secondo alcune fonti avrebbe dato “solo” 15 milioni di dollari, invece dei 50 o 100 dichiarati da Musk). Forse il capo di Tesla era convinto che il suo addio segnasse la fine di OpenAI, chissà. Rimasta senza soldi, però, l’azienda iniziò un lento percorso di mutazione che l’ha portata da non profit a gigante con valutazione multimiliardaria. Cercò nuovi investitori, trovò Microsoft.
La balena nella stanza delle AI. Un sistema di venture capital, startup, giganti che assumono o assorbono aziende, imprenditori che fanno a gara con i razzi e con gli LLM: tutto questo è stato messo in crisi dall’avvento di DeepSeek
È un episodio importante, sul quale ci siamo soffermati per qualche riga, perché presenta due temi che sono ancora oggi al centro del settore: il primo è quello delle conseguenze delle antipatie personali tra pochi miliardari, che ormai possiamo osservare influenzare anche la politica internazionale; il secondo riguarda il ruolo di Microsoft nel sovvenzionare il settore e in particolare OpenAI, sempre in funzione anti-Google.
A proposito: questa primavera inaspettata non ci sarebbe stata senza Google, la cui presenza invisibile influenza i movimenti di tutti in questa vicenda, come un buco nero. Nel 2017 otto ricercatori dell’azienda pubblicarono un paper ritenuto un punto di svolta di questa storia: si intitolava “Attention is all you need” e presentava una nuova architettura per il deep learning (o apprendimento profondo) chiamata transformer. Non ci dilungheremo sulle specifiche tecniche di questa scoperta ma ci basta sapere che fu questo paper a innescare almeno in parte la crisi tra Musk e Altman.
In soldoni, il transformer era in grado di rendere più efficiente l’analisi dei dati, tanto da convincere OpenAI a cambiare strategia e adottare la novità. Nel giugno del 2018 OpenAI mise online il suo primo modello linguistico di grandi dimensioni (o LLM), chiamato GPT-1. Ormai la conosciamo bene, questa sigla, GPT, ma non tutti sanno che essa contiene proprio la grande scoperta di Google, il transformer (GPT sta infatti per “Generative Pre-trained Transformer”).
* * *
Sono passati poco più di due anni dal lancio di ChatGPT e OpenAI è passata dall’essere una non profit sconosciuta ai più a una valutazione di 157 miliardi di dollari, raggiunta lo scorso ottobre, dopo l’ennesimo round di investimenti. Ma non è l’unica realtà del settore, anzi, che ha visto la fioritura di servizi d’ogni tipo. A trainare questa crescita spaventosa (che ad alcuni ricorda una bolla speculativa) sono stati proprio gli LLM, un sofisticato tipo di modello statistico in grado di comprendere e utilizzare il linguaggio grazie all’analisi di enormi moli di dati.
Oltre a GPT di OpenAI (siamo ora alla quarta generazione, GPT-4), esempi di LLM sono Gemini di Google, LLaMa di Meta, Claude di Anthropic e l’europea Mistral, ma anche quelli della cinese DeepSeek, di cui si sta parlando molto per ragioni che vedremo di seguito. Ognuno di questi modelli linguistici ha qualità e caratteristiche proprie, ma è interessante notare come Google e OpenAI abbiano scelto un approccio “chiuso” (Google ha anche lanciato Gemma, una serie di modelli più piccoli e open source; ma Gemini rimane “chiuso”), mentre Meta, Mistral e DeepSeek hanno reso disponibile il software dei loro prodotti.
Non è cosa da poco. Innanzitutto perché conferma l’idea che OpenAI sia ormai “open” solo nel nome; in secondo luogo, perché i modelli open source prevedono un utilizzo ben diverso da quello di ChatGPT. In ambiente aperto, infatti, gli utenti possono scaricare il modello e, se dotati di macchine abbastanza potenti da reggere un programma simile, possono eseguirlo nel loro computer. In questo caso si dice che il modello linguistico funziona “localmente”: ogni calcolo e analisi avviene dentro il dispositivo dell’utente, e non in un data center di Microsoft, Google o Alibaba.
Siamo alla prima spaccatura “filosofica” del settore, che possiamo riassumere con una domanda: quanto contano le dimensioni? E’ meglio sviluppare modelli enormi e offrire un prodotto il più potente (ma anche costoso) possibile, oppure la maggioranza degli utenti ha bisogno di servizi che possono essere coperti da LLM piccoli, magari open source e locali? Fin da subito Meta ha seguito la seconda strada, e questa settimana, mentre le borse crollavano a causa di DeepSeek, il suo titolo è cresciuto. Mark Zuckerberg e i suoi avevano vinto. Almeno per ora.
E poi c’è Nvidia. Nvidia non è di per sé un’azienda di software: fu fondata nel 1993 da Jen-Hsun Huang (il ceo), Chris Malachowsky e Curtis Priem, che avevano capito l’importanza della grafica nell’informatica contemporanea, e pensarono a un’azienda specializzata in GPU (schede di elaborazione grafica), progettate perlopiù per i gamer più incalliti. Le GPU non sono che processori in grado di risolvere calcoli complicati a ritmo elevato. Proprio quello che serve per sviluppare, allenare e far funzionare le AI generative: non a caso, negli ultimi due anni il titolo in Borsa dell’azienda è salito di circa 570 per cento (il tutto contando anche il crollo di questi giorni dopo DeepSeek).
Nvidia è un pezzo fondamentale di questo mosaico perché può essere considerata come l’unica azienda ad aver guadagnato – veramente – dalla primavera delle AI. Certo, anche OpenAI, come appena detto, è cresciuta esponenzialmente ma nonostante sia leader nel settore delle AI generative, ha un modello di business più pericolante della competizione. Nvidia vende hardware e continuerà a farlo anche in futuro. Quanto a Google, l’ascesa di ChatGPT ha sconvolto gli equilibri dell’azienda ma sta recuperando terreno ed è pronta a integrare Gemini in tutti i suoi servizi (Gmail, Docs, Workspace…). Google ha insomma qualcosa che OpenAI non ha: una serie di servizi usati da miliardi di persone ogni giorno.
Lo stesso vale per Microsoft, che con OpenAI ha una “relazione complicata”, essendo al tempo stesso investitore e competitor. Ma il gruppo ha anche una “sua” linea di AI di grande successo, Copilot, che può spalmare su un set di prodotti, un po’ alla Google. Di Meta abbiamo già parlato ma anche questa può contare su Instagram, WhatsApp e Facebook per diffondere i propri servizi AI. Insomma, OpenAI deve farcela da sola e continuare a convincere gli utenti a pagare per i suoi costosissimi chatbot, mentre la competizione crea una corsa al ribasso dei prezzi. In tutto questo, ecco spuntare dalle profondità dei mari la balena di DeepSeek.
Cinese, economica e sospetta. Potremmo definire così DeepSeek e i suoi LLM, che hanno sconvolto il mondo nel giro di una settimana. DeepSeek è nata nel 2023, fondata da Liang Wenfeng, imprenditore e co-fondatore di High-Flyer, società che da anni si occupa di analisi di dati finanziari. Per avviare la startup, Liang scelse personale giovanissimo, appena uscito dalle università, contando anche sul “patriottismo” delle nuove generazioni cinesi. E adottò un approccio aperto e open source, anche per ovviare alle sanzioni e restrizioni imposte dagli Stati Uniti negli ultimi anni per impedire alle aziende cinesi di dotarsi dei più avanzati chip di Nvidia. Il fatto che siano riusciti a produrre AI in grado di rivaleggiare con quelle di OpenAI senza le GPU più avanzate contribuisce a rendere interessante (e sospetta) la versione ufficiale di DeepSeek.
Veniamo così ai costi. Secondo l’azienda, la fase di “addestramento” del modello linguistico sarebbe costata 5,6 milioni di dollari contro i circa cento milioni dichiarati da OpenAI. Un risparmio di circa il 95 per cento che punta dritto al ventre molle dell’azienda di Sam Altman, e in generale di tutta questa primavera AI: si è sempre detto che servivano soldi, tanti soldi, per il personale, le attrezzature e l’energia elettrica. Altman va in giro da anni a promettere la fusione fredda, letteralmente, con cui fornire energia pulita ai data center del futuro (nel frattempo, in realtà, negli Usa e non solo, si sono riaperte centrali a carbone in disuso). Questo era il verbo, insomma – ed ecco spuntare questa startup cinese che sembra indicare una via migliore, più economica e veloce.
Le sanzioni americane e i chip Nvidia che DeepSeek è riuscita ad accaparrarsi. I sospetti di modelli copiati. Il crollo in Borsa di quasi tutte le “Magnifiche sette”. Il peccato originale: il saccheggio indiscriminato e continuo di dati, testi, immagini, video dal web. Il settore medico e quello militare i più ottimisti per il futuro delle AI
Per gli amanti delle coincidenze, inoltre, val la pena ricordare come DeepSeek sia sbucata fuori nella prima settimana della presidenza Trump, mentre si discuteva del “ban” di TikTok a causa della sua proprietà cinese, e il presidente annunciava Stargate, un ambizioso piano di investimenti privati per l’intelligenza artificiale da circa 500 miliardi di dollari.
Il trambusto è stato quindi anche politico, in linea con l’avvicinamento tra Silicon Valley e Donald Trump di questi mesi: il successo di DeepSeek, infatti, dimostrerebbe che le sanzioni non hanno (ancora) funzionato. Perché la startup è riuscita ad accaparrarsi dei chip Nvidia prima che le restrizioni entrassero in vigore. Oppure perché c’è un mercato nero che aggira le sanzioni tout court. O, ancora, perché – ed è questa la versione di DeepSeek – i cinesi sono stati semplicemente bravi a puntare sul software, non avendo hardware di livello. Secondo la rivista Technology Review, infatti, “piuttosto che indebolire le capacità di intelligenza artificiale della Cina, le sanzioni sembrano spingere startup come DeepSeek a innovare in modi che privilegiano l’efficienza, la condivisione delle risorse e la collaborazione”. La startup cinese è stata quindi costretta a “puntare sull’ottimizzazione delle risorse attraverso il software”, secondo Marina Zhang, docente della University of Technology di Sydney. Come ha fatto? Pare migliorando proprio il transformer, l’architettura alla base dei modelli linguistici odierni.
Un altro sospetto è che R1, il modello più avanzato di DeepSeek, sia stato parzialmente copiato da o1 di OpenAI, cioè un modello in grado di simulare il ragionamento umano, dando risposte in più tempo ma con una profondità maggiore. Il fiore all’occhiello di Altman, insomma, la prima pietra della strada che dovrebbe portare all’AGI. In questi giorni anche alcuni membri del governo statunitense hanno accusato i cinesi di aver usato una tecnica chiamata “distillazione”, definita dal sito The Verge come “un metodo comune che gli sviluppatori usano per allenare modelli di intelligenza artificiale estraendo dati da altri, più grandi e potenti”.
Ma delle lamentele di Altman e i suoi torneremo a breve, perché OpenAI non è stata l’unica vittima di questi giorni: le “Magnifiche sette”, cioè le aziende più importanti e influenti del panorama tecnologico statunitensi, hanno sofferto quasi tutte. Nvidia, Meta, Amazon, Tesla, Apple, Microsoft e Alphabet. Tutte e sette hanno visto crescite strepitose sia nel 2023 che nel 2024; di queste, la scorsa settimana, solo Apple e Meta sono state risparmiate dal crollo causato da DeepSeek, specie all’inizio della scorsa settimana.
Abbiamo già visto cosa ha salvato Meta (che comunque pare essere in modalità d’emergenza interna). Ma Apple? Strano parlare di grandi innovazioni tecnologiche così a lungo senza citare la Mela ma non è un caso perché la primavera AI non sembra aver scaldato Cupertino. Se tutte le sue competitor hanno investito miliardi, comprato montagne di GPU e rivisto strutture interne per le AI, Apple è sembrata cauta. Quasi diffidente. L’anno scorso ha finalmente lanciato Apple Intelligence, una serie di funzioni che per ora non sembra aver conquistato il pubblico. Per mesi si è discusso e polemizzato: Apple sta perdendo il suo smalto oppure, sorniona, sa che il settore sta creando una bolla e ha quindi fatto abbastanza da non essere punita dagli investitori, senza però scommettere tutto sugli LLM? Difficile capirlo ma ora Tim Cook può godersi un giro di festeggiamenti, e magari sognare un futuro in cui dei modelli linguistici più piccoli potranno essere eseguiti da iPhone. Amazon sarebbe in una situazione simile a quella di Cupertino: da tempo cerca di rendere la sua Alexa più intelligente e utile con le AI ma finora non si sono visti grandi risultati. In compenso, Amazon ha tante anime e tra queste c’è AWS (Amazon Web Services), il servizio di cloud più usato al mondo, e queste infrastrutture sono fondamentali al futuro delle AI.
* * *
Le intelligenze artificiali generative arrivarono al momento ideale, alla fine del 2022, quando si stava esaurendo la spinta prepulsiva (ma illusoria) del metaverso – tecnologia a cui Meta ispirò il proprio nome – e il cosiddetto Web3, la presunta nuova fase di internet nata dall’unione di blockchain, criptovalute, NFT e il suddetto metaverso.
Ancora un po’ di date. Il 30 novembre OpenAI lanciò ChatGPT. Pochi giorni dopo Sam Bankman-Fried, capo di FTX, uno degli exchange di criptovalute più usati al mondo, fu arrestato per frode. Fu una coincidenza, ovviamente, ma potremmo vederlo a posteriori come un passaggio di testimone da un ciclo di hype all’altro. I fondi di investimento, i venture capitalist e tutta quella fauna di miliardari si convinsero di aver trovato la tanto desiderata next big thing: secondo la piattaforma Pitchbook, che si occupa di venture capital e startup, negli ultimi due anni sono stati investiti 155 miliardi di dollari in startup del settore AI (quasi quanto speso dallo stato italiano per il Superbonus).
E’ questo sistema di venture capital, startup, giganti che assumono o assorbono aziende, imprenditori che girano il mondo parlando di estinzione dell’umanità, di imprenditori che fanno a gara con i razzi e con gli LLM, è tutto questo che è stato messo in crisi dall’avvento di DeepSeek. Dopo mesi in cui l’app di ChatGPT troneggiava nelle classifiche di App Store delle app più scaricate, ecco la balena cinese comparire all’improvviso, scalzare OpenAI e dimostrare che il nuovo ordine mondiale post-ChatGPT è ancora in costruzione. In fieri. E tutto può cambiare. (Nel frattempo in Italia l’app di DeepSeek è stata rimossa dall’App Store pare dopo una richiesta di chiarimenti dal Garante per la privacy).
Anche perché non ci sono alibi che tengano. Come dicevamo, OpenAI ha accusato DeepSeek di aver rubato dati all’azienda per allenare i propri modelli, o fatto intendere che i modelli stessi di DeepSeek siano stati sviluppati rubando pezzi a OpenAI (come ha sostenuto David Sacks, nome grosso della Valley e consigliere di Trump). Tutto plausibile, conoscendo i precedenti furti di proprietà intellettuali di aziende cinesi ai danni di quelle statunitensi ed europee, e del resto, nel 2023, OpenAI fu effettivamente vittima di un attacco hacker.
Ma per lamentarsi di questi colpi bassi occorre avere una certa reputazione, cosa che né OpenAI né le altre aziende del settore possono vantare, almeno per quanto riguarda il rispetto delle proprietà intellettuali altrui. Veniamo così a quello che forse è il peccato originale di questa primavera delle AI: il saccheggio indiscriminato e continuo di dati, contenuti, testi, immagini, video dal web che ha permesso a tante aziende di “allenare” i loro modelli linguistici senza tenere in nessuno conto il diritto d’autore. O, per citare un titolo di questi giorni del sito 404 Media: “OpenAI è furiosa perché DeepSeek potrebbe aver rubato tutti i dati che OpenAI ha rubato a noi”.
Nilay Patel, direttore di The Verge, ricorda spesso come i titanici interessi orbitanti le AI generative siano appesi a poche sentenze legali, come quella New York Times v. OpenAI, in cui la grey lady ha accusato l’azienda di aver violato il copyright. Come nella fisica quantistica, questo sistema è al momento, contemporaneamente, legale e non legale – il gatto di Schrödinger potrebbe essere vivo oppure morto. Lo sapremo solo quando la scatola verrà aperta.
Bolla o non bolla, legalità o illegalità, però, questi strumenti vengono utilizzati ogni giorno da centinaia di milioni di persone. Da parecchi anni, a dire il vero, il machine learning (branca delle AI) viene già usato da servizi d’ogni tipo, come Google, YouTube, Facebook e TikTok. Ma nel mainstream si è cominciato a parlare di AI solo quando ci siamo ritrovati di fronte a una macchina in grado di parlare, capirci, scrivere poesie, capire battute. Il lancio di DALL-E prima e ChatGPT poi ha avuto un effetto simile a quello del keynote di iPhone di Steve Jobs, nel 2007, quando la platea esplose alla vista dello scrolling. Forse tra una decina d’anni sembrerà strano anche a noi ricordare che c’è stato un momento in cui non potevamo parlare con i computer se non con linguaggio in codice.
Nella terra di mezzo che stiamo attraversando, intanto, le AI dimostrano di avere uno spettro di applicazioni amplissimo: le più positive, come la possibilità di individuare tumori con netto anticipo rispetto a noi umani, sono paradossalmente le meno discusse, presi come siamo da chatbot e miliardari vari. Oltre a quello medico, anche il settore militare è particolarmente ottimista per il futuro delle AI, tanto che la stessa OpenAI ha recentemente firmato un accordo con l’azienda bellica Anduril (co-fondata dallo stesso Palmer Luckey di Oculus, quella dei visori per la realtà virtuale acquisiti da Facebook nel 2015, e sostenitore di Trump di lungo corso), a conferma della sinergia tra i due mondi.
Secondo un report pubblicato da Microsoft lo scorso anno, il 60 per cento dei lavoratori altamente qualificati e specializzati italiani sostiene di usare strumenti di AI all’interno delle proprie giornate per svolgere determinati compiti e risparmiare tempo. Statistiche a parte, l’impatto di questi strumenti è percepibile in quasi tutti gli ambienti di lavoro, per non parlare delle aule scolastiche, dove le AI vengono usate sia dagli studenti che da molti insegnanti.
Nel web social le AI agiscono indisturbate da mesi, con la complicità delle aziende stesse, che sognano, come ha recentemente ammesso un portavoce di Meta, di riempire i nostri feed anche di content creator virtuali, generati con le AI. E’ osservando questo fronte che i toni apocalittici usati spesso da Altman, Musk e altri risultano particolarmente fuori luogo: invece di parlare di AGI e del pericolo futuro di creare un supercomputer alieno e ribelle, sarebbe meglio occuparsi dei danni provocati oggi da questi strumenti, quando vengono applicati ai social media. Lo scorso anno si è molto parlato del cosiddetto “Gesù gambero”, una serie di immagini virali su Facebook e palesemente generate con le AI, che raffiguravano Gesù in contesti marini e ittici sempre più bizzarri, fino a varie immagini del Cristo ricoperto (o fatto?) di gamberi, appunto. A corredarle, una sfilza di commenti di altri utenti, umani, che scrivevano “Amen”, dando ancora più rilevanza e gittata a questi post. Questa alluvione di melma (slop, per usare un termine diffuso per indicare i contenuti “sintetici”) è in corso da tempo ed è destinata a peggiorare, visto il recente annuncio da parte di Mark Zuckerberg, che vuole ridurre la moderazione dei contenuti e lasciarla in mano agli utenti stessi, con le Community Notes. Gesù gambero, salvaci tu.
In questi giorni di confusione e timore generati da DeepSeek, intanto, nei circoli che contano delle AI si cita un concetto che fu elaborato dall’economista britannico, William Stanley Jevons, nell’Ottocento. Si chiama Paradosso di Jevons e sostiene che i miglioramenti tecnologici che aumentano l’efficienza di una risorsa finiscono per fare aumentare il consumo di quella risorsa, anziché diminuirlo.
Jevons visse in un altro mondo, quando il motore a vapore di James Watt aumentò l’efficienza delle macchine, che avevano così bisogno di meno carbone. A causa di questa innovazione, però, fu proprio il consumo di carbone ad aumentare. Analisti, imprenditori, blogger e curiosi del web – tutti citano Jevons, in queste ore, traendo dal suo paradosso un qualche visione del futuro. La quale, secondo gli entusiasti delle AI, non poteva che arrivare dalla Seconda rivoluzione industriale inglese: del resto, sono convinti che stiamo vivendo un momento di portata storica simile. Una nuova primavera infinita.