L'editoriale del direttore
Perché sull'Intelligenza artificiale la legge del profitto conta più delle norme europee
Google, Microsoft, ChatGPT e la storia di Sam Altman: una lezione per capire che anche nel campo dell’intelligenza artificiale più di un regolamento conta creare profitto e trasformare il capitalismo nel migliore sistema possibile di controllo dell’innovazione
Google, Microsoft, ChatGPT. In sintesi: OpenAI to meraviglia! La storia che vi stiamo per raccontare probabilmente la conoscerete già ed è la storia di un romanzo di formazione che avrete letto qualche giorno fa. Al centro di questo romanzo c’è OpenAI, l’azienda che gestisce il sistema di intelligenza artificiale ChatGPT. Il 17 novembre Ilya Sutskever, uno dei cofondatori di OpenAI, comunica a Sam Altman, ceo di OpenAI, il licenziamento dalla società. Il consiglio di amministrazione, gli dice, non ha più fiducia nei suoi confronti perché Altman, con alcune sue iniziative poco trasparenti, ha minato le capacità del consiglio di svolgere il suo ruolo. Le opacità contestate ad Altman riguardano un meccanismo non apprezzato dal cda di OpenAI. Nel 2018, Altman creò una società con cui affiancò OpenAI. Per quella società ottenne un finanziamento importante di Microsoft. Prima un miliardo di dollari e poi, nel corso del tempo, altri dodici miliardi. Obiettivo: sviluppare infrastrutture informatiche utili a far funzionare in modo avanzato ed efficace e semplice l’intelligenza artificiale. In una parola: ChatGPT.
Il meccanismo innescato da quella società però cozza in modo evidente con lo statuto di OpenAI, che nel 2015, quando venne fondata da Altman, Sutskever, Greg Brockman ed Elon Musk nacque come una iniziativa senza scopo di lucro per la ricerca e lo sviluppo di sistemi di intelligenza artificiale. Obiettivo chiaro: l’intelligenza artificiale deve essere un bene comune e non si possono far soldi. Altman invece, insieme con Microsoft, i soldi ha iniziato a crearli. Buona parte dei ricavi generati dalla sua società parallela finiva nella società non profit ma questo non bastava: il consiglio d’amministrazione di OpenAI non si fidava più delle scatole cinesi di Altman. Il resto della storia lo conoscete.
Subito dopo il licenziamento di Altman, i dipendenti di OpenAI si sono ribellati. Prima, in 505 hanno chiesto le dimissioni di tutti i membri del cda della società. Poi, poche ore dopo, in 700 hanno firmato una lettera in cui minacciavano di dimettersi e trasferirsi a Microsoft se Sam Altman non fosse stato richiamato come amministratore delegato dell’azienda.
Nel frattempo, dettaglio non da poco, Microsoft aveva assunto Sam Altman per guidare un team di sviluppo sull’intelligenza artificiale. L’epilogo della storia lo conoscete: tre giorni dopo, il cda di OpenAI chiede in ginocchio ad Altman di tornare a fare il suo vecchio mestiere.
Quella che abbiamo raccontato, se vogliamo, è una storia romantica, è una storia di equilibri di potere, è una storia di rapporti tra potenti, è una storia di evoluzioni tecnologiche ma quello che non è stato raccontato fino in fondo in questi giorni è che la storia che ha visto come protagonista OpenAI è prima di tutto una grande lezione sulla forza del capitalismo.
La ragione per cui Altman era stato in un primo momento cacciato da OpenAI riguardava il fatto che il suo management era preoccupato per il suo approccio entusiasta alla commercializzazione della tecnologia dell’intelligenza artificiale. I fondatori di OpenAI, lo abbiamo detto, hanno creato la società come organizzazione non profit. Il suo obiettivo dichiarato era “far avanzare l’intelligenza digitale in un modo che possa avvantaggiare l’umanità nel suo complesso, senza essere vincolata dalla necessità di generare ritorni finanziari”. Fin da subito fu chiaro però che l’approccio non profit era perdente. Limitava l’afflusso di denaro nella società madre per pagare costosi ingegneri, per costruire la propria tecnologia e avere a disposizione enormi quantità di potenza di calcolo per gestire i i modelli linguistici.
All’inizio, come ha raccontato il Telegraph in un articolo dedicato al tema, questo non era un grosso problema, perché uno dei cofondatori era un certo Elon Musk, che secondo quanto riferito aveva accumulato 100 milioni di dollari di tasca propria. Ma, quando tentò di rilevare l’azienda nel 2018 e fu respinto, OpenAI si trovò improvvisamente alla ricerca di nuovi finanziamenti.
Fu quando Musk si fece da parte che Altman decise di creare una filiale a scopo di lucro chiamata OpenAI Global Llc. Ciò significava che l’azienda poteva commercializzare i propri servizi e guadagnare denaro, utilizzando i progetti della casa madre, governata da un consiglio di amministrazione senza scopo di lucro.
Lo spirito di OpenAI in fondo era chiaro: “Sarebbe saggio considerare qualsiasi investimento in OpenAI Global Llc nello spirito di una donazione”. Nel momento in cui però OpenAi si è resa conto che senza il suo fondatore l’azienda si sarebbe svuotata il cda ha capito che esisteva il rischio concreto che l’intero valore dell’azienda, stimato in circa 86 miliardi di dollari, sulla base di una prevista vendita di azioni dei dipendenti, stesse per andare in fumo. Nella sua newsletter Stratechery, l’analista tecnologico Ben Thompson scrive che il melodramma di OpenAI spera di sfatare il mito secondo cui qualsiasi cosa tranne una società a scopo di lucro è il modo giusto di organizzare un’azienda. “C’è qualcosa nel fare soldi e nel rispondere agli azionisti che tiene sotto controllo gli impulsi più messianici. La raccolta degli interessi personali è, per una buona ragione, da tempo il modo migliore per allineare individui e aziende”.
Garantire che l’intelligenza artificiale avvantaggi l’umanità indipendentemente dal profitto – la missione codificata nella carta fondativa di OpenAI – sembra una cosa interessante, ha notato a sua volta il Wall Street Journal, ma funzionalmente è priva di significato. Microsoft ha gentilmente permesso a OpenAI di provare a ricomporsi, prima di procedere ad assorbire l’azienda essenzialmente tramite i suoi dipendenti per un prezzo di acquisto pari a zero dollari. La democrazia, diceva Winston Churchill, è il metodo di governo peggiore eccetto tutti gli altri. Lo stesso vale per il capitalismo. Laddove vi è una ricerca del profitto non vi è forse un bene comune ma vi è un bene che può crescere avendo a cuore un fatto persino più importante di un qualsiasi regolamento europeo (la scorsa settimana il Parlamento europeo e la presidenza di turno spagnola hanno dato il via libera a un regolamento sull’intelligenza artificiale, costruito con l’idea romantica ma chissà quanto concreta di garantire che i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale siano tutelati nell’ambito dello sviluppo del settore).
E il bene è questo: creare valore e dare valore a ciò che si crea è l’unico modo per non disperdere un patrimonio di idee e anche di tecnologia. Lo ha capito, forse, la società madre di ChatGPT. Lo ha capito certamente Microsoft. E lo ha capito anche Google, che proprio questa settimana ha presentato Gemini, il suo primo modello di intelligenza artificiale “in grado di comprendere e operare su diversi tipi di informazioni, tra cui testo, codice, audio, immagini e video”, attraverso il quale Google oltre che mostrare di essere all’avanguardia sulla ricerca mostrerà anche quello che gli azionisti di Altman chissà se hanno capito: fare profitto e trasformare il capitalismo nel migliore sistema possibile di check and balance delle novità. OpenAI to meraviglia!