Foto Unasplash

Tra tecnologia e politica

L'IA non ci ruberà il lavoro. A tu per tu con Abran Maldonado di OpenAI

Filippo Lubrano

L'intelligenza artificiale di sicuro non ha le allucinazioni. La verità dietro alle applicazioni più concrete dei modelli generativi. Intervista all'ambasciatore di ChatGPT

La tentazione è ovviamente molto forte: usare ChatGPT per preparare una lista di domande “scomode” a un esponente di OpenAI. Un uso forse ricorsivo della tecnologia, ma che produce una lista di spunti piccanti che infatti il mio interlocutore, Abran Maldonado, rifiuta sin da subito. “Quello che dirò lo dirò a titolo personale, e non dell’azienda”, esordisce l’ambasciatore di OpenAI. “Se vuoi posso connetterti con le persone che si occupano di ogni singolo ambito che ti interessa trattare”, sarà il refrain che mi ripeterà più volte.
 

La storia di Maldonado è quella tipica del self-made man, del sogno americano dove tutto è possibile. Di origini portoricane, cresce in una cittadina del New Jersey a basso reddito, ma ha la sua chance di riscatto grazie a una borsa di studio messa a disposizione Fondazione Gates, che finanzia tutta la sua istruzione. Fonda poi una sua azienda, Createlabs, che aiuta le persone ad acquisire competenze e opportunità lavorative nel settore tecnologico, iniziando il suo percorso di evangelizzazione in ambito tech. Il suo operato gli vale una chiamata diretta di Greg Brockman, uno dei fondatori di OpenAI, l’azienda al momento più chiacchierata al mondo nel settore dell’intelligenza artificiale. È il luglio del 2020, ChatGPT non esiste ancora se non nei laboratori della startup di San Francisco, e Maldonado entra a far parte di un team selezionato di persone per provare la versione beta di GPT-3. “Non avevo un background tecnico”, ammette lo stesso Maldonado, “e credo che questo fosse proprio quello che stavano cercando: l’IA mette insieme moltissime competenze diverse tra di loro, mentre il team iniziale dell’azienda era giocoforza molto sbilanciato lato programmazione e ricerca e sviluppo”. Maldonado in OpenAI si concentra dunque principalmente sull’impatto sociale dell’IA, utilizzando le proprie competenze per affrontare problemi di razzismo e altre questioni sociali.
 

Nella sua opera di divulgazione, si rende conto presto che il primo e più rilevante problema da affrontare sono i pregiudizi, o quella che lui chiama “la barriera della fiducia”: “Nel settore no-profit, che è quello che ho seguito con più costanza sin dall’inizio, molti sono ancora diffidenti nei confronti delle tecnologie IA”, confessa Maldonado. “Temono possano portare via loro il lavoro, ovviamente, ma ci sono anche delle paure legate alla sicurezza e alla sostenibilità”. In questo, l’approccio  del mondo della Silicon Valley, che ha come acme il motto che ha reso celebre la prima Facebook, “move fast and break things”, “muoviti veloce e rompi le cose”, certamente non aiuta. “Molto è cambiato da quei tempi”, sostiene Maldonado “Ora le aziende impiegano molto più tempo per rilasciare i loro modelli: la ragione di quel ritardo è sempre legata alla sicurezza”.
 

Il tema della fiducia non affligge però solo  il settore no-profit. Anzi. Maldonado sta seguendo ora un progetto con Mastercard, presentato lo scorso gennaio al CES di Las Vegas. “Esiste una ritrosia ancora maggiore nel settore finanziario a condividere i propri dati con il nostro modello”, nota il brand ambassador, “ma le persone non capiscono che, per come sono disegnati i nostri modelli, anche se qualcuno condivide la foto della propria carta di credito nella chat del nostro GPT, i dati non verranno mai replicati tali e quali, ma sempre integrati come parte di un mosaico più ampio”. Maldonado ammette che vi sia un problema legato alla trasparenza dei dati, ma non lo vede come un problema esclusivo del settore dell’IA, bensì di tutte le aziende tecnologiche. “L’altro giorno stavo guidando la mia Subaru, e a un certo punto ho abbassato lo sguardo per cambiare stazione nell’autoradio: la macchina mi ha subito richiamato all’ordine perché non avevo gli occhi sulla strada. Siamo dunque a nostro agio se le nostre auto scannerizzano costantemente la nostra faccia, ma ci infastidisce se non sappiamo da dove vengono i dati utilizzati per allenare i modelli di assistenti conversazionali”.
 

Nel settore sta avvenendo una sorta di gara a costruire il modello più grosso: i non-disclosure agreement vincolano Maldonado a non poter parlare del nuovo modello di OpenAI, GPT5, di cui tutto quello che è trapelato è una slide dove si vedevano le dimensioni del modello precedente – di cui non si sa esattamente la dimensione, ma le stime più affidabili parlano di mille miliardi di parametri di ingresso – affiancate a quello futuro, presentato come una “balena”, proprio per le proporzioni di ordini di grandezza totalmente superiori. Maldonado in questo va in controtendenza, sostenendo che il futuro vedrà una rapida crescita soprattutto dei modelli più piccoli, che potranno essere scaricati agevolmente e addestrati localmente anche sui nostri smartphone.
 

Tuttavia, anche lui ammette che attualmente le prestazioni dei prodotti sul mercato, da quelli di OpenAI a quelli di Google passando per Meta, non siano tali da permettere di poter contare su di loro come oracoli. “Sono prodotti generativi, non dovrebbero essere considerati fonti affidabili di conoscenza, danno il meglio di loro nello svolgere attività, sono un ottimo assistente, ma necessitano di esperti, sia nella fase di training sia in quella di utilizzo”.
 

La sensazione degli utenti è che la qualità di certe risposte si sia anzi abbassata nel tempo, invece di migliorare. Specialmente su fatti scientifici, come ad esempio domande specifiche poste sul terrapiattismo o altre teorie pericolose, ChatGPT tende oggi a dare risposte meno nette, e in generale ad assecondare di più l’utente. “Deve essere ben chiaro che al modello non è richiesto di fornire opinioni. Anche per le questioni scientifiche e fattuali è quindi essenziale non fidarsi troppo delle risposte che non alleghino un link di riferimento”, rivela. Un fenomeno che descrive come fisiologico, perché “i sistemi sono progettati con sempre più guardail, e stanno diventando sempre più diplomatici, evitando di fornire posizioni soggettive anche su questioni su cui c’è una certa condivisione della comunità scientifica”. Forse è anche per questo che, a fianco a ChatGPT e i suoi diretti competitor come Gemini di Google, il Grok di Elon Musk o Llama di Meta, stanno nascendo strumenti ibridi, come Perplexity AI, che invece di inventare totalmente le risposte sulla base di meccanismi predittivi statistici (metodologia che è valso loro l’appellativo di “pappagalli stocastici”), interpola le risposte dai migliori link disponibili sul web per quella data risorsa.
 

Questo mitiga fortemente, quando non annulla, il rischio più temuto nel settore: quello di produrre le famose “allucinazioni”. Gli agenti come ChatGPT stanno letteralmente sempre allucinando:  il loro ruolo è proprio quello di produrre informazioni inesistenti, ricombinando la conoscenza pregressa. In alcuni casi queste ricombinazioni portano a frasi che all’essere umano risultano insensate, o palesemente false (gli studi più recenti posizionano tra il due e il cinque percento i fenomeni di allucinazioni conclamate sui modelli più famosi).
 

Maldonado non nega infine l’impatto occupazionale di modelli di questo tipo, ed è infatti allineato con il suo ceo Sam Altman sul tema dello Universal Basic Income, il reddito di cittadinanza universale, così come era stato proposto ad esempio dal candidato alle primarie democratiche nelle presidenziali del 2016 Andrew Yang: una “robotax” da applicare alle aziende che più beneficiano di queste innovazioni da redistribuire alla popolazione sotto forma di un assegno – che all’epoca era stato proposto orizzontalmente di mille dollari per ciascun cittadino americano di età maggiore ai sedici anni. “Mi rendo conto che l’IA potrebbe rendere inutili od obsoleti tutta una serie di mestieri, specialmente tra i colletti bianchi, e sono quindi a favore di misure come il reddito di base universale, o almeno dei sussidi per la formazione”. Dispositivi che potrebbero funzionare bene in contesti dove ricade la maggior parte del valore aggiunto di queste nuove tecnologie, ovvero in primis in America, ma anche in Cina e altre paesi tecnologicamente molto avanzati. Più difficile pensare a un sistema di redistribuzione delle ricchezze in contesti in cui l’utilizzo di IA e altre innovazioni potrebbe non portare a un aumento sensibile del pil. “Non sta scritto da nessuna parte che il reddito di base universale debba essere solo gestito centralmente a livello pubblico: può essere anche a livello privato. La singola azienda che licenzia dei professionisti potrebbe acconsentire a riconoscergli una quota del loro stipendio con le efficienze rese possibili dalla tecnologia”, conclude Maldonado. Il futuro dell’IA sembra essere quindi sempre meno tecnico, e sempre più politico.