Dal Washington Post
ChatGPT ha spazzato via dubbi e timori sull'AI. Ma può essere un rischio
Secondo alcuni ex dipendenti di Google e Meta l’ondata di attenzione intorno alla nuova tecnologia starebbe spingendo i giganti americani a muoversi più rapidamente: potrebbe diventare un problema per la privacy o la sicurezza dei dati
Tre mesi prima del debutto a novembre di ChatGPT, Meta, la società madre di Facebook, ha rilasciato un chatbot simile. Ma a differenza del fenomeno immediato di ChatGPT, con più di un milione di utenti nei primi cinque giorni, Blenderbot di Meta era noioso, ha detto lo scienziato capo della sezione intelligenza artificiale di Meta, Yann LeCun. “Il motivo per cui era noioso era che era stato reso sicuro”, ha dichiarato LeCun la scorsa settimana in occasione di un forum organizzato dalla società di consulenza sull’intelligenza artificiale Collective. LeCun ha attribuito il motivo della tiepida risposta del pubblico alla “eccessiva attenzione di Meta alla moderazione dei contenuti”, come ordinare al chatbot di cambiare argomento se un utente chiedeva della religione. ChatGPT, invece, conversa sul concetto di falsità nel Corano, scrive una preghiera per un rabbino da consegnare al Congresso e paragona Dio a uno scacciamosche.
ChatGPT sta rapidamente diventando mainstream ora che Microsoft – che ha recentemente investito miliardi di dollari nella socierà che è dietro al chatbot, OpenAi – sta lavorando per incorporarlo nel suo popolare software per ufficio e per vendere l’accesso allo strumento ad altre aziende. Secondo le interviste con sei attuali ed ex dipendenti di Google e Meta, alcuni dei quali hanno parlato a condizione di anonimato perché non autorizzati a parlare, l’ondata di attenzione intorno a ChatGPT sta spingendo i giganti della tecnologia, tra cui Meta e Google, a muoversi più rapidamente, mettendo potenzialmente da parte le preoccupazioni sulla sicurezza. Secondo uno di loro, i dipendenti di Meta hanno recentemente condiviso dei promemoria interni in cui esortano l’azienda ad accelerare il processo di approvazione dell’intelligenza artificiale per sfruttare la tecnologia più recente. Secondo un rapporto del New York Times, Google, che ha contribuito ad aprire la strada a una parte della tecnologia alla base di ChatGPT, ha recentemente emesso un “codice rosso” per il lancio di prodotti di intelligenza artificiale e ha proposto una “corsia verde” per abbreviare il processo di valutazione e mitigazione dei potenziali danni.
ChatGPT, insieme agli strumenti di text-to-image (l’intelligenza artificiale che genera un’immagine partendo da una descrizione testuale, ndt) come Dall-E 2 e Stable Diffusion, fa parte di una nuova ondata di software chiamata Generative Ai (un’intelligenza artificiale che consente di supportare l’uomo nelle sue attività creative, ndt). Creano opere proprie attingendo a modelli individuati in vasti bacini di contenuti esistenti creati dall’uomo. Questa tecnologia è stata sperimentata da grandi aziende tecnologiche come Google, che negli ultimi anni sono diventate più riservate, annunciando nuovi modelli o offrendo dimostrazioni, ma tenendo il prodotto completo sotto chiave. Nel frattempo, laboratori di ricerca come OpenAi hanno lanciato rapidamente le loro ultime versioni, sollevando interrogativi su come le offerte aziendali, come il modello linguistico LaMDA di Google (Language model for dialogue applications), si sovrappongano.
I giganti del settore tecnologico sono stati criticati sin da debacle pubbliche come quella su Tay di Microsoft, che nel 2016 è stato disattivato in meno di un giorno dopo che i troll avevano spinto il bot a invocare una guerra razziale, a suggerire che Hitler avesse ragione e a twittare “l’11 settembre è stato opera degli ebrei”. Meta ha difeso Blenderbot e lo ha lasciato attivo dopo che aveva fatto commenti razzisti in agosto, ma ha eliminato un altro strumento di intelligenza artificiale chiamato Galactica, a novembre e dopo soli tre giorni, in seguito alle critiche per le sue sintesi imprecise e talvolta tendenziose della ricerca scientifica. “La gente pensa che OpenAi sia più nuovo, più fresco, più eccitante e che abbia meno peccati da pagare rispetto a queste aziende storiche, e che per ora possa farla franca”, ha dichiarato un dipendente di Google che lavora nel settore dell’AI, riferendosi alla disponibilità del pubblico ad accettare ChatGPT con meno controlli. Alcuni dei migliori talenti hanno abbandonato tutto per passare a start-up più agili, come OpenAi e Stable Diffusion.
Alcuni esperti di etica dell’intelligenza artificiale temono che la corsa al mercato delle Big Tech possa esporre miliardi di persone a potenziali danni – come la condivisione di informazioni inesatte, la generazione di foto false o la possibilità per gli studenti di imbrogliare nei test scolastici – prima che gli esperti di sicurezza ne abbiano potuto studiare i rischi. Altri operatori del settore condividono la filosofia di OpenAi, secondo cui rilasciare gli strumenti al pubblico, spesso nominalmente in una fase “beta” dopo aver mitigato alcuni rischi prevedibili, è l’unico modo per valutare i danni del mondo reale. “Il ritmo dei progressi nell’AI è incredibilmente veloce e ci assicuriamo sempre di garantire processi di revisione efficienti, ma la priorità è prendere le decisioni giuste e rilasciare modelli e prodotti di intelligenza artificiale che servano al meglio la nostra comunità”, ha affermato Joelle Pineau, amministratore delegato di Fundamental Ai Research presso Meta. “Riteniamo che l’Ai sia una tecnologia fondamentale e trasformativa, incredibilmente utile per gli individui, le aziende e le comunità”, ha detto Lily Lin, portavoce di Google. “Dobbiamo considerare l’impatto sociale più ampio che queste innovazioni possono avere. Continuiamo a testare internamente la nostra tecnologia Ai per assicurarci che sia utile e sicura”.
Il responsabile delle comunicazioni di Microsoft, Frank Shaw, ha dichiarato che la sua azienda collabora con OpenAi per introdurre ulteriori misure di sicurezza quando utilizza strumenti di intelligenza artificiale come Dalle-2 nei suoi prodotti. “Microsoft lavora da anni per far progredire il campo dell’AI e per guidare pubblicamente il modo in cui queste tecnologie vengono create e utilizzate sulle nostre piattaforme in modo responsabile ed etico”, ha dichiarato Shaw. OpenAi ha rifiutato di commentare. La tecnologia alla base di ChatGPT non è necessariamente migliore di quella sviluppata da Google e Meta, ha dichiarato Mark Riedl, professore di Informatica al Georgia Tech ed esperto di machine learning. Ma la pratica di OpenAi di rilasciare i suoi modelli linguistici per uso pubblico le ha dato un vero vantaggio. “Negli ultimi due anni hanno utilizzato una folla di esseri umani per fornire feedback a Gpt”, ha detto Riedl, ad esempio dando un “pollice in giù” per una risposta inappropriata o insoddisfacente, un processo chiamato “apprendimento di rinforzo dal feedback umano”. L’improvvisa volontà della Silicon Valley a prendere in considerazione l’assunzione di maggiori rischi per la reputazione arriva mentre i titoli tecnologici stanno crollando. Quando Google ha licenziato 12.000 dipendenti la scorsa settimana, il ceo Sundar Pichai ha scritto che l’azienda aveva intrapreso una revisione rigorosa per concentrarsi sulle massime priorità, facendo due volte riferimento ai suoi primi investimenti nell’intelligenza artificiale.
Un decennio fa, Google era il leader indiscusso del settore. Nel 2014 ha acquisito il laboratorio di AI all’avanguardia DeepMind e nel 2015 ha reso pubblico il suo software di apprendimento automatico TensorFlow. Nel 2016, Pichai si è impegnato a trasformare Google in un’azienda “Ai first”, l’intelligenza artificiale prima di tutto. L’anno successivo, Google ha rilasciato i transformers, un pezzo fondamentale dell’architettura software che ha reso possibile l’attuale ondata di Generative Ai. L’azienda ha continuato a sviluppare una tecnologia all’avanguardia che ha fatto progredire l’intero settore, mettendo in campo alcune scoperte dell’Ai nella comprensione del linguaggio per migliorare la ricerca su Google. All’interno delle grandi aziende tecnologiche, il sistema di controlli ed equilibri per verificare le implicazioni etiche dell’AI all’avanguardia non è così consolidato come la privacy o la sicurezza dei dati. In genere i team di ricercatori e ingegneri di AI pubblicano documenti sulle loro scoperte, incorporano la loro tecnologia nell’infrastruttura esistente dell’azienda o sviluppano nuovi prodotti, un processo che a volte può scontrarsi con altri team che lavorano sull’AI responsabile a causa della pressione per vedere l’innovazione raggiungere prima il pubblico.
Google ha rilasciato i suoi princìpi sull’AI nel 2018, dopo aver affrontato le proteste dei dipendenti per Project Maven, un contratto per la fornitura di computer vision per i droni del Pentagono, e le reazioni dei consumatori per una dimostrazione di Duplex, un sistema di AI che chiamava i ristoranti ed effettuava una prenotazione senza rivelare di essere un bot. Nell’agosto dello scorso anno, Google ha iniziato a dare ai consumatori l’accesso a una versione limitata di LaMDA attraverso la sua app Ai Test Kitchen. Secondo l’ex ingegnere del software di Google, Blake Lemoine, che ha detto al Washington Post di essere arrivato a credere che LaMDA fosse senziente, Google non l’ha ancora rilasciata completamente al pubblico, nonostante abbia previsto di farlo alla fine del 2022. Ma i migliori talenti dell’intelligenza artificiale dietro questi sviluppi sono diventati irrequieti. Nell’ultimo anno, i migliori ricercatori di AI di Google hanno lasciato l’azienda per lanciare start-up incentrate su modelli linguistici di grandi dimensioni, tra cui Character.Ai, Cohere, Adept, Inflection.Ai e Inworld AI, oltre a start-up di ricerca che utilizzano modelli simili per sviluppare un’interfaccia di chat, come Neeva, gestita dall’ex dirigente di Google Sridhar Ramaswamy.
Il fondatore di Character.Ai, Noam Shazeer, che ha contribuito all’invenzione del trasformatore e di altre architetture di apprendimento automatico di base, ha dichiarato che l’effetto volano dei dati degli utenti è stato prezioso. La prima volta che ha applicato il feedback degli utenti a Character.Ai, che consente a chiunque di generare chatbot basati su brevi descrizioni di persone reali o figure immaginarie, il coinvolgimento è aumentato di oltre il 30 per cento. Le aziende più grandi, come Google e Microsoft, si concentrano in genere sull’utilizzo dell’AI per migliorare i loro enormi modelli di business esistenti, ha dichiarato Nick Frosst, che ha lavorato a Google Brain per tre anni prima di co-fondare Cohere, una start-up con sede a Toronto che costruisce modelli linguistici di grandi dimensioni che possono essere personalizzati per aiutare le aziende. Uno dei suoi co-fondatori, Aidan Gomez, ha anche contribuito a inventare i trasformatori quando lavorava per Google. “Lo spazio si muove così rapidamente che non mi sorprende che a guidare il settore siano le aziende più piccole”, ha dichiarato Frosst.
L’AI ha attraversato diversi cicli di clamore negli ultimi dieci anni, ma quello per Dalle-E e ChatGPT ha raggiunto nuove vette. Subito dopo il rilascio di ChatGpt da parte di OpenAi, gli influencer tecnologici su Twitter hanno iniziato a prevedere che la Generative avrebbe segnato la fine della ricerca su Google. ChatGPT forniva risposte semplici in modo accessibile e non chiedeva agli utenti di spulciare tra i link blu. Inoltre, dopo un quarto di secolo, l’interfaccia di ricerca di Google si era riempita di annunci e di operatori di mercato che cercavano di sfruttare il sistema. “Grazie alla loro posizione di monopolio, i ragazzi di Mountain View hanno lasciato che la loro esperienza di ricerca, un tempo incredibile, degenerasse in un inferno pieno di spam e alimentato dalSeo”, ha scritto il tecnologo Can Duruk nella sua newsletter Margins, riferendosi alla città natale di Google. Sull’app anonima Blind, i lavoratori del settore tecnologico hanno postato decine di domande sul fatto che il gigante della Silicon Valley potesse competere. “Se Google non si dà una regolata e non inizia a correre, passerà alla storia come l’azienda che ha nutrito e formato un’intera generazione di ricercatori e ingegneri di machine learning che hanno poi continuato a implementare la tecnologia in altre aziende”, ha twittato David Ha, un famoso ricercatore che ha recentemente lasciato Google Brain per la start-up open source text-to-image Stable Diffusion.
I dipendenti dicono che gli ingegneri dell’intelligenza artificiale ancora presenti in Google hanno condiviso le loro frustrazioni. Per anni i dipendenti hanno inviato promemoria sull’incorporazione delle funzioni di chat nella ricerca, considerandola un’evoluzione ovvia. Ma hanno anche capito che Google aveva ragioni giustificabili per non avere fretta nel cambiare il proprio prodotto di ricerca, oltre al fatto che rispondere a una domanda con una sola risposta elimina spazio prezioso per gli annunci online. Un chatbot che rimanda a una risposta direttamente da Google potrebbe aumentare la propria responsabilità se la risposta risultasse dannosa o plagiata. I chatbot come OpenAi commettono abitualmente errori fattuali e spesso cambiano le loro risposte a seconda di come viene posta la domanda. Secondo un ex ricercatore di Google Ai, passare dal fornire una serie di risposte a domande che rimandano direttamente al materiale di origine, all’utilizzo di un chatbot per fornire un’unica risposta autorevole sarebbe un cambiamento importante che rende nervosi molti all’interno di Google. L’azienda non vuole assumersi il ruolo o la responsabilità di fornire risposte univoche di questo tipo, dice. I precedenti aggiornamenti della ricerca, come l’aggiunta di Instant Answers, sono stati effettuati lentamente e con grande cautela. All’interno di Google, tuttavia, parte della frustrazione per il processo di sicurezza dell’AI derivava dalla sensazione che la tecnologia all’avanguardia non venisse mai rilasciata come prodotto per timore di cattiva pubblicità, se, ad esempio, un modello di intelligenza artificiale avesse mostrato pregiudizi.
Anche i dipendenti di Meta hanno dovuto fare i conti con le preoccupazioni dell’azienda per le cattive pubbliche relazioni, secondo quanto riferito da una persona che ha familiarità con le delibere interne dell’azienda e che ha parlato con il Washington Post a condizione di anonimato per discutere delle conversazioni interne. Prima di lanciare nuovi prodotti o pubblicare ricerche, i dipendenti di Meta devono rispondere a domande sui potenziali rischi di pubblicizzazione del loro lavoro, compreso il modo in cui potrebbe essere interpretato in modo errato. Alcuni progetti vengono esaminati dal personale addetto alle pubbliche relazioni e da esperti interni di conformità che assicurano che i prodotti dell’azienda siano conformi all’accordo del 2011 con la Federal Trade Commission sulle modalità di gestione dei dati degli utenti. Per Timnit Gebru, direttore esecutivo dell’associazione no profit Distributed Ai Research Institute, la prospettiva che Google metta da parte il suo team responsabile per l’intelligenza artificiale non rappresenta necessariamente un cambiamento di potere o preoccupazioni per la sicurezza, perché coloro che avvertono i potenziali danni non hanno mai avuto il potere di farlo. “Se eravamo fortunati, venivamo invitati a una riunione”, ha detto Gebru, che ha contribuito a guidare il team Ethical Ai di Google fino a quando non è stata licenziata per un articolo che criticava i modelli linguistici di grandi dimensioni. Secondo Gebru, Google ha tardato a rilasciare i suoi strumenti di intelligenza artificiale perché l’azienda non aveva un incentivo commerciale abbastanza forte da rischiare un danno alla sua reputazione.
Dopo il rilascio di ChatGPT, tuttavia, forse Google vede un cambiamento nella sua capacità di guadagnare da questi modelli come prodotto per i consumatori, non solo per potenziare la ricerca o gli annunci online, ha detto Gebru. “Ora potrebbero pensare che sia una minaccia per il loro core business, quindi forse dovrebbero correre dei rischi". Chowdhury, che ha guidato il team etico per l’apprendimento automatico di Twitter fino a quando Elon Musk non l’ha sciolto a novembre, ha affermato che si aspetta che aziende come Google mettano sempre più da parte i critici interni e gli esperti di etica mentre si affrettano a mettersi al passo con OpenAi. “Pensavamo che sarebbe stata la Cina a spingere gli Stati Uniti, ma sembra che siano le start-up”, ha detto.
Copyright Washington Post