La crisi
ChatGPT sta diventando scema, e forse la colpa è tutta nostra
Peggiorano le performance del chatbot di OpenAi. L'azienda ha apportato delle modifiche per peggiorarlo o la responsabilità è da imputare agli input errati degli umani?
I primi segnali di calo sono arrivati lo scorso luglio, quando Similarweb, azienda che si occupa di traffico internet, rivelò un calo del 9,7 per cento nelle visite al sito di ChatGPT rispetto al mese precedente. Un calo fisiologico per qualsiasi altro servizio ma un possibile crollo per il chatbot di OpenAI, che quest’anno ha raggiunto i cento milioni di utenti in appena due mesi. La notizia fu sufficiente a ispirare titoli di giornale sulla possibile fine della febbre da Intelligenza Artificiale; i più attenti e cauti, invece, imputarono la défaillance alla fine della scuola: meno studenti in classe, meno compiti, meno richieste alla IA.
Si vedrà a settembre, quindi, anche se i segnali di un possibile flesso nella curva dell’hype per il settore sono aumentati nel corso dell’estate: Axios ha riportato i risultati di un sondaggio realizzato da S&P Global secondo cui la maggior parte delle aziende intervistate avrebbe attivato (almeno) un progetto sulle IA, incontrando in molti casi problemi a causa degli alti costi e della necessità di riorganizzare i dati in loro possesso per adeguarli alle nuove tecnologie. La rivoluzione delle intelligenze artificiali potrebbe quindi non essere veloce e indolore come previsto e auspicato da molti. Rimangono poi i dubbi sui limiti delle IA di questo tipo, in particolare sui pregiudizi di genere, etnia e religione che i chatbot continuano a dimostrare, riflettendo le bias delle società che li producono. Per questo motivo Jon Stross, cofondatore dell’azienda di risorse umane Greenhouse, si è detto “super nervoso” dall’idea di delegare alle IA la selezione del personale.
A inizio mese il New York Times ha proibito agli scrapers (i programmi automatici che viaggiano per il web trovando e raccogliendo documenti) delle aziende come OpenAI di usare i contenuti del quotidiano senza permesso. L’editore starebbe anche considerando l’idea di denunciare l’azienda guidata da Sam Altman per proteggere la propria proprietà intellettuale: il timore è che ChatGPT possa diventare un competitor diretto del Nyt generando risposte a domande basandosi sul lavoro fatto dallo staff del quotidiano. Secondo quanto riportato da Npr, una battaglia legale simile, se vinta dal giornale, potrebbe costringere OpenAI a cancellare tutte le informazioni che ha raccolto – o rubato, secondo i suoi detrattori – per creare ChatGPT, e ricominciare da zero. Questa settimana, poi, un giudice distrettuale di Washington ha deciso che le opere d’arte create dalle IA non sono protette dalla legislazione sul diritto d’autore, perché “la paternità umana è la condizione essenziale del copyright”. Secondo l’Hollywood Reporter, la sentenza potrebbe fare scuola, oltre che influenzare lo scontro tra gli studi cinematografici e gli autori in sciopero (di cui l’utilizzo delle IA è uno dei punti più critici).
L’estate terribile di ChatGPT non è solo fatta di questioni legali. Nemmeno il chatbot stesso sembra passarsela bene. A sostenerlo è uno studio di Stanford sulle capacità di risposta di GPT-4, il modello linguistico più avanzato di OpenAI, che sembra aver perso colpi soprattutto in matematica. Lo scorso marzo, ad esempio, GPT-4 era in grado di individuare correttamente il numero 17077 come primo il 97,6 per cento delle volte; tre mesi dopo, solo il 2,4 per cento delle volte. La generazione precedente, GPT-3.5, invece, aveva avuto una traiettoria opposta, con performance che miglioravano nel corso del tempo. “ChatGPT sta diventando più scemo?” si è chiesto lo scorso luglio il New York Magazine, mettendo insieme un po’ di prove e una certa aria complottista che circola tra alcuni suoi utenti. Secondo alcuni, infatti, sarebbe stata OpenAI stessa a modificarlo in peggio per chissà quali ragioni; altri invece danno la colpa agli umani, i cui input imperfetti e sbagliati finirebbero per influenzare la macchina e indurla in errore (il cosiddetto reinforcement learning from human feedback o RLHF).
Il giornalista Chris Stokel-Walker ha invece parlato di “sindrome da giocattolo nuovo”, quel senso di disillusione che sorge in noi dopo che ci siamo abituati a qualcosa di nuovo e sorprendente: “Ciò che vedevamo come uno strumento alieno, superumano e in grado di conquistare tutto, rendendoci più produttivi e risolvendo i nostro problemi più grandi è ora... normale”. Una posizione confermata della stessa OpenAI, il cui responsabile del prodotto Peter Welinder ha dichiarato su X (l’ex Twitter) che “quando si usa [ChatGPT] con più costanza si iniziano a notare problemi che prima non si vedevano”.