Un robot che scrive
Gpt-3 è una nuova intelligenza artificiale che crea testi perfetti. Sarà usata nel peggiore dei modi
Milano. Da poco meno di dieci giorni, sui blog e sugli account social degli esperti di intelligenza artificiale è tutto un susseguirsi di iperboli: “Mindblowing”, “shocked”, “incredible”. La settimana scorsa OpenAI, l’azienda di intelligenza artificiale a cui partecipano, tra gli altri, Elon Musk, Peter Thiel, Sam Altman, ha reso disponibile ad alcuni programmatori il suo ultimo modello di IA: è un generatore di testo che si chiama Gpt-3, il terzo del suo genere (prima c’erano Gpt-2 e 1), ed è un programma capace di elaborare testi così credibili e verosimili da far tremare il test di Turing, progettato dal geniale matematico inglese per distinguere la differenza tra un uomo e una macchina e per capire quando, infine, l’intelletto delle macchine sarà diventato indistinguibile da quello umano. Ora, sgombriamo subito il campo da fraintendimenti: Gpt-3 non raggiunge nemmeno lontanamente il livello dell’intelligenza artificiale generale, quella comparabile all’intelligenza umana, che è ancora lontana anni luce. Gpt-3 non è Hal 9000, ma a volte finge bene.
La mia prima interazione con Gpt-3 è significativa del suo potenziale: un articolo a firma del programmatore Manuel Araoz che spiega come funziona la nuova intelligenza artificiale. L’articolo fila bene, fornisce molti fatti interessanti e punti di vista personali. Poi, verso la fine, Araoz scrive: tutto quello che avete letto finora l’ha scritto Gpt-3 – e la mandibola ti casca sulla scrivania. Con il senno di poi, in effetti, quel testo in inglese era strano. Alcune frasi erano corrette ma peculiari, in altre l’andamento logico del discorso appariva leggermente sconnesso. Ma siccome il lettore è abituato a pensare che il testo che ha davanti l’abbia scritto un essere umano, queste lievi imperfezioni non si notano, o si attribuiscono a vezzi e caratteristiche stilistiche dell’autore. Invece, a scrivere in maniera vezzosa era la macchina. Ancora più impressionanti sono le istruzioni scarne che Araoz ha dato a Gpt-3: una breve biografia di se stesso, così la macchina capisce quale personalità assumere, e una consegna stringata, con un titolo (“GPT-3 di OpenAI potrebbe essere la cosa più grande dopo i bitcoin”), qualche tag (tech, machine-learning, hacking), e una descrizione brevissima dell’articolo: “Condivido le mie esperienze iniziali sulla beta del nuovo modello di predizione del linguaggio di OpenAI, GPT-3. Spiego perché penso che GPT-3 abbia un potenziale di innovazione comparabile a quello della tecnologia blockchain”. Tutto qui. Il resto, un intero articolo di 4.300 battute che risulta credibile anche a un lettore esperto, l’ha creato la macchina, partendo da questi pochissimi elementi. Un altro ricercatore ha chiesto al sistema, anche in questo caso con poche istruzioni, di ricreare un’intervista botta e risposta tra Anderson Cooper, il giornalista della Cnn, e il cantante Kanye West a proposito della candidatura di quest’ultimo a presidente degli Stati Uniti. Non soltanto Gpt-3 ha generato una conversazione tutto sommato credibile, è riuscito perfino a essere ironico, anche se un po’ greve: quando Cooper chiede a West del suo programma di politica estera, lui risponde che è meglio parlare delle forme di Kim Kardashian, sua moglie, perché della politica estera non interessa a nessuno, e Cooper obietta: “Questo è un po’ sessista”. Gpt-3 è fluente in tutti i linguaggi, per esempio nella programmazione html, ed è in grado di creare dei layout di pagine web. Sa anche scrivere spartiti per la chitarra.
Parlare di “creazione” e di “creatività” è azzardato. Gpt-3 non crea niente, ma rimastica molto bene. Il sistema pesca nozioni e pezzi di testo da tutto il web, ne capisce il contesto e li riutilizza e modifica in maniera appropriata. La sua capacità è enorme: se Gpt-2 aveva 1,5 miliardi di parametri di apprendimento, Gpt-3 ne ha 175 miliardi. Spesso sbaglia, i ricercatori hanno già trovato situazioni in cui la macchina scrive baggianate o cose insensate, e inoltre, come tutte le intelligenze artificiali, rispecchia i pregiudizi dei materiali che analizza e rimastica: Gpt-3 è appena nato e ha già prodotto testi razzisti e violenti. Ma è una tecnologia con potenziali enormi, che potrebbe essere utilizzata in mille modi, e che più che togliere il lavoro a giornalisti e scrittori potrebbe aiutarli. Anzi, di giornalisti ne serviranno molti quando i troll si accorgeranno che non hanno più bisogno di scriversi da sé la loro propaganda.