I regimi e l'IA
L'inventore di ChatGpt teme la sua creatura e l'utilizzo che ne fanno i dittatori
I deepfake in Venezuela, la presentatrice-avatar in Cina e lo spamouflage che intossicano la rete. Un quadro allarmante che preoccupa anche i vertici di OpenAI
Nell’arco di una settimana il settore delle intelligenze artificiali ha visto l’uscita di GPT-4, l’atteso nuovo modello linguistico di OpenAI, la presentazione di Bard, un “chatbot” di Google, le mosse di Nvidia e di Adobe, per citare solo alcuni esempi. Il settore si conferma in fibrillazione ma stanno anche emergendo dimostrazioni dell’uso che è possibile fare di queste tecnologie nella produzione di disinformazione e propaganda da parte dei regimi autoritari.
Negli ultimi mesi si è discusso molto delle possibilità offerte all’industria delle fake news da strumenti come ChatGPT, l’intelligenza artificiale in grado di generare qualunque tipo di testo velocemente. Un fronte meno trattato è quello dei video, soprattutto dei deepfake, quel tipo di filmato sintetico con cui è possibile far dire qualsiasi cosa a qualunque persona, riproducendone voce e tratti facciali.
Questa settimana il Financial Times ha raccontato che il Venezuela è stato invaso da filmati pensati per sembrare notiziari e generati utilizzando intelligenze artificiali: più precisamente, un servizio chiamato Synthesia, con cui è possibile generare video partendo da semplici descrizioni scritte. Con Synthesia, per esempio, un’azienda può sviluppare un video da usare in un corso interno per dipendenti utilizzando un presentatore generato dal computer, i cui movimenti non sono proprio naturali ma sono comunque in grado di convincere alcuni utenti.
Insomma, un avatar, che in questo caso è stato utilizzato per produrre profili YouTube (ora chiusi) pieni di fake news piuttosto credibili – e tutti critici nei confronti dell’opposizione al governo del socialista Nicolás Maduro, già difeso e celebrato online da truppe di bot sui vari social network. La tecnologia di Synthesia, con cui è di fatto possibile “clonare se stessi”, come dice la stessa azienda, è stata utilizzata per seminare disinformazione anche in Mali. Ma i casi non finiscono qui.
Recentemente la società di analisi dei social media Graphika ha pubblicato un report su alcune “operazioni di influenza” di fattura cinese che avrebbero prodotto video generati con le IA in cui comparivano “persone fittizie quasi certamente create usando queste tecniche”. La chiamano spamouflage (una crasi tra spam, la posta elettronica non desiderata e truffaldina, e camouflage) ed è una strategia di Pechino per riempire l’etere di messaggi – e volti – amici del regime.
Lo sviluppo di tecnologie simili è legato a doppio filo con quello di prodotti più di consumo e banali come l’applicazione Face App, che nel 2019 ebbe grande successo perché trasformava i selfie degli utenti facendoli ringiovanire o cambiare di sesso. All’epoca si parlò dei legami della società sviluppatrice russa con il regime di Putin, tanto da spingere l’Fbi a definirla una possibile operazione di controspionaggio. I progressi fatti da allora hanno ulteriormente alzato il livello di rischio attorno a strumenti come Synthesia, nati con un modello di business chiaro, per quanto balzano, ma già sfruttati per produrre fake news.
Il caso che forse più di ogni altro dimostra il potenziale dell’insieme di IA in grado di generare testo e video e mettersi in onda da sole è quello di Ren Xiaorong, il volto digitale femminile di un nuovo programma del quotidiano cinese People’s Daily: Ren è una avatar che è stata “allenata” con le performance di “migliaia di presentatori e giornalisti”, ed è quindi in grado di trasmettere ogni giorno dell’anno, ventiquattro ore al giorno. Sono previste anche forme di interazione con l’utente, che può scegliere gli argomenti su cui informarsi. Al di là della natura distopica di un telegiornale propagandistico potenzialmente infinito, la resa grafica di Ren risulta inferiore a quella di Synthesia e anche la produzione di testo sembra confermare le voci secondo cui le capacità cinesi in fatto di intelligenze artificiali generative siano rimaste indietro rispetto alla concorrenza di ChatGPT. Almeno per ora.
Questo quadro allarmante ha finito per preoccupare anche i vertici di OpenAI, il cui capo Sam Altman ha confessato ad Abc News di “avere un po’ di paura” di quello che ha creato, specie della possibilità che “dei regimi autoritari” sviluppino tecnologie simili. Russia e Cina stanno infatti accelerando i loro progetti nel campo mentre la stessa ChatGPT è oggi disponibile a chiunque sia in grado di aggirarne le limitazioni per produrre tweet, post e testi pieni di bugie per poi usarli in una campagna di trolling online, ad esempio. Da tempo Altman teme la sua stessa creazione, aspettando con timore chissà quale rivolta delle macchine, mentre il motivo per cui temerle sembra essere immediato e più banale, ovvero la produzione a ciclo continuo di bugie sempre più credibili, e sempre più accessibile ai regimi di tutto il mondo.