Magazine
Il veleno dei fake. Trump e Biden alle prese con un gioco difficile da controllare
Intelligenza artificiale, immagini false, politica e post-verità. In un mondo politico che si regge sulle fake news, le immagini alterate che raccontano una realtà parallela ma credibile rischiano di diventare sempre di più una risorsa degli estremisti
"Pronto sono Joe Biden, non andate a votare”. Molti elettori del New Hampshire hanno ricevuto questa telefonata nel fine settimana che precedeva il voto per le primarie. Sembrava proprio lui, la voce era quella, e anche alcune espressioni come “malarkey”, una parola vecchio stile per “fandonie” molto usata dal presidente ottuagenario. Ma era tutto finto, la telefonata era stata fatta con l’intelligenza artificiale per limitare i numeri dei moderati alle urne, e favorire Donald Trump nella sua sfida a due contro Nikki Haley. La chiamata del presidente-robot è il frutto di una novità tecnologica che ha la possibilità di avere un serio impatto durante le campagne elettorali di quest’anno. Si dice che le elezioni presidenziali americane del 2024 saranno uguali a quelle di quattro anni fa – una sfida Biden vs. Trump, processi permettendo – ma nel 2020 l’IA non era ancora così avanzata. Oggi sta già giocando un ruolo notevole, soprattutto sul mettere in dubbio la verità.
Ne ha già fatto uso il governatore della Florida Ron DeSantis, per qualche mese salutato come volto futuro del GoP. Mentre cercava di togliere la corona a Trump aveva lanciato uno spot televisivo dove l’ex presidente diceva cose sconvenienti. Ma anche qui, come nel caso delle telefonate del robot-Biden, la voce era stata generata con l’intelligenza artificiale – e non che ci sia bisogno di software per far dire a Trump cose sconvenienti. Un consigliere dell’ex presidente l’aveva bollato come un “tentativo disperato di ingannare il pubblico americano”. Nel frattempo DeSantis ha mollato la sua corsa presidenziale, dove ha speso un capitale, decidendo di salire sull’affollato carro del presunto vincitore. Ma è l’ennesimo caso che mostra le potenzialità dei deepfake.
Un primo assaggio l’avevamo già visto a marzo scorso con le false fotografie che gli algoritmi avevano creato dopo la notizia dell’imminente arresto di Trump per il caso Stormy Daniels. Nelle immagini subito diventate virali si vedeva l’ex presidente con la tipica tuta arancione da carcerato, o trascinato dai poliziotti, o lui che eroicamente resisteva all’arresto degli agenti newyorkesi. Come scrisse allora l’Atlantic: “Queste immagini non erano foto, ma il risultato dell’intelligenza artificiale che risponde al più umano dei sentimenti: l’impazienza”. C’era qualcosa di estremamente cinematografico nelle scene. E anche se alcune di queste immagini erano state create da nemici di Trump, per solleticarsi, per godere di un momento tanto agognato – cioè l’ex presidente che non sfugge alla giustizia – la cosa ha cambiato sia il meccanismo delle news che la percezione dell’evento. I giornali che le hanno condivise hanno dovuto sottolineare che si trattava di immagini fasulle mettendo un grosso “fake” in rosso sotto le foto. E i trumpiani, sui social, le hanno subito vendute come eventuale realtà, o come un imminente futuro possibile desiderato dai progressisti e dai marxisti, e quindi una chiamata alle armi per difendersi da quello che la destra alternativa chiama regime corrotto bideniano. Sono state viste da milioni di persone confondendo il vero e il falso, e diventando ancora più attraenti delle eventuali immagini reali per via della melodrammaticità e della catarsi che dona la patina iperrealistica dell’algoritmo. Il vero arresto era sicuramente meno esaltante di quello raccontato dalle immagini dell’IA. Come scriveva Alberto Savinio: “Il vero messo a confronto col falso è più falso del falso”.
Dopo l’arresto, dopo le foto, i numeri di Trump nei sondaggi sono saliti. Si è giocato la carta del vittimismo e le immagini finte sono diventate un manifesto di quella che lui chiama “caccia alle streghe”. Le immagini finte della sua foto segnaletica sono subito state stampate su tazze e magliette e bicchierini da shot. Ad agosto la campagna elettorale di Trump ha usato l’immagine vera, quella dell’arresto in Georgia, per vendere merchandising ufficiale con sotto la scritta “never surrender”, non arrendersi mai. Capitalizzazione economica oltre che elettorale, per raccogliere fondi (da usare per gli avvocati) e apparire come un perseguitato resistente, che guarda l’obiettivo dello sceriffo della contea di Fulton con aria di sfida. I dem, pronti a festeggiare, hanno capito che alla fine, anche qui, la criminalizzazione dell’ex presidente ha fatto comodo soprattutto a lui. E che l’IA, fino ad ora, sta avvantaggiando soprattutto la destra.
L’invasione dei fake non fa che aiutare l’apparato complottista. E non è un caso che dopo che vari giornali hanno deciso di vietare, o limitare dove possibile, la presenza di bot IA, mentre megafoni della destra estremista come Breitbart e NewsMax, adorati dal pubblico Maga e pieni di teorie cospirazioniste, non hanno invece fatto nulla. Anzi, danno il benvenuto ai deepfake. Come ha detto lo storico di Yale Timothy Snyder dopo le teorie scaturite dall’attacco al Campidoglio del 6 gennaio: “La post-verità è pre-fascismo”. Perché quando “rinunciamo alla verità, diamo il potere a chi, con soldi e carisma, può creare al suo posto uno spettacolo. Senza un accordo comune su alcuni fatti basilari, i cittadini non possono formare quella società civile che può permettere loro di difendersi”. In un mondo politico che si regge sulle fake news, su quelli che sono stati chiamati “alternative facts” – e che una volta si chiamavano bufale – le immagini alterate che raccontano una realtà parallela ma credibile rischiano di diventare una risorsa degli estremisti. “I gruppi di estrema destra sono stati sempre più in grado di usare come un’arma la tecnologia, per attivismo e campagne”, dice l’accademico William Alchorn. L’allergia alla verità dei trumpiani – che ancora dicono di aver vinto le ultime presidenziali – non può che allargarsi quando le prove vengono inquinate da contenuti falsati e manipolati. Trump ha dimostrato di voler ottenere la vittoria a qualsiasi costo, anche mettendo in opera un’insurrezione, anche negando l’evidenza. Ora sul palco delle primarie racconta di aver vinto anche negli stati in cui aveva perso. Nel 2017, quando Trump arrivò a Pennsylvania Avenue, l’Oxford Dictionary scelse “post-truth”, post-verità, come parola dell’anno.
Se Trump è riuscito a crearsi un mondo di fantasia demagogica quando era l’inquilino della Casa Bianca, cercando di atteggiarsi come un dittatore, l’IA permette di allargare il reame del vagheggiamento. Quando provò a cavalcare con un po’ di ritardo l’onda degli Nft fece produrre varie immagini da vendere online dove lui diventava – più possente, più alto, più capelluto e più in forma che nella realtà – un astronauta, un cowboy, un cavaliere medievale, Iron Man, un gigante seduto sul trono del Lincoln Memorial… Icone di metaversi alternativi resi credibili dal tech che potrebbero sembrare ogni giorno sempre più realistici. “È lui o non è lui?”. A dicembre ha lanciato una nuova linea di card con le sue gesta, questa volta anche in formato cartaceo oltre che digitale. A chi ne acquista 47 verrà regalato un pezzo di tessuto del vestito che indossava durante la foto segnaletica (il costo: 4.653 dollari). E che succederà quando nei forum dei Proud Boys gireranno foto fasulle per screditare Zelensky e convincere così gli americani a non aiutare più l’Ucraina? Quando le casalinghe del Midwest vedranno su Facebook un video in cui Joe Biden picchia un bambino o bestemmia in chiesa, quale sarà l’impatto elettorale? E queste domande si possono anche allargare al di fuori dell’America – ad esempio, se Hamas volesse condividere video falsi per gettare fango sulle forze militari israeliane? Non c’è più bisogno di una Leni Riefenstahl, non sono necessari i ritocchi che faceva Stalin per eliminare Trockij dalle foto della rivoluzione, adesso bastano pochi minuti a un nerd in uno scantinato. I troll sono liberi di dare sfogo alle proprie fantasie più balorde con un semplice software. Si passa dalla post-verità alla verità aumentata.
Su una delle ultime copertine del settimanale del Financial Times c’è una foto di Biden e Trump. I due si baciano ad occhi chiusi, un po’ limone tra Breznev e Honecker sul muro di Berlino un po’ pubblicità Benetton di Oliviero Toscani. Il titolo è “Fake” e nell’articolo il giornalista si chiede: e se uscisse fuori un video (finto) in cui il presidente Trump dichiara guerra alla Cina? La Casa Bianca ha detto che vuole affrontare la situazione. Anche perché non è solo il mondo politico a esser stato scosso dalle immagini generate con l’IA. Taylor Swift, la popstar miliardaria, si è lamentata pubblicamente dei suoi deepfake pornografici che girano su internet (dove con il deep learning il volto di una star va a finire su un corpo impegnato in un atto sessuale). Le finte foto porno della cantante sono apparse su X (il fu Twitter) ottenendo quasi 50 milioni di visualizzazioni prima di essere tolte. Oltre il 90 per cento dei deepfake che si trova online è pornografia. “Dobbiamo prevenire la diffusione di disinformazione e di immagini non consensuali e intime di persone reali”, ha detto la portavoce di Biden invitando chi controlla i social a implementare delle regole. A ottobre il presidente dem aveva firmato un ordine esecutivo dicendosi spaventato dall’IA dopo aver visto l’ultimo film di Mission Impossible, dove l’intelligenza artificiale prende il controllo di sottomarini nucleari (il potere del cinema!). Ma sul tema deepfake c’era ben poco di prescrittivo, e ci si limitava soprattutto alla cyber security. E oltre alla questione porno, vari attori si iniziano a lamentare dei video che girano dove fanno cose che non hanno mai fatto, o dicono cose che non hanno mai detto. Tom Hanks ha dovuto dire ai suoi fan: non sono io quello che cerca di vendervi un’assicurazione dentale sui social. A prima vista è chiaro che non si tratta dell’attore di Big, a livello tecnologico la verosimiglianza è di poco superiore a quella delle statue del museo delle cere di piazza Venezia. Ma le tecnologie avanzano, e sono ogni giorno di più i casi in cui l’IA e i furti d’identità sono protagonisti. Gli eredi di George Carlin hanno fatto causa a un podcast che avrebbe creato la voce del comico morto per una puntata. E per prevenire il tutto, e anche come forma di “resistenza” e presa di posizione, autori come John Grisham e Jonathan Franzen hanno fatto causa a OpenAI per evitare che nutra l’algoritmo con le loro opere. I wunderkind della Silicon Valley hanno fatto sapere che cercheranno di limitare i danni, ma quella dei social è una giungla difficile da gestire, come si è visto con le influenze russe nella campagna presidenziale 2020, o con i giochetti di Cambridge Analytica sulla Brexit. La targetizzazione potrà diventare sempre più raffinata e coinvolgente. Per ora l’unico freno operato da Meta (Facebook, Instagram e Whatsapp) è segnalare quando si tratta di foto o video manipolati sotto il post.
Al momento negli Usa non c’è una legge federale che proibisca la creazione o la diffusione di materiale deepfake, ma a Capitol Hill se ne sta parlando. La commissione che si occupa delle elezioni sta cercando di procedere con nuove regole per la creazione di materiali IA durante le campagne. Ma i legislatori si stanno chiedendo da dove cominciare: punire i diffusori? I creatori? I candidati che condividono sui social video manipolati? E poi: si creeranno dei tribunali tecnici sulla verificabilità dei contenuti? Una deputata di New York ha proposto una legge per rendere illegale la condivisione di deepfake pornografici senza il consenso della persona “clonata”. Un gruppetto di senatori ha proposto il No Fakes Act, che creerebbe delle regole sull’uso del volto, del nome e della voce di qualcuno a cui non è stato chiesto il permesso, proteggendo così sia attori che cantanti che candidati. Ma è anche una corsa contro il tempo perché con l’avanzare delle tecnologie sarà sempre più difficile separare i contenuti veri dai falsi. E prima che questi contenuti siano bloccati dalla legge possono diventare comunque virali e cambiare le opinioni, sfruttando l’emotività, l’ingrediente più importante della politica.
E poi vale anche il contrario, un video o un’immagine vera possono essere bollate dal diretto interessato come fake, un po’ come ha fatto il principe Andrew con la foto dove è accanto a una minorenne in casa di Jeffrey Epstein. Qualche mese fa Vladimir Putin ha scherzato in televisione con il video di un suo deepfake e il sottotesto sembra essere: a cosa puoi davvero credere? C’è allarmismo, forse troppo, forse si riderà solamente dei deepfake come si faceva delle immagini photoshoppate nei primi anni 2000, con Berlusconi Papa e la scritta “Pio Tutto”. Ma l’IA ha il potenziale di diventare un’arma populista, uno strumento della demagogia, una miniera per meme e satira, se non un loro sostituto – cosa ne sarà delle imitazioni da Saturday Night Live o da Bagaglino? – e un ulteriore nuvolone che annebbia la percezione della realtà. Saremo tutti più accorti e più cinici? Non ci fideremo più di nulla o di tutto? E allo stesso tempo, se grandi teorie del complotto come il Pizzagate o QAnon hanno avuto così grande influenza sulla politica nazionale pur non essendoci lo straccio di una prova, cosa succede se queste “prove” iniziano a esser costruite dall’esercito di troll dell’AltRight? Steve Bannon si sfrega le mani. Come scriveva nel 1951 Hanna Arendt in Le origini del totalitarismo: “Il suddito ideale del regime totalitario non è il nazista convinto o il comunista convinto, ma l’individuo per il quale la distinzione fra realtà e finzione, fra vero e falso non esiste più”.