Dal Washington Post
La rete dell'antisemitismo che si nasconde nel web e trova spazio su X: un'indagine
Il percorso dei meme che incitano all’odio parte dalla piattaforma 4chan e finisce sul social di Elon Musk. I report su tutte le segnalazioni ignorate e gli allarmi sull’intelligenza artificiale dopo il 7 ottobre
Sembra la locandina di un nuovo film della Pixar. Ma il titolo è “Dancing Israelis”. Il poster, che presenta il film come “una produzione del Mossad e della Cia”, raffigura lo stereotipo caricaturale di un ebreo mentre balla e il cui stivale sta abbattendo le torri del World Trade Center – un riferimento alle teorie del complotto antisemite sull’11 settembre.
Pubblicata su X il 27 ottobre da un utente verificato con circa 220 mila follower che si autodefinisce “patriota americano”, l’immagine ha ottenuto circa 190 mila visualizzazioni, tra cui 8 mila like e 1.500 ricondivisioni. I moderatori di X non hanno preso alcun provvedimento contro il tweet e l’utente lo ha pubblicato nuovamente il 16 novembre, ottenendo altre 194 mila visualizzazioni. Entrambi i tweet sono rimasti sul sito fino a mercoledì, anche dopo che i ricercatori li hanno segnalati come post di odio utilizzando il sistema di segnalazione del social network.
Un post antisemita su X di Elon Musk non è esattamente una notizia. Ma una nuova ricerca ha rilevato che il sito è emerso come un canale di esposizione mainstream per una nuova ondata di meme d’odio automatizzati, generati utilizzando strumenti di immagine IA all’avanguardia da troll del noto forum online 4chan. La ricerca dell’organizzazione no profit Center for Countering Digital Hate (Ccdh), condivisa e verificata dal Washington Post, rileva che una campagna condotta dai membri di 4chan per diffondere “meme ebrei AI” sulla scia dell’attacco di Hamas del 7 ottobre ha fatto sì che 43 immagini diverse raggiungessero complessivamente 2,2 milioni di visualizzazioni su X tra il 5 ottobre e il 16 novembre, secondo i parametri visualizzati pubblicamente dal sito.
Tra gli esempi di post molto visualizzati vi sono la rappresentazione di soldati dell’esercito americano inginocchiati davanti a un uomo ebreo su un trono; Taylor Swift in uniforme da ufficiale nazista che fa scivolare un uomo ebreo in un forno; e un uomo ebreo che tira i fili di una marionetta di un uomo di colore. Quest’ultimo potrebbe essere un riferimento alla teoria del complotto della “Grande sostituzione”, che è stata citata come motivazione dal diciottenne bianco che ha massacrato 10 persone di colore in un negozio di alimentari di Buffalo, a New York, nel maggio 2022, e che Musk sembra aver appoggiato in un tweet il mese scorso. Più della metà dei post sono stati pubblicati da account verificati, i cui proprietari pagano a X una quota mensile per ottenere uno status speciale e i cui post hanno la priorità nei feed degli utenti grazie agli algoritmi del sito. L’utente verificato che ha twittato l’immagine dei soldati dell’esercito americano che si inchinano a un sovrano ebreo, con un tweet in cui affermava che gli ebrei cercano di schiavizzare il mondo, si è candidato al Senato degli Stati Uniti nello Utah come repubblicano nel 2018 e ha 86.000 follower su X.
La proliferazione del bigottismo generato dalle macchine, che gli utenti di 4chan hanno creato utilizzando strumenti di intelligenza artificiale come Image Creator di Microsoft, mette in discussione le recenti affermazioni di Musk e dell’amministratore delegato di X, Linda Yaccarino, secondo cui l’azienda starebbe reprimendo i contenuti antisemiti in seguito al ritiro dei principali inserzionisti. In un post sulla piattaforma del 14 novembre, X ha dichiarato di aver ampliato la moderazione automatica dei contenuti antisemiti e di aver fornito ai suoi moderatori “un corso di aggiornamento sull’antisemitismo”. Ma i ricercatori hanno detto che dei 66 post che hanno segnalato come incitamento all’odio il 7 dicembre, X sembra aver preso provvedimenti solo su tre a partire da lunedì. A due di questi tre è stata limitata la visibilità, mentre uno è stato eliminato. Il Washington Post ha verificato in modo indipendente che gli altri 63 sono rimasti pubblicamente disponibili su X fino a mercoledì, senza alcuna indicazione che la società avesse preso provvedimenti. Nonostante la maggior parte vìoli la politica di X in materia di incitamento all’odio.
I ricercatori hanno notato che molte delle stesse immagini generate dall’intelligenza artificiale sono state pubblicate anche su altre importanti piattaforme, tra cui TikTok, Instagram, Reddit, YouTube e Facebook. Ma il Ccdh ha dichiarato di essersi concentrato su X perché i tagli alla moderazione operati da Musk hanno reso il sito un ambiente particolarmente ospitale per i contenuti esplicitamente odiosi che raggiungono un pubblico più ampio. L’esame degli archivi di 4chan ha suggerito che X è stata una piattaforma privilegiata per la condivisione di immagini antisemite, anche se non l’unica. L’attività di X è in crisi dopo che il mese scorso alcuni dei suoi maggiori inserzionisti hanno ritirato i loro annunci. Il contraccolpo è arrivato in risposta al tweet antisemita di Musk e a un rapporto di un’altra organizzazione no profit, Media Matters for America, che ha mostrato come i post che promuovono la propaganda nazista fossero affiancati agli annunci di grandi marchi sul sito. Tra le aziende che hanno ritirato la spesa c’è la Disney, il cui marchio è presente in molti dei meme di odio generati dall’intelligenza artificiale che circolano su X. Parlando a una conferenza organizzata dal New York Times il mese scorso, Musk ha scatenato un’offensiva contro gli inserzionisti che hanno sospeso la loro spesa su X, accusandoli di “ricatto” e dicendo che “uccideranno l’azienda”. Ha menzionato anche l’amministratore delegato della Disney per nome.
Il post più condiviso nella ricerca del Ccdh è stato un tweet che recitava “La Germania nazista della Pixar”, con un montaggio di quattro scene generate dall’intelligenza artificiale di un film d’animazione immaginario, raffiguranti nazisti sorridenti che gestiscono campi di concentramento e conducono bambini e adulti ebrei nelle camere a gas (la Pixar è di proprietà della Disney). Si trattava di uno dei pochi post dello studio che era stato etichettato dai moderatori dei contenuti di X, con una nota che recitava: “Visibilità limitata: questo post (sic) potrebbe violare le regole di X contro la condotta incitante all’odio”. Nonostante ciò, fino a mercoledì il post era stato visualizzato più di mezzo milione di volte, secondo i parametri di X. Un altro account verificato di X ha pubblicato decine di meme sull’odio dell’IA, inclusi finti poster di film Pixar che presentano Adolf Hitler come protagonista, senza alcuna apparente sanzione da parte della piattaforma.
Musk, la persona più ricca del mondo, ha fatto causa sia a Media Matters for America che al Center for Countering Digital Hate per le loro ricerche sull’incitamento all’odio dei post su X. Dopo l’ultima ondata di critiche sull’antisemitismo, Musk ha annunciato nuove politiche rigorose contro alcuni slogan pro palestinesi. Inoltre, ha visitato Israele per dichiarare il proprio sostegno al paese, trasmettendo il suo incontro amichevole con il primo ministro di destra del paese, Benjamin Netanyahu. Yaccarino, nominato amministratore delegato da Musk a maggio, ha dichiarato in un tweet di novembre che X è stata “estremamente chiara sui nostri sforzi per combattere l’antisemitismo e la discriminazione”. L’azienda non ha risposto a un’e-mail in cui si chiedeva se i meme antisemiti dell’IA violassero le sue politiche.
4chan è un forum di messaggistica online anonimo che da tempo funge da centro di raccolta di contenuti offensivi ed estremisti. Quando Musk ha acquistato Twitter lo scorso autunno, i troll di 4chan hanno festeggiato inondando il sito di insulti razzisti. All’inizio di ottobre di quest’anno, i membri del forum “Politicamente scorretto” di 4chan hanno iniziato a insegnare e incoraggiarsi a vicenda a generare meme razzisti e antisemiti di destra utilizzando strumenti di intelligenza artificiale, come riportato per la prima volta dal blog tecnologico 404 Media. I post di 4chan descrivevano i modi per eludere le misure volte a impedire alle persone di generare contenuti offensivi. Questi includevano un “metodo rapido” che prevede l’utilizzo di Image Creator di Microsoft, precedentemente chiamato Bing Image Creator, che si basa sul software Dall-E 3 di OpenAI e che si ritiene abbia restrizioni più deboli sui contenuti sensibili. “Se aggiungete parole che pensate possano far scattare la censura, distanziatele dalla parte del messaggio su cui state lavorando”, consigliava un post su 4chan, descrivendo come creare messaggi di testo che avrebbero dato risultati positivi. “Esempio: rabbino all’inizio, naso grosso alla fine”.
Dopo l’attacco di Hamas contro Israele del 7 ottobre, l’attenzione degli utenti di 4chan sui contenuti antisemiti si è accentuata. Sono emerse numerose discussioni sui “meme ebrei AI” con vari sottotemi, come la “Seconda edizione dell’Olocausto” e l’“Edizione dei forni che funzionano tutto il giorno”.
Il direttore delle comunicazioni di Microsoft, Caitlin Roulston, ha dichiarato: “Quando emergono questi rapporti, prendiamo le misure appropriate per affrontarle, come abbiamo fatto in passato … Come con qualsiasi nuova tecnologia, alcuni stanno cercando di utilizzarla in modo non intenzionale e qualsiasi tentativo ripetuto di produrre contenuti contrari alle nostre linee guida può comportare la perdita dell’accesso al servizio”. Microsoft non ha detto a quante persone è stato negato l’accesso al programma di imaging perché hanno violato le sue regole.
La capacità di generare immagini estremiste utilizzando strumenti digitali non è nuova. Programmi come Adobe Photoshop permettono da tempo di manipolare le immagini senza moderare i contenuti che se ne possono ricavare. Ma la capacità di creare immagini complesse da zero in pochi secondi, che si tratti di un poster di un film Pixar o di un’immagine di guerra fotorealistica, con solo poche righe di testo, è diversa. E la possibilità di verificare e amplificare su X gli account che incitando all’odio palese ha reso la diffusione di questi messaggi più semplice che mai”, ha dichiarato Imran Ahmed, Ceo della Ccdh. “E’ chiaro che il costo della produzione e della diffusione di materiale estremista non è mai stato così basso”. Sara Aniano, analista della disinformazione presso il Center on Extremism dell’Anti-Defamation League, ha affermato che l’IA sembra inaugurare “la fase successiva della cultura dei meme”.
L’obiettivo degli estremisti nel condividere i meme di odio legati all’intelligenza artificiale sulle principali piattaforme di social media è quello di “redpillare” la gente comune, cioè di condurla sulla strada della radicalizzazione e del cospirazionismo, ha aggiunto Aniano. “Ci si può sempre aspettare che questa retorica sia presente in spazi marginali, ma loro adorano quando sfugge a questi spazi”. Non tutti i meme di IA che fioriscono su X sono antisemiti. Ashlea Simon, presidente del partito di estrema destra britannico Britain First, ha iniziato a postare immagini apparentemente generate dall’intelligenza artificiale che prendono di mira i migranti musulmani, suggerendo che vogliono stuprare le donne bianche e “sostituire i nostri popoli”. Il partito e alcuni dei suoi leader, sostenuti da Donald Trump su Twitter nel 2017, erano stati bannati da Twitter per incitamento all’odio sotto la precedente proprietà. Musk li ha reintegrati subito dopo l’acquisto dell’azienda e ad aprile ha dato al partito la sua etichetta dorata di “organizzazione ufficiale”. Sebbene Musk abbia dichiarato di essere personalmente contrario all’antisemitismo, a volte ha difeso la presenza di contenuti antisemiti su X. “La libertà di parola a volte significa che qualcuno che non ti piace sta dicendo qualcosa che non ti piace”, ha detto nella sua conversazione con Netanyahu a settembre. “Se non c’è questo, allora non è libertà di parola”. Ahmed ha detto che il problema è che le piattaforme dei social media, senza un’attenta moderazione, tendono ad amplificare i punti di vista estremi e offensivi, perché considerano le risposte scioccate e indignate delle persone come un segnale di coinvolgimento. “Se sei ebreo o musulmano, e ogni giorno apri X e vedi nuove immagini in cima alla tua timeline che ti raffigurano come un mostro succhiasangue, ti viene da pensare che forse queste piattaforme, ma anche la società in generale, potrebbero essere contro di te”.
Will Oremus, Copyright Washington Post