L'analisi
È finita la lotta alle fake news, dall'ascesa di Donald Trump a quella di Elon Musk
Inchieste, testimonianze, commissioni, tantissima indignazione per l’incapacità dei social di governare la disinformazione e poi? Cronaca di un fallimento
La stagione della moderazione dei contenuti da parte dei social network rischia di concludersi. Il ciclo di eccezionale attenzione (e severità) nei confronti dei contenuti ritenuti offensivi o pericolosi, specie se relativi a determinati argomenti, è iniziato nel 2020, nel pieno della pandemia da Covid-19, quando piattaforme come YouTube, Facebook e Twitter decisero – spesso con ritardo – di limitare la diffusione di fake news e teorie del complotto. Il virus e le sue conseguenze si rivelarono un terriccio molto fertile per paranoie e cospirazioni, che proprio sui social trovarono un enorme pubblico. Tra i primi social network ad agire, nel marzo del 2020, ci fu Twitter, che optò per la rimozione delle teorie “alternative” sul virus, le sue origini e le cure casalinghe per combatterlo; Facebook seguì una strada simile, arrivando a bandire notizie false e tendenziose sui vaccini nel dicembre dello stesso anno.
Negli Stati Uniti, tra i nomi più attivi nella pubblicazione di sospetti infondati e teorie cospiratorie sul Covid-19 c’era Robert F. Kennedy Jr., terzogenito del candidato presidente Robert Kennedy e nipote del presidente John Fitzgerald Kennedy, che già prima della pandemia si fece notare per alcune sue dichiarazioni sul rapporto tra vaccini e autismo. Nel 2019, alcuni membri della famiglia Kennedy presero pubblicamente le distanze da lui in una lettera pubblicata da Politico, in cui scrissero che “Bobby è un outsider nella famiglia Kennedy: è nostro fratello e zio, ma la sua posizione sui vaccini è tragicamente sbagliata e pericolosa”. All’epoca, “Bobby” era un avvocato e un occasionale scrittore; con la pandemia, la sua attività online aumentò finché, all’inizio del 2021, fu bandito da Instagram per aver pubblicato falsità sui vaccini. Da allora, il controverso Kennedy ha fatto molta strada e lo scorso aprile si è candidato alle primarie dei democratici, sfidando apertamente il presidente Joe Biden. Di riflesso, pochi giorni fa, Instagram ha annunciato la riattivazione del suo profilo: “Essendo ora un candidato attivo alla presidenza degli Stati Uniti, abbiamo ridato l’accesso del suo profilo a Robert F. Kennedy, Jr.” ha dichiarato un portavoce dell’azienda al Washington Post.
Il punto è che Instagram non è l’unica piattaforma che sembra ritirarsi da alcune delle posizioni assunte negli ultimi anni, allargando le maglie della moderazione e consentendo a chiunque – specie se si tratta di una figura politica – di dire qualunque cosa. Se la pandemia e i vaccini hanno innescato la “grande moderazione” nelle piattaforme, a velocizzare il processo è stato l’assalto del 6 gennaio 2021 al Campidoglio di Washington, quando una folla di sostenitori di Donald Trump attaccò fisicamente le istituzioni per protestare contro l’esito delle elezioni vinte da Biden. La chiamano “The Big Lie”, la grande bugia, ed è da allora il fondamento politico del trumpismo, condiviso da molti repubblicani che sposano l’idea che le elezioni del 2020 siano state truccate per fare perdere Trump. La gravità dell’attacco a Capitol Hill fu tale da spingere le piattaforme a reagire collettivamente, portando alla rimozione (o alla forte limitazione) degli account di Donald Trump da molti social network, in quello che viene chiamato deplatforming. Trump sparì in pochi giorni da Twitter, Instagram, Facebook – ma anche da Reddit, Twitch, YouTube e TikTok – per aver di fatto indirizzato la folla all’azione, sia online sia dal vivo. Fu forse il punto più “alto” raggiunto dalla grande moderazione. Da allora, il deplatforming di Trump ha perso pezzi lentamente: Meta ha ridato l’accesso all’ex presidente lo scorso marzo mentre il Twitter di Elon Musk lo ha fatto lo scorso anno (venendo snobbato da Trump, almeno per ora). Venerdì scorso è stato il turno di YouTube, che ha deciso di interrompere la rimozione di contenuti falsi e tendenziosi riguardanti le elezioni del 2020 (“Era giunto il momento di rivalutare” la decisione, ha annunciato l’azienda). E’ un tassello importante, quello di YouTube, visto il ruolo che il social network ha avuto nella diffusione delle teorie cospiratorie sulla grande bugia (ma anche sul Covid, prima che venissero prese iniziative al riguardo).
La chiamano “amplificazione algoritmica” ed è la capacità di piattaforme simili di diffondere un certo tipo di contenuti, in pochi giorni, moltiplicandone l’esposizione e targettizzando un certo tipo di utente o pubblico. Un processo invisibile che nel corso della campagna elettorale del 2016, negli Stati Uniti e non solo, contribuì a estremizzare i toni portando a quella che viene definita “radicalizzazione algoritmica”. L’algoritmo decide di premiare un video e lo distribuisce a un pubblico sempre più grande: quanto al video, può essere un contenuto buffo e innocuo, o un delirio sui vaccini o le elezioni, poco importa. Il Congresso statunitense ha provato ad agire per rimediare al problema nel 2021, cercando di attribuire delle responsabilità sostanziali alle piattaforme, privandole di quello scudo legale che normalmente le protegge dalle opinioni dei loro utenti. Alla base del movimento, l’idea di permettere alle piattaforme di ospitare opinioni d’ogni tipo ma di ritenerle responsabili della loro diffusione indiscriminata. Negli Stati Uniti questa battaglia si unisce a quella, più ampia, sulla cosiddetta "Sezione 230", la legge che garantisce ai social network di non essere legalmente responsabili dei contenuti degli utenti, su cui si è espressa la Corte Suprema lo scorso maggio con un esito che ha confermato lo status quo. Nel caso in questione, la Corte doveva giudicare se Google e Twitter fossero responsabili – o complici – della diffusione di immagini e contenuti legati al terrorismo (secondo molti attivisti, la messa in discussione della Sezione 230 comporterebbe la fine del web per come lo conosciamo, costringendo qualsiasi sito a serrare le discussioni online per evitare denunce).
La posta in palio è insomma la libertà di parola, diritto inalienabile che nell’ultimo anno è stato utilizzato a mo’ di arma da un pezzo di destra americana capitanata da un improbabile nuovo leader culturale, Elon Musk, che dallo scorso ottobre è ufficialmente proprietario di Twitter. Qui il capo di Tesla è arrivato con la missione di riportare la citata libertà di parola sulla piattaforma, con diretti riferimenti al deplatforming di Trump e altre personalità della destra radicale statunitense, che nel corso degli anni erano state cacciate dalla gestione precedente. Una lezione che sembra essere stata imparata in fretta dalle altre piattaforme, oggi pronte a chiudere il ciclo iniziato nel 2020. Molte cose sono cambiate da allora: social network come Gab e Parler, per esempio, erano nati anni fa proprio per offrire rifugio a giornalisti, attivisti e troll che erano stati cacciati dalle grandi piattaforme. Lo stesso Parler, social network “di destra” che fu molto usato nell’organizzazione dell’attacco al Campidoglio, oggi risulta superfluo, superato da una concorrenza inaspettata, Twitter, dove tutto è possibile e l’hate speech risulta essere in forte aumento (come dimostrato da uno studio condotto da diverse università e pubblicato lo scorso aprile). C’erano voluti una pandemia e un attacco eversivo al Campidoglio per convincere il settore Big Tech ad agire contro la grande bugia, e non solo quella. Da allora tutto è cambiato, i giganti della Valley hanno licenziato indiscriminatamente colpendo in particolare i team di controllo e moderazione dei contenuti, ritenuti un lusso in questi tempi difficili. In tutto questo, si avvicina un nuovo ciclo elettorale.