C'è un altro effetto (voluto) dell'algoritmo di Facebook: il “social warming”
Il ricercatore Charles Arthur aveva paragonato il global warming al social warming: tutti i casi di polarizzazione attraverso fake news, dal genocidio in Myanmar fino alle proteste per l'omicidio di George Floyd
Già technology editor del Guardian dal 2005 al 2014 e poi ricercatore a Cambridge, Charles Arthur aveva scelto questo titolo per un libro uscito lo scorso giugno (Oneworld Publications). Quattro mesi prima che la ex-product manager di Facebook Frances Haugen dopo aver passato alla stampa documenti interni della società facesse la sua denuncia a Cbs e Senato. Ma più o meno l’analisi era già la stessa, anche se cambia la metafora. La Haugen nel chiedere al Senato di intervenire, ha infatti detto che Facebook rischia di essere una droga “come il fumo o gli oppiacei”. Arthur aveva invece paragonato il “riscaldamento sociale” a quello globale. “Gli effetti pericolosi e polarizzanti dei Social Media”, era il sottotitolo.
Facebook “mette i profitti al di sopra della sicurezza” dice la Haugen, spiegando come l’algoritmo che sceglie quale contenuto mostrare a ciascun utente è ottimizzato per i contenuti che generano una reazione, a prescindere da quale siano contenuto e reazione. “Facebook si è resa conto che se avesse cambiato l’algoritmo per renderlo più sicuro le persone avrebbero trascorso meno tempo sul sito, avrebbero fatto clic su meno annunci e avrebbe dunque guadagnato di meno”. Per questo, passate le elezioni negli Stati Uniti del 2020 sarebbero stati subito rimossi alcuni sistemi di sicurezza attivati per l’occasione. E così si è permesso che anche attraverso le pagine di Facebook si avviasse la mobilitazione che ha portato all’attacco a Capitol Hill.
Arthur parte invece da eventi avvenuti prima. Il genocidio dei Rohingya in Myanmar, in particolare, acceso anche con violenti appelli che Facebook non avrebbe decifrato per problemi a leggere i messaggi in birmano. “Non deve restare un musulmano in Birmania”, ad esempio, era stato tradotto dal sistema “non deve restare un arcobaleno in Birmania”. Ma anche sul commento in cui Trump invitava la polizia a sparare sulla protesta per George Floyd non ci furono all’epoca interventi. All’inizio del libro si ricorda poi la storia di Steven Carrillo e Robert Alvin Justus, che Facebook aveva messo in contatto perché avevano interessi in comune. Solo che questa affinità riguardava la voglia di guerra civile per imporre le idee dell’estrema destra suprematista, da cui la decisione di andare assieme a uccidere un poliziotto.
“L’intenzione era quella di creare un mondo più connesso”, riconosce Arthur. Ma “il risultato è stato quello di minare le democrazie, truccare le elezioni, provocare genocidi, incoraggiare la polarizzazione, allevare terroristi, fomentare molestie”. Questo appunto perché, spiegava anticipando la Haugen, “per piattaforme come Facebook, YouTube o Twitter un sistema di algoritmi che associa le persone secondo i loro interessi, ignorandone le motivazioni, è più economico che avere un controllo adeguato di tutte le possibili connessioni che esistono in una rete”. E certi esiti dunque “non sono aberrazioni. I social hanno questi risultati quando vengono utilizzati così come sono stati concepiti”. “Alla fine della giornata, dovresti entrare in contatto con persone che la pensano allo stesso modo”. Ciò che conta per l’algoritmo sono tre regole: “Primo: ottenere più utenti possibile. Secondo: non perdere l’attenzione dell’utente. Terzo, che si realizza in misura maggiore o minore: monetizzare il più possibile quegli utenti attenti senza perdere la loro attenzione”. Ma “algoritmi che associano le persone in base ai loro interessi, ignorandone le motivazioni” permettono di creare una comunità a pari condizioni sia a chi condivide la passione per il lievito naturale, sia a chi vuole uccidere chi la pensa diversamente.
In effetti, osservazioni del genere le aveva già fatte anche Jared Diamond nel suo libro del 2019 “Crisi”. E aveva appunto indicato tra le cause della crisi della democrazia americana un sistema di social che ha diviso un popolo in gruppi tribali non più interessati a comprendere la controparte. A due anni di distanza, si è andati anche oltre quella profezia.