Un’inchiesta di tre giornalisti del New York Times rivela informazioni interessanti e preoccupanti sul funzionamento interno di Facebook. Subito dopo le elezioni americane a Facebook hanno notato un incremento serio della disinformazione in circolo sul sito. Era una cosa che ci si aspettava e infatti nelle settimane precedenti al voto erano già stati presi dei provvedimenti, come la cancellazione in massa di pagine che spargono contenuti complottisti, ma non era bastato. Per questo nell’azienda hanno deciso di modificare in modo temporaneo l’algoritmo che decide che cosa vediamo su Facebook e quanto ne vediamo e, su ordine del fondatore Mark Zuckerberg in persona, i tecnici hanno aumentato il peso dei cosiddetti punteggi Neq. Questi punteggi segreti sono quelli che distinguono l’informazione seria dai siti spazzatura (sta per “News ecosystem quality”), sono assegnati da Facebook e rispondono dal punto di vista matematico a una domanda che si fanno tutti i dipendenti di Facebook: che percentuale di roba buona e che percentuale di roba scadente stiamo facendo girare là fuori? In pratica è come un termostato delle schifezze: se lo regoli in un certo modo l’utente medio vede più contenuti prodotti da fonti credibili e meno propaganda e questo contribuisce a rendere il clima meno esplosivo. Viene in mente quando qualche anno fa si scoprì che Facebook aveva sperimentato come rendere un po’ più tristi alcuni utenti. In questo caso recente lo scopo era rendere tutti meglio informati e meno esposti alla propaganda.
Abbonati per continuare a leggere
Sei già abbonato? Accedi Resta informato ovunque ti trovi grazie alla nostra offerta digitale
Le inchieste, gli editoriali, le newsletter. I grandi temi di attualità sui dispositivi che preferisci, approfondimenti quotidiani dall’Italia e dal Mondo
Il foglio web a € 8,00 per un mese Scopri tutte le soluzioni
OPPURE