Il pregiudizio liberal dei redattori di Facebook ci fa rimpiangere l'algoritmo
Roma. La questione della parzialità ideologica di Facebook sta tutta nella parola “noise”, rumore di fondo. Justin Osofsky, il vicepresidente per le Global operation del social network, ha definito così in un post pubblicato giovedì le notizie “prive di valore giornalistico” cancellate dai suoi dipendenti dalla sezione dei Trending topic, spazio che nelle versioni in lingua inglese del sito è dedicato alle notizie di maggiore tendenza del momendo. Il caso è scoppiato questa settimana dopo che una fonte interna alla società ha rivelato al sito tecnologico Gizmodo che i “redattori” impiegati nella sezione dei trend “eliminano spesso le notizie di interesse per i lettori conservatori”. Le smentite di Facebook – che finora aveva dato a intendere, pur senza specificarlo, che la sua sezione dei trend era gestita da un freddo e imparziale algoritmo – e le rassicurazioni dei suoi dirigenti davanti all’ondata di indignazione politica che ne era scaturita erano appena arrivate quando il Guardian ha assestato un altro colpo durissimo. Giovedì il quotidiano britannico ha pubblicato le linee guida interne e riservate che il piccolo team di redattori assunti da Facebook (una decina di persone) deve rispettare per gestire la sezione dei trend. Si tratta in gran parte di criteri giornalistici piuttosto basilari, in buona parte riguardanti la formattazione e la grammatica da usare, ma che forniscono alcune conferme fondamentali. Anzitutto, che il team esiste e ha notevole libertà di usare il proprio giudizio (o pregiudizio) editoriale nella selezione delle notizie.
Soprattutto, però, il fatto che questo team ha un ampio potere di manipolare cosa appare nella sezione dei trend, inserendo storie ritenute importanti (il termine usato è “inject”, iniettare), o sospendendole per un tempo massimo di 24 ore, sufficiente perché una notizia perda importanza. Dopo il piccolo scoop del Guardian, Facebook ha pubblicato una versione aggiornata delle medesime linee guida, e qualche spiegazione in più: il lavoro del team di redattori consiste nello scremare il gran numero delle notizie virali selezionate da un algoritmo, discernendo quelle vere e interessanti da – appunto – il rumore di fondo (le notizie setacciate sono poi personalizzate in base ai gusti di ciascun utente da un ulteriore algoritmo). La decisione su cosa è rumore e cosa no sta tutta nelle mani dei redattori, ed è qui che potrebbe inserirsi il pregiudizio liberal denunciato da alcuni ex dipendenti (ma smentito da altri, sentiti anche dal Guardian). Facebook ha inoltre pubblicato una lista di circa mille siti di news considerati affidabili, e una lista di altri dieci usata per confermare l’autorevolezza di una notizia. Tra questi ultimi, solo Il Wall Street Journal e Fox News sono esplicitamente considerati di centrodestra.
I commentatori conservatori, davanti alle nuove rivelazioni del Guardian, sono scattati, e a poco sono servite le rassicurazioni di Mark Zuckerberg, che ha annunciato giovedì di voler invitare un gruppo di conservatori di spicco per “scambiarsi i punti di vista”. Altri però hanno notato che, nonostante i rischi di imparzialità, è dopotutto un bene che ci sia un gruppo di teste umane pensanti, e non un algoritmo, a decidere quali temi sottoporre agli utenti: è così che fanno tutti i giornali del mondo. Ma Facebook in questo senso è un sorvegliato speciale. E’ il più grande distributore di news del mondo e può mantenere il suo ruolo soltanto se riesce a dare quanto meno l’impressione di una certa imparzialità. Facebook non può mantenere la finzione di essere un semplice distributore, un’autostrada in cui tutte le notizie scorrono alla stessa velocità, se i suoi dipendenti esercitano il loro giudizio editoriale – il quale, lo sappiamo, spesso ricalca quello del Giornalista collettivo. E’ così che si consuma il paradosso per cui, tra un algoritmo e il team di giornalisti di Facebook, ci troviamo a tifare per l’algoritmo. Ma il problema del pregiudizio liberal, o di qualunque pregiudizio, rimane: in questo senso un algoritmo, se cucinato a dovere, può essere ancora più dannoso.