Così YouTube è diventato un grande esperimento sulla radicalizzazione
Un articolo del New York Times e le reazioni (blande) dell'azienda, che per combattere le fake news si vuole affidare a Wikipedia
Roma. Sul New York Times è uscito un articolo intitolato: “YouTube, il grande radicalizzatore”. La tesi dell’autrice, Zeynep Tufekci, è che tutte le volte che si usa YouTube, che si tratti di trovare il video di una ricetta culinaria o la registrazione di un discorso di Donald Trump, si entra in un tunnel dal quale si esce tutte le volte un po’ più estremisti. Il meccanismo è quello dei video consigliati. Tutte le volte che si finisce di guardare un video, l’algoritmo di YouTube ne propone un altro afferente, e poi un altro e un altro ancora. Come se non bastasse, mentre si guarda il video YouTube propone nella colonna di destra ulteriori video su cui si può cliccare. Come succede con i social network che promuovono l’engagement, YouTube è stato studiato per creare dipendenza: accedi per dare un’occhiata veloce e finisci per rimanere su YouTube mezza giornata. Il problema è che per alimentare questa dipendenza è necessario aumentare gradualmente la dose – e l’algoritmo in questo è abilissimo. Cominci cercando il video di una ricetta per fare – immaginiamo – le lasagne vegetali e l’algoritmo ti consiglia il video di una guida pratica su come aumentare l’apporto di verdure nella dieta quotidiana. Poi ti consiglia un video sul vegetarianesimo. Poi ti consiglia un video sul veganesimo. Insomma, accedi a YouTube con l’idea di fare le lasagne e finisci a passare la serata a guardare video strazianti di animali maltrattati nei macelli industriali.
Finché si tratta di vegetariani e vegani, non è un gran problema. Il sistema è stato pensato esattamente per questo tipo di video, e spesso funziona: se vuoi diventare un esperto di tè cinese o vuoi sapere tutto sui nuovi modelli di smartphone, YouTube è eccellente. Ma il pericolo arriva quando si comincia a parlare di politica, scienza e religione. Uno studio pubblicato a febbraio dal Wall Street Journal ha mostrato, per esempio, che YouTube propone contenuti politici estremi a chi cerca video di politica mainstream. Esattamente come è facile passare dalle lasagne vegetali al veganesimo, lo è altrettanto passare da Donald Trump al neonazismo, o da Hillary Clinton all’estremismo di sinistra. Se si guarda un video sulla teologia islamica si finisce su video che simpatizzano con l’Isis, se si guarda un video storico sull’Olocausto si finisce su video negazionisti, se si guarda un video sui vaccini ben presto arriveranno quelli degli antivaccinisti, e così via per i terrapiattisti, i negazionisti dello sbarco sulla luna e quelli che dicono che l’undici settembre fu un “inside job” di George W. Bush. I produttori di contenuti lo sanno, ed enfatizzano questa tendenza al sensazionalismo. Spesso lo fanno per ottenere più clic possibile, ma a volte si tratta di malintenzionati, dai reclutatori dell’Isis in giù, che sfruttano le debolezze dell’algoritmo per attrarre attenzioni e seguaci.
L’articolo sul Grande radicalizzatore ha generato dibattito in questi giorni, ed è anche per questo che martedì la ceo di YouTube, Susan Wojcicki, ha annunciato nuove misure per combattere le fake news. La più rilevante è quella di allegare ai video controversi i link degli articoli di Wikipedia corrispondenti (per esempio: un video antivaccinista avrà in bella vista il link alla pagina di Wikipedia sui vaccini). Non sembra una mossa molto efficace, anche contando che Wikipedia può essere modificata da chiunque, e che intorno alle voci più controverse spesso si generano dibattiti feroci all’interno della comunità.
YouTube ha scoperto troppo tardi che il suo algoritmo, pensato per i video di ricamo e per le ricette delle lasagne, è diventato uno strumento di radicalizzazione. L’anno scorso molti inserzionisti pubblicitari hanno abbandonato la piattaforma perché i loro marchi finivano associati a video di estremismo islamico. YouTube ha promesso di fare pulizia, ma ormai l’infestazione di video estremisti, disturbanti o pericolosi sembra inarrestabile. Martedì l’azienda ha perfino annunciato che ridurrà le ore di lavoro dei dipendenti pagati per guardare e cancellare i video estremi: i poveretti hanno problemi di stabilità mentale, i filmati disturbanti sono troppi e troppo terribili.