Un falso Zuckerberg spiega perché certe bufale sono peggio di altre
Un artista/attivista ha diffuso un video falso in cui il fondatore di Facebook spiega piani malvagi. I deepfake e il "trattamento Pelosi"
Milano. Da un paio di giorni gira sui social media un video in cui Mark Zuckerberg infine ammette il suo piano: accumulare i dati di miliardi di persone in tutto il mondo e usarli per controllarli e dominarli. E’ un video inquietante e fortunatamente falso. E’ fatto con una tecnologia che si chiama deepfake e che consente a chiunque, con relativamente poco sforzo, di creare video credibili in cui far dire più o meno quello che si vuole alla propria celebrity preferita, o ad amici e parenti. Il video è stato creato da un artista/attivista, e serve a provare un punto: le politiche di Facebook contro i falsi sono troppo lente.
Un paio di settimane fa su una pagina Facebook legata alla alt-right americana è apparso un video di Nancy Pelosi, la speaker democratica del Congresso, che teneva un discorso durante un evento ufficiale. Pelosi parlava con fatica, aveva la voce impastata, si mangiava le frasi: sembrava ubriaca. Il video ha ricevuto milioni di visualizzazioni e decine di migliaia di commenti. E’ stato rilanciato perfino da Rudy Giuliani, avvocato e consigliere di Donald Trump: guardate, Pelosi si presenta agli eventi in stato alterato. Era un fake – uno particolarmente ben fatto: il video era stato rallentato impercettibilmente e la voce modificata in modo da sembrare credibile. Se si guarda il video originale dell’evento, Pelosi parla in maniera spigliata e puntuale, niente affatto da ubriaca. Ma prima che i media, Facebook e Pelosi stessa si accorgessero del fake ormai il danno era fatto: milioni di elettori americani avevano visto un video della speaker del Congresso alticcia.
Appena si è saputo del fake, media e politica hanno cominciato a dare addosso a Facebook: com’è possibile che la piattaforma consenta la diffusione virale di video falsificati ad arte? Cancellate quel video! Facebook si è rifiutato. Il social network ha politiche standard per quanto riguarda i falsi, che sono: sottoporre il contenuto potenzialmente falso al controllo di agenzie di fact checking indipendenti; attendere che le agenzie facciano i dovuti controlli; se le agenzie confermano che il video è falso, non cancellare il contenuto, ma penalizzarlo dal punto di vista dell’algoritmo: il video o il post in questione appariranno con meno frequenza agli utenti. Nel caso del video di Pelosi, Facebook ha anche aggiunto una postilla al video per ricordare che si tratta di una manomissione, e ha inserito dei link a media e agenzie per fornire contesto. Più di così il social network non fa. Il video non si cancella.
Per molti versi, la politica di Facebook è corretta: se una cosa è falsa non per questo deve essere censurata. Cancellare i contenuti falsi significherebbe mettere in pericolo la satira, per esempio. Inoltre la lotta politica si è sempre fatta anche usando lo strumento delle bugie. Twitter dovrebbe forse cancellare la metà dei cinguettii di Donald Trump?
Eppure il video di Pelosi dimostra che il problema è più ampio. Ed è qui che è arrivato il deepfake di Mark Zuckerberg, pubblicato martedì notte su Instagram (che è proprietà di Facebook). Nel video il falso Zuck ammette i suoi piani malvagi di dominio globale, e grazie a una tecnologia ormai nemmeno tanto sofisticata risulta credibile: “Immaginate per un momento. Un uomo solo con il controllo totale dei dati rubati di miliardi di persone: tutti i loro segreti, le loro vite, il loro futuro”, dice il falso Zuck. Il video ha già centinaia di migliaia di visualizzazioni e chiaramente è una prova per Facebook: che fare quando è il capo a essere implicato in un fake dannoso? (Ecco una facile previsione: a breve i deepfake di Zuckerberg diventeranno molto di moda).
Per ora Facebook ha detto che si atterrà alle proprie regole: sottoporre il video alla verifica indipendente, aspettare il risultato, squalificarlo senza cancellarlo. Ci vuole qualche giorno. Ma non sempre questa gestione rallentata dei falsi può funzionare. Cosa succederà quando uscirà un video credibile in cui Donald Trump annuncia un attacco nucleare imminente contro la Corea del nord? Facebook farà partire il suo lento processo mentre comincia la guerra atomica? La menzogna algoritmica ha bisogno di soluzioni più decise.