Facebook merita fiducia
Gli argomenti contro la creatura di Zuckerberg sono deboli. Meglio fermarli prima che diventino pericolosi
Adesso che si è mossa la Federal trade commission, la vicenda Facebook si è istituzionalizzata e prende un indirizzo preciso. L’ufficio per la protezione dei consumatori ha reso noto che prende molto sul serio le notizie stampa che sollevano forti preoccupazioni su come Facebook protegge la privacy, e che ha iniziato un’indagine non pubblica sulle pratiche adottate dall’azienda. Sarà particolarmente severa, dato che a Facebook erano già stati imposti provvedimenti. Finora invece la vicenda era stata descritta nei modi più disparati. “Scandalo”, il più frequente, una valutazione morale che nulla dice della causa. “Sfruttamento dei dati personali”, con riferimento alla polemica sul loro valore venale. “Pericolo per la democrazia” per il (reale? potenziale?) potere dei messaggi. “Fallimento”, come sulla copertina dell’Economist, per la perdita in valore delle azioni del gigante di Menlo Park. E l’onnicomprensivo “Baadd” (Big, Anti competitive, Addictive and Destructive to Democracy), buono per tutti i Big tech. Adesso si sa di che si parla: di possibile lesione dei diritti di privacy dei consumatori, in questo caso di social media.
Eh sì che, nei rapporti con Cambridge Analytica, Facebook sembrava essere piuttosto la vittima. Riassumiamo: Facebook ha un’applicazione che consente ai suoi clienti di iscriversi a un altro sito usando le proprie credenziali. Una di queste app, “thisisyourdigitallife” di tal Kogan dell’Università di Cambridge, vantava di saper produrre profili psicologici e di previsione del proprio comportamento. Si iscrissero in 270.000: però usando la facoltà, allora consentita (e poi disattivata da Facebook di sua iniziativa), di utilizzare anche le identità dei loro amici, il numero di indirizzi raggiunse il gigantesco numero di 50 milioni. Kogan condivise questi dati con Cambridge Analytica, che aveva per conto proprio sviluppato un sistema di “microtargeting comportamentale” che consentirebbe di prevedere e anticipare le risposte degli individui in base ai like. Così compiendo un illecito: perché Facebook vieta ai proprietari di app (Kogan) di condividere i dati che raccolgono sui propri utenti con società terze (Cambridge Analytica); però denunciò il fatto con due anni di ritardo. Questo dimostra un fatto assai più grave, di portata generale: la difficoltà di Facebook a controllare gli sviluppatori, e la mancanza di strumenti validi per impedire che, per questa via, i dati siano consegnati ad altri. E’ probabilmente su questo che indagherà la Ftc. Che sia stato possibile a un’azienda, Cambridge Analytica, inviare, usando i profili psicometrici da lei elaborati, messaggi personalizzati agli indirizzi Facebook di cui era venuta in possesso, per molti utenti e, di riflesso, di investitori, ha avuto come conseguenza il venir meno di un rapporto di fiducia.
E’ questa perdita di fiducia che dà forza ad altri argomenti che sono stati portati contro Facebook, anche se questi, di per sé, sono logicamente o praticamente deboli. Conviene tuttavia esaminarne l’inconsistenza, per evitare che circolino e inquinino. Esempio: la tesi secondo cui si dovrebbe limitare la possibilità di individuare le caratteristiche delle persone, porterebbe a conseguenze grottesche. Noi andiamo fieri del nostro intuito, facciamo largo uso di studi attitudinali, che consideriamo una (pseudo) scienza: perché non dovremmo usare strumenti analitici che si basano su basi di dati infinitamente più vaste, con sterminate capacità di scoprire correlazioni, e, c’è da crederlo, scrupolosamente depurati da bias politically uncorrect?
Altro esempio: la discriminazione di certi contenuti messi in rete. Che i social debbano farlo in base al contenuto, linguistico o iconico, del messaggio è facile, finché è ovvio (hate speech, pornografia, chiari falsi). Non senza porre tuttavia problemi logici: se un dato è un falso, il meta-dato è vero, e perfino utile. Dire che i Protocolli dei Savi di Sion sono il progetto sionista, è un falso; ma se in un’università americana c’è un gruppo che attivamente lo sostiene, è una notizia. Rendere l’azienda responsabile di ciò che viene pubblicato serve a scaricare il problema sulle spalle di qualcuno, ma non a risolverlo. Potrebbe perfino crearne di ancora più grandi. Meglio sbagliare con Voltaire che aver ragione con Orwell. Evidentemente la trasparenza, obbligare l’autore di ogni messaggio a identificarsi, non basta.
Quanto ai messaggi politici, chi è abbastanza vecchio ricorda le targhette di smalto nei bar: “La persona civile non sputa in terra e non bestemmia” e, accanto, “qui non si parla di politica”. Levare la politica dai social media, questo sì che sarebbe un attentato alla democrazia: peggio, la sua resa. E l’accusa che i social media facciano vivere le persone in echochambers in cui ciascuno trova rinforzo ai propri pregiudizi, potrebbe essere essa stessa frutto di un pregiudizio: secondo Davidowitz (Everybody lies) è più facile che venga in contatto con idee opposte alle proprie chi trae le proprie informazioni dal web rispetto a chi le trae da amici e parenti. Sarà per curiosità, per voglia di polemizzare, per puro caso: a volte siamo noi a cercare le notizie, a volte sono le notizie che cercano noi. Se il messaggio politico per essere efficace deve mirare a chi non è già profondamente radicato nelle proprie idee, esso fa comunque aumentare il pluralismo. E’ vero che il No Vax si è diffuso sui social, ma è anche vero che sono stati i social a creare il fenomeno Burioni. Il messaggio politico ha sue specificità, tra l’altro riguardo a chi lo origina: Nel mondo degli atomi era relativamente facile distinguere, si accusava la Cia di finanziare la Dc e l’Urss il Pci. Nel mondo dei bit, quando il messaggio sta nella nuvola, controllare è più difficile. Al provider si può chiedere di fare un primo screening, ma egli non possiede i poteri inquisitivi dello stato, e se discrimina finisce nei guai.
I messaggi, pubblicitari o politici che siano, servono? Che effetto ottengono i messaggi mirati? Che noi non si sia soggetti puramente razionali, che nelle decisioni di natura economica, ad esempio, si seguano regole semplici, basate sull’intuito e sulle circostanze contingenti per risolvere problemi complessi: questo ormai lo sanno tutti. Lo studio scientifico del comportamento degli algoritmi usati dalle aziende e della loro influenza sul comportamento degli uomini, tramite le cosiddette “Turing box” (in analogia con le Skinner box impiegate per lo studio dei comportamenti degli animali) è appena all’inizio e presenta difficoltà intrinseche: perché funzionino bisogna che le aziende consegnino non solo gli algoritmi su cui si basa il loro modello di business, ma anche le identità dei loro clienti. Le aziende sono riluttanti a cederli, e non solo per ragioni commerciali: non hanno tutti i torti, a quanto si vede.
Non esageriamo con il behaviorismo: noi non siamo topolini dentro le gabbiette, siamo influenzati da tutti ma decidiamo da soli. “Yo soy yo y mis circunstancias”, diceva Ortega y Gasset: ma c’è un abisso tra essere influenzati ed essere determinati. Ora è internet e i social media, prima era la tv: il problema dell’effetto dei media nel determinare gli orientamenti politici degli elettori a noi è ben noto, ha tenuto banco dalla legge Mammì (1990) alla legge Gasparri (2004) ai girotondi. Anche allora si parlava di attacco alla democrazia, e giù a discutere per anni di pluralismo, a controllare minutaggi, angolazioni della camera, composizioni del panel: salvo concludere che tutto è inutile perché, come dicevano, le reti di Mediaset trasmettono un mondo intrinsecamente berlusconiano. Ci colpisce leggere, a tanti anni di distanza, Ross Douthat sul New York Times (del 21 marzo): “Quello che Cambridge Analytica fece per aiutare la campagna di Trump a spostare elettori (e c’è ragione di pensare che non fece tanto quanto pretende) non aveva nulla di neanche lontanamente paragonabile all’effetto dello tsunami #alwaysTrump sui canali televisivi, che probabilmente aggiunse più di 2 miliardi di dollari di reale pubblicità nella sua campagna durante le primarie”. Anche i social, come la televisione, “cattiva maestra”? Se avesse vinto Hillary ci sarebbe un simile accanimento contro Facebook? La pubblicità politica per ora è solo il 3 per cento del suo fatturato, anche se cresce rapidamente. E poiché la generazione di quelli che si informano sulla tv sparirà, in prospettiva rende di più prendersela con Facebook che con Fox; l’importante, secondo Douthat, è assicurarsi che “ai conservatori e ai populisti non sarà più consentito di usare gli stessi strumenti dei democratici e dei liberal”.
Nel caso Trump i social media non hanno alterato il corretto funzionamento del meccanismo democratico; che possano farlo anche in futuro è dubbio. Ma la sola eventualità è stata un pretesto per aggiungere un carico da novanta alle note critiche ai Big data: dal valore dei dati personali “venduti” a caro prezzo agli inserzionisti, alla posizione “monopolistica” della società, alla sua crescita in dimensione e valore, per finire con le tasse non pagate e il conseguente contributo alla disuguaglianza mondiale. Per questa ragione gli spillover della crisi di fiducia in Facebook possono essere gravissimi, e riguardare non solo i Big tech, ma noi tutti: noi viviamo nell’economia dei dati, dal saperla usare dipende già il nostro presente, ancor più il nostro futuro, non possiamo permetterci che idee sballate, anche se suscitate da fatti veri, generino diffidenze, resistenze, risentimenti mal posti.