Foto LaPresse

il Dibattito

Regolare l'odio senza aggredire la nostra libertà. È ora di trattare i Musk come i direttori di un giornale

Claudio Cerasa

Il governo di Keir Starmer propone l'Online Safety Act per contrastare gli odiatori online, ma il testo sembra pieno di forzature. I social e le leggi che non funzionano tra le fake news e le minacce alla libertà 

La domanda in fondo è semplice: regolare i social si può? E soprattutto, è giusto? La storia forse la conoscete. Il governo laburista guidato dal primo ministro Keir Starmer sta studiando, da giorni, alcune strategie per inasprire le normative sulla sicurezza di internet nel Regno Unito. Lo sta facendo per una ragione precisa: la disinformazione, secondo il governo, ha contribuito a scatenare l’ondata di proteste anti immigrazione. E come se non bastasse, il proprietario di X, Elon Musk, ha messo un carico da novanta sulle rivolte, scrivendo commenti incendiari in alcuni post scandalosi, visti da milioni di persone. Nel caso specifico, il Labour sta prendendo in considerazione una revisione dell’Online Safety Act, una legge che richiede ai giganti della tecnologia di prevenire la diffusione di contenuti illegali e dannosi sulle loro piattaforme. Il tema, naturalmente, non è nuovo e rientra all’interno di una problematica che da anni impegna le menti di molti legislatori europei. Sintesi della questione: esiste un modo per regolare i social, e difendere la nostra libertà, che non sia una minaccia alla nostra libertà?
 

Domande simili erano state poste già un anno fa quando l’Unione europea, attraverso un regolamento comunitario chiamato Digital Services Act, ha creato un meccanismo attraverso il quale sanzionare i social che scelgono di non cancellare messaggi e post che incitano alle rivolte o alle manifestazioni violente. Thierry Breton, il commissario uscente delegato al dossier, un anno fa spiegò la mossa europea con queste parole: “Quando ci sono contenuti odiosi, contenuti che invitano ad esempio alla rivolta, tra i quali anche chiamare per uccidere o bruciare auto (le piattaforme), avranno l’obbligo immediato di cancellarle. Se non lo fanno, saranno immediatamente sanzionate”. Un anno dopo, però, siamo ancora lì. E a un anno dall’entrata in vigore del regolamento per gli operatori designati – nonostante gli obiettivi del regolamento europeo siano nobili, imponendo trasparenza su algoritmi e pubblicità, lotta alla violenza online e alla disinformazione, protezione dei minori, stop alla profilazione degli utenti – non c’è uno standard condiviso su come operare.
 

Pochi giorni fa il Telegraph, ragionando su questo tema, si è posto alcune domande interessanti per illuminare una problematica reale che è insieme giuridica, culturale, politica e filosofica. La prima domanda è questa, e non è retorica: ma quando esattamente una dichiarazione di odio o di repulsione diventa incitamento? La seconda domanda è direttamente collegata: ma quando è che i limiti che vengono posti all’incitamento all’odio diventano limiti alla libertà di pensiero? L’odio, come abbiamo già avuto modo di scrivere sul nostro giornale, è un sentimento riprovevole, orribile, che nessuno dovrebbe alimentare. Ma l’odio fa parte della natura umana e uno stato di diritto di stampo liberale deve saper riconoscere anche il diritto a odiare, se questo diritto, per esempio, si limita a un pensiero o a un’opinione e non si traduce in atti concreti di violenza o minaccia.
 

Il passaggio successivo del ragionamento è evidente: per quanto si sia armati di buone intenzioni, restringere il perimetro normativo delle libertà di pensiero consentirebbe di mettere nelle mani di un soggetto terzo ogni discrezionalità interpretativa e trasformerebbe in un autore di potenziale reato chiunque manifesti in modo “odioso” le sue idee e le sue opinioni. Ovviamente, rispetto al caso inglese, è indubbio che esista un problema: la capacità delle false informazioni di diffondersi in modo sfrenato online pone oggettivamente delle gravi minacce alla sicurezza nelle nostre democrazie. E ovviamente storie scandalose, scabrose, odiose, essendo quelle che attingono alle nostre paure o ai nostri sospetti, sono più inclini di altre alla viralità, e di conseguenza gli algoritmi dei social media non possono che amplificare i post incendiari, anche se questi non vengono veicolati da Musk in persona. È comprensibile dunque che le autorità si chiedano cosa fare per evitare che i social media vengano utilizzati per diffondere bugie e fomentare rivolte. Ma è altrettanto saggio riflettere sul fatto che ci siano seri rischi per le libertà civili insiti in qualsiasi tentativo di reprimere le comunicazioni online, anche quelle più odiose.
 

Normare l’odio costringe a cercare criteri oggettivi per definire con certezza ciò che con certezza non si può definire e anche qui non ci vuole molto a capire che non sempre ciò che si considera immorale può automaticamente definirsi illegale. Scrive il Telegraph che ci sono molte cose che sono illegali – parcheggiare su una doppia linea gialla, per esempio – che quasi nessuno considererebbe immorali. Mentre, molte persone credono che l’adulterio sia immorale, ma pochissimi, al di fuori delle teocrazie, vorrebbero renderlo illegale. Per questo se accetti di trasformare in illegale ciò che consideri immorale, si apre un problema perché automaticamente stai scegliendo di considerare alcune libertà d’espressione più pericolose delle altre, creando le condizioni per dar vita a una polizia del pensiero, che messa nelle mani sbagliate può aggredire i valori non negoziabili di una democrazia, piuttosto che proteggerli. Alla base dell’attivismo dei legislatori nei confronti dei social network, ciò che li spinge ad agire in modo aggressivo contro di loro, vi è l’idea malsana che i social, essendo il centro della nuova agorà pubblica, debbano essere trattati come se fossero delle realtà pubbliche, e non private, che è lo stesso principio farlocco che ha portato l’Antitrust americano a sanzionare Google per abuso di posizione dominante, come se fosse sufficiente essere leader nel proprio settore privato per essere automaticamente dei monopolisti, e sulla base di questo principio i legislatori europei, e non solo loro, si sentono autorizzati a decidere con criteri discrezionali cosa possa essere pubblicato e cosa no.
 

Siamo sicuri sia la giusta via? Il governo laburista, nel prendere in considerazione una revisione dell’Online Safety Act, sta cercando un modo per chiedere alle società di social media di affrontare i contenuti illegali, ritenendosi responsabili di ciò che pubblicano, e questo ovviamente può avere un senso: la libertà di parola deve essere accompagnata dalla responsabilità, vietare gli account anonimi potrebbe essere per esempio un modo per provare a governare la rete, e senza responsabilità la libertà diventa anarchia. Nei media tradizionali, coloro che pubblicano informazioni sono completamente identificabili e affrontano gravi sanzioni finanziarie e persino penali se vengono scoperti a mentire. Basterebbe cancellare forse gli utenti anonimi, considerare i proprietari dei social come se fossero editori, rendere più semplici le cause contro di loro e ricorrere in tutti i modi a un principio semplice: la libertà senza responsabilità è solo anarchia e l’unico modo per combattere l’anarchia senza combattere la libertà è trattare i Musk e anche i suoi utenti come i direttori di un giornale che devono rispondere di ciò che finisce sulle proprie pagine. Gli algoritmi dell’odio, forse, si possono governare solo così.

  • Claudio Cerasa Direttore
  • Nasce a Palermo nel 1982, vive a Roma da parecchio tempo, lavora al Foglio dal 2005 e da gennaio 2015 è direttore. Ha scritto qualche libro (“Le catene della destra” e “Le catene della sinistra”, con Rizzoli, “Io non posso tacere”, con Einaudi, “Tra l’asino e il cane. Conversazione sull’Italia”, con Rizzoli, “La Presa di Roma”, con Rizzoli, e "Ho visto l'uomo nero", con Castelvecchi), è su Twitter. E’ interista, ma soprattutto palermitano. Va pazzo per i Green Day, gli Strokes, i Killers, i tortini al cioccolato e le ostriche ghiacciate. Due figli.