Buone leggi contro l'odio online
Le società web non sono meri vettori di contenuti, ma lo stato non è un censore. Ci scrive il ministro della Giustizia
Alcuni spunti di una conversazione tra me e il direttore Claudio Cerasa hanno riacceso un dibattito molto ampio, e a mio avviso utile e interessante, sui problemi connessi allo sviluppo dell’uso dei social media. Il primo a intervenire con una lettera molto ficcante è stato il sottosegretario Antonello Giacomelli. Ammetto di non avere le stesse conoscenze degli “over the top”, di Cupertino, e in generale della rete, del sottosegretario Giacomelli. Non credo però che lo scarto, almeno quello apparente, tra i nostri approcci dipenda da questo. Giacomelli si è occupato di rete in generale, delle sue indubbie potenzialità, del valore economico che ha progressivamente assunto. Io, così come gli altri ministri della Giustizia Ue, mi sono imbattuto nel tema affrontando le questioni del terrorismo jihadista e della propaganda d’odio. In questi anni, infatti, si è evidenziato come la rete sia uno dei veicoli principali della propaganda d’odio, vero e proprio innesco dei processi di radicalizzazione violenta e insieme uno degli strumenti principali d’incitamento terroristico. Il problema è che le leggi, tutte, sono di difficile applicazione in un contesto come quello dei social network e della rete. E’ difficile per le autorità competenti intervenire.
Per il numero dei contenuti, per l’incertezza delle competenze, per l’indeterminatezza degli autori e infine per la velocità con la quale si diffondono a livello virale e permangono sul web. Gli strumenti della giurisdizione da soli non riescono a far fronte all’insieme degli illeciti che si realizzano sulla rete. E’ per questa ragione che si è chiesto la collaborazione delle piattaforme. E’ lo stesso tipo di collaborazione che la legge chiede, nel mondo reale, ai gestori dei servizi di rilevanza pubblica, cioè di cooperare con la giustizia allo scopo di prevenire e contrastare i fenomeni illeciti. Su pressione di Italia e Germania, la Commissione europea ha costruito una prima cornice continentale di cooperazione con le principali società di servizi informatici (Facebook, Twitter, Youtube e Microsoft). A Maggio del 2016 è stato varato un codice di condotta con un elenco di impegni per combattere la diffusione dell’illecito incitamento all’odio online. Con la firma del codice di condotta, le aziende informatiche si sono impegnate a perseguire l’obiettivo di contrastare qualsiasi illecito incitamento all’odio online, attraverso l’elaborazione di procedure volte a esaminare entro le 24 ore i contenuti d’odio segnalati e a rafforzare il rapporto con la società civile, al fine di sviluppare adeguate contro-narrazioni.
Per assicurare una efficace misurazione dei progressi, il 5 ottobre 2016 il sottogruppo della Commissione sulla lotta all’illecito incitamento all’odio online ha stabilito una metodologia comune per la valutazione delle reazioni delle società informatiche, a seguito della notifica dell’illecito incitamento all’odio. Per 6 settimane 12 organizzazioni con base in 9 diversi stati membri (Italia, Austria, Belgio, Danimarca, Francia, Germania, Paesi Bassi, Spagna e Regno Unito) hanno applicato questa metodologia. Le organizzazioni hanno notificato il presunto illecito incitamento all’odio online (così come definito nei codici penali nazionali di recepimento della Decisione Quadro) alle società di servizi IT e hanno utilizzato un template convenuto di comune accordo, al fine di registrare i tassi e i tempi delle rimozioni come risposta alle notifiche. I risultati indicano che su 600 segnalazioni il 28 per cento portano a una rimozione dei contenuti. Solo il 40 per cento di tutte le risposte sono state ricevute entro le previste 24 ore, arco temporale entro il quale le segnalazioni andrebbero riviste. Inoltre, i primi mesi di applicazione hanno mostrato una controversia su cosa si debba intendere per hate speech al fine della rimozione da internet. L’industria di settore mantiene un atteggiamento più restrittivo rispetto alle ong.
L’esercizio di monitoraggio è un processo continuo. Tali dati iniziali costituiscono un punto di riferimento e una prima indicazione preziosa della situazione corrente. Un secondo ciclo di monitoraggio verrà svolto durante il 2017 per osservare le tendenze. Questa esperienza denuncia una tensione costante tra esigenza di intervenire a tutela dei soggetti vittime di hate speech e la tutela dell’autonomia (ma anche dei profitti) delle piattaforme. Ed è tenendo conto di questa tensione che esiste tra due istanze, entrambe reali e meritevoli di tutela, che credo ci si debba muovere. In questo senso ho parlato di responsabilizzazione delle piattaforme, che non possono considerarsi soltanto dei meri vettori dei contenuti. In questo senso dico che si può e si deve chiedere loro di più. E lo si può fare non sulla base di una generica delega, ma come sino a qui è stato fatto, utilizzando e armonizzando i criteri che i paesi dell’Unione si sono dati per il contrasto a questo fenomeno.
Le stesse piattaforme si stanno ponendo il problema, sicuramente per ragioni etiche, ma anche perché, credo, avvertono il rischio che vi siano luoghi della rete progressivamente “impraticabili” per fasce crescenti di utenti. All’esigenza, da me segnalata, di responsabilizzare di più le piattaforme è stata formulata l’obiezione che delegare questa attività di controllo assegni una funzione di censura impropria e non fondata su criteri oggettivi. E’ vero esattamente il contrario. Senza un patto tra stati e piattaforme saranno queste, come in parte si sta già avverando, a decidere cosa è e cosa non è corretto pubblicare. La censura si svilupperà per esigenze commerciali se la democrazia, se le democrazie non sapranno far vivere le loro regole anche nella rete. Non soltanto non vedo nella California tecnologica e liberale “il male assoluto”, come pure qualcuno ha voluto addebitarmi, ma segnalo che la riflessione su come contenere un uso violento dei social nasce proprio da là.
Nessuno rimpiange le vecchie gerarchie che la rete ha dissolto. E in ogni caso siamo tutti consapevoli che non torneranno. Non mi rassegno però all’idea che le nuove si debbano basare sull’odio e la manipolazione, esattamente come molte di quelle al tramonto, ma con l’accentuazione dovuta all’immediatezza. Sono poi convinto che la Brexit, la sconfitta della Clinton e del Sì al referendum abbiano radici ben più profonde di quelle che si cercano nella rete. Si trovano nella politica e nella società. Non per questo ritengo che giovi alla rete stessa consentire a chi vuole utilizzarla contro la nostra sicurezza e la nostra convivenza civile, di farlo. L’insidia che il rapporto tra società della rete e stati, reso necessario da esigenze di sicurezza e di tutela della persona, possa tralignare verso forme di restrizione delle libertà, esiste. Come esiste ogni qualvolta un potere pubblico interviene per tali finalità. Tuttavia non vedo questo rischio se il processo avviato sarà pubblico, trasparente e costantemente sottoposto al controllo delle opinioni pubbliche e della società civile. Non a caso, la Commissione ha voluto rendere quest’ultima protagonista del monitoraggio. La questione si è posta in modo drammatico con il terrorismo, ma si pone anche in termini più generali.
La rete è una, istantanea, globale. Gli ordinamenti restano divisi e lenti, rinchiusi nei vecchi confini. E questo può far diventare la rete un luogo dove le regole di tutela della persona, che valgono nel mondo reale, restano sospese. Le conseguenze sono gravi. Soprattutto per coloro i quali non possono difendersi da soli, quelli che vengono ogni giorno discriminati nel mondo reale e che, in assenza della cogenza della legge, rischiano di esserlo doppiamente in quello virtuale. La censura, siamo d’accordo, non è la via. Ma neppure la rassegnazione. E’ necessario porsi il tema se tra luddismo e ingenua (a talora colpevole) ammirazione a ogni cambiamento globale non ci sia lo spazio per recuperare una visione critica del mondo, la capacità di leggere le opportunità e insieme i limiti che ogni innovazione comporta. Diversamente il rischio è quello di una crescente subalternità all’esistente. Un elemento che forse, questo sì, può essere una chiave di lettura per interpretare gli esiti delle consultazioni elettorali e referendarie richiamate. Quasi due secoli fa ci hanno messo in guardia rispetto al fatto che “non tutto ciò che è reale, è razionale”. Il rischio è, infatti, quello di non essere compresi da coloro i quali subiscono l’irrazionalità di questo reale. Parlo distintamente di fake news e post verità, perché indubbiamente, rispetto al tema dei messaggi contenenti propaganda d’odio, risulta un terreno ancora più sdrucciolevole. Ma parto da un punto di contatto tra i due fenomeni.
Ci sono notizie che formano il substrato per la propaganda d’odio. Leggende nere costruite su falsi che mirano a screditare minoranze religiose, etniche, culturali o orientamenti sessuali. Questa dinamica (di cui mi interessa affrontare questo specifico aspetto) non si contrasta con verità di stato, che rischiano di essere rimedi peggiori del male. La via, a mio avviso, è quella della costruzione degli anticorpi necessari a reagire sulla rete. E’ vero che il problema è sempre esistito, ancor prima dei “Protocolli dei savi di Sion”. E’ altresì vero, però, che la rete produce effetti immediati nell’opinione pubblica e determina una asimmetria tra chi diffonde le notizie e chi ne è vittima, perché si moltiplica all’ennesima potenza la regola secondo la quale è assai più letta una notizia falsa (e talvolta è esattamente questa la ragione per cui la si scrive) che la sua smentita. Gli anticorpi a cui mi riferisco sono la capacità di reazione sulla rete dei soggetti più frequentemente colpiti da questo tipo di notizie. Con l’Unar (Ufficio nazionale antidiscriminazioni razziali) stiamo cercando di percorrere questa strada: stimolare la nascita di soggetti non pubblici che siano in grado di monitorare e smentire quando necessario le notizie false, funzionali alla propaganda d’odio.
Le associazioni coinvolte hanno aderito positivamente alla nostra sollecitazione, che può essere soltanto tale. Qualunque soggetto governativo dovesse cimentarsi direttamente in questo campo non potrebbe che suscitare sospetti e illazioni e determinare il rischio effetti distorti e censori. Il compito dello stato dunque non può che consistere, a mio avviso, nel supporto ai soggetti colpiti dalle notizie false o distorte. Se la rete è ormai uno dei luoghi principali del conflitto e della dialettica democratica la risposta più efficace, autorevole e tempestiva non può essere quella della criminalizzazione. Il compito degli stati, nel confronto con i soggetti che agiscono nella rete, è quello di dare confini certi a questo campo di gioco e al contempo aiutare i soggetti più deboli a reagire e a difendersi, utilizzando la potenza stessa del web. Per aiutare i cittadini a discernere, la cosa migliore che possiamo fare è consentire che la lotta che si svolge nel web, spesso tra vero e falsa, sia giocata ad armi pari.
Andrea Orlando è ministro della Giustizia