Bruxelles vuole imporre il suo standard sull'Intelligenza artificiale
L’Ue propone un modello alternativo alla Cina, al riparo da sistemi di sorveglianza di massa. Rischi e ambizioni
La Commissione europea ieri ha lanciato la prima proposta al mondo per regolamentare l’Intelligenza artificiale con l’obiettivo di rafforzare la fiducia dei cittadini, spingere l’innovazione in Europa, inquadrare gli abusi e alla fine cercare di imporre uno standard per il settore al resto del mondo. Tra le misure più attese c’è il divieto per le autorità pubbliche di utilizzare sistemi di identificazione biometrica da remoto in tempo reale. “Non c’è spazio per la sorveglianza di massa nella nostra società”, ha detto la vicepresidente della Commissione, Margrethe Vestager.
Il modello che si vuole bandire è quello della Cina, dove un’immensa rete di telecamere e altri strumenti digitali permette alle autorità di identificare e controllare tutti i cittadini nello spazio pubblico. Ma il divieto dell’Ue non sarà assoluto. I sistemi di videosorveglianza associati all’intelligenza artificiale potranno essere dispiegati e utilizzati a posteriori dalle forze dell’ordine e dalla magistratura. Inoltre, la proposta della Commissione prevede l’uso in tempo reale e da remoto in situazioni di emergenza, come cercare bambini scomparsi, prevenire una minaccia specifica alla sicurezza fisica di persone o evitare un attacco terroristico.
Ma c’è un’altra eccezione che rischia di fatto di privare di efficacia il divieto. I sistemi di identificazione biometrica potranno essere utilizzati in tempo reale per tutti i reati contemplati dal mandato d’arresto europeo. Alcuni crimini sono particolarmente gravi come il terrorismo o la tratta di esseri umani. Altri, invece, ampliano la possibilità di usare la sorveglianza quasi all’infinito: traffico di stupefacenti, corruzione, frode, riciclaggio, criminalità informatica, truffa, favoreggiamento dell’immigrazione clandestina, razzismo e xenofobia. Per questi reati i sistemi biometrici potranno essere usati in tempo reale per localizzare, identificare o perseguire non solo un colpevole, ma anche un sospetto. Vestager ha assicurato che ci sono paletti, in particolare la necessità di un’autorizzazione dell’autorità giudiziaria o di un’autorità indipendente (ma anche in questo caso ci sono eccezioni) e di rispettare le regole sulla protezione dei dati personali. Il desiderio dell’Unione europea di porsi come modello alternativo alla Cina sull’AI si riflette anche nel divieto per le applicazioni che manipolano il comportamento umano o che consentono ai governi di attribuire un “punteggio sociale” ai cittadini.
In una serie di settori legati ai diritti delle persone, i sistemi di AI dell’Ue saranno considerati ad alto rischio e dunque sottoposti a obblighi stringenti prima di essere messi sul mercato. Ma forse, sulla sorveglianza di massa, la Commissione si fida un po’ troppo degli stati membri.