In America si comincia a vietare i “deepfake”, i falsi dell'intelligenza artificiale
Una legge in Virginia proibisce la creazione di video finti ma realistici. Il problema politico in vista delle elezioni
Milano. Lo stato della Virginia, negli Stati Uniti, è diventato il primo a far entrare in vigore una legge contro l’uso dei deepfake, e in particolare contro l’utilizzo della tecnologia per la produzione di pornografia non consensuale. Deepfake è una tecnologia basata sull’intelligenza artificiale che consente di creare (in maniera relativamente facile) dei video finti ma realistici. Per esempio: un video in cui Barack Obama dice di aver votato per Donald Trump alle elezioni del 2016, o un video in cui Vladimir Putin dichiara guerra alla Cina. La tecnologia, quando applicata bene, consente una manipolazione dell’immagine video quasi perfetta, e un’aderenza totale al labiale delle parole. Non stiamo parlando di ricostruzioni in 3D: deepfake è una tecnica di manipolazione di video reali, è come usare Photoshop sulle immagini in movimento.
Visto che stiamo parlando di cultura di internet, la prima cosa che gli utenti online hanno deciso di fare quando si sono trovati tra le mani una tecnologia come deepfake è stata, ovviamente, la pornografia. Proprio come si può fare un video in cui Vladimir Putin dichiara guerra alla Cina, allo stesso modo è possibile trasformare il presidente russo nel protagonista di un video pornografico, per la gioia di tutti i fan delle sue cavalcate a petto nudo. Lo stato della Virginia ha messo al bando questo tipo di video con un emendamento alla sua legge sul revenge porn, per evitare che un qualche programmatore dal cuore spezzato decida di fare un deepfake con la sua ex fidanzata. La pena massima è di 12 mesi di carcere.
È facile capire che la preoccupazione per queste tecnologie sia grande. La scorsa settimana ha provocato scandalo, per esempio, il lancio della app DeepNude, che usa una tecnologia simile a deepfake per modificare fotografie di donne in modo da farle apparire completamente nude (soltanto donne, lo sviluppatore è un maschio, e se si usa DeepNude con la foto di un uomo il sistema gli applica dei genitali femminili). La app è stata ritirata dal mercato nel giro di pochi giorni, ma la tecnologia è facile da riprodurre.
La legge della Virginia è la prima a entrare in vigore e riguarda la pornografia, ma la tecnologia deepfake è anche un problema politico. Immaginate come potrebbe essere tra un anno la campagna elettorale americana se sarà possibile diffondere indiscriminatamente video algoritmici e falsi in cui Donald Trump promette lo sterminio dei neri ed Elizabeth Warren l’instaurazione dei soviet. Lo stato del Texas, per esempio, ha già approvato una legge (che però deve ancora entrare in vigore) che qualifica come reato criminale la “fabbricazione di video ingannevoli con l’intento di influenzare il risultato di un’elezione”. A New York i legislatori locali hanno proposto una legge che vieta la creazione di “repliche digitali” delle persone – la definizione è così ampia che le major di Hollywood si sono preoccupate. E al Congresso di Washington è depositato almeno un paio di disegni di legge sia da parte di repubblicani sia da parte di democratici che cercano di regolamentare la tecnologia deepfake.
Anche le piattaforme sono preoccupate. Facebook è uscito da poco dallo scandalo del video falso di Nancy Pelosi, in cui la speaker della Camera sembrava ubriaca. Il social network ha deciso di non cancellare il video per non ledere la libertà d’espressione, ma il crinale etico è molto stretto. In Europa, per ora, il problema è meno sentito e le proposte legislative ad hoc sui deepfake sono scarse, e questo significa che le possibilità di uno scandalo politico generato dall’intelligenza artificiale sono piuttosto alte.