Cinema
L'IA può alterare la realtà e chi gira i documentari inizia a temerla
I registi e gli sceneggiatori temono l'intelligenza artificiale e lottano per riaffermare i valori della realtà e della verità di una produzione non-fiction. Alcuni esempi
Qualche fanatico animalista – più di uno, per la verità – vide la foto del regista Steven Spielberg seduto sulla carcassa del dinosauro: pensò che il bestione fosse ancora palpitante, appena abbattuto da un cacciatore cattivo, e partì lo shitstorm. La maggior parte dei twittaroli per fortuna capì che il mostro era meccanico, in gomma e ingranaggi, e cominciò a sfottere gli altri. Possiamo solo immaginare quanti guasti l’intelligenza artificiale produrrà nello scontro con la credulità naturale, nel settore “documentari”.
I neri con le divise naziste, e gli alti gradi, sono già su internet: ma un conto è trovare fotomontaggi in rete, dove sappiamo che esiste ogni cosa e il contrario di tutto, fino ai deepfake. Un conto sarebbe vederli in un documentario, che per statuto rende conto di fatti e di persone reali (per quelle inventate, e le creature fantastiche, c’è il cinema). Lo fa usando riprese dal vero e documenti d’archivio.
Questa è la regola. Ma già i documentari sulla natura di Walt Disney, tipo “Il deserto che vive”, non erano solo una macchina da presa puntata sullo scorpione e la sua preda. Per la ripresa giusta ci volevano ore di appostamento, e un bel lavoro di montaggio. Quando il leone insegue e magia la gazzella, non si preoccupa dei campi/controcampi a effetto.
I registi e gli sceneggiatori temono l’intelligenza artificiale, per questo hanno a lungo scioperato. I documentaristi sono più preoccupati: il cinema è finzione, il documentario dovrebbe riprodurre la realtà. Al festival di Camden si sono riuniti per definire le linee guida. Dicono: non vogliamo rifiutare le possibilità di una tecnologia che sta modificando tutte le forme di storytelling visivo. Vogliamo però riaffermare i valori giornalistici che la comunità dei documentaristi ha sempre rispettato.
In un mondo dove è già difficile distinguere tra una vera fotografia e una generata dall’intelligenza artificiale – non solo quando si tratta di immagini di fantasia, basta una bella ragazza che cammina – è indispensabile capire in che modo l’IA può influenzare la non-fiction. Dozzine di associazioni hanno sottoscritto le linee guida.
Il documentario ha a che fare con la verità, ribadisce Dominic Willsdon, direttore dell’IDA, International Documentary Association. L’intelligenza artificiale porta mutazioni profonde, alcune utili e altre dannose. Invece di respingerne l’uso in blocco, i registi sono invitati a rispettare i princìpi fondamentali. Il valore delle fonti primarie, la trasparenza, i problemi legali ed etici dietro le simulazioni di esseri umani.
Si può fare tutto, dal punto di vista tecnico. Dal punto di vista etico e legale no. Per esempio, non è ammesso il deepfake di Anthony Bourdain, con qualche frase mai pronunciata, in “Roadrunner” diretto da Morgan Neville. Per esempio, le foto artificiali spacciate per vere nel documentario “true crime” di Netflix “What Jennifer Did”. Gli esperti sanno dove guardare – per esempio l’attaccatura dei capelli, gli orecchini pendenti che non sembrano avere un orecchio da cui pendere. Il pubblico che vede le immagini in tv è facile all’inganno.
Certi trucchi si potevano fare già con le prime fotografie. Paul Auster scoprì una storiaccia di famiglia – la bisnonna aveva sparato al bisnonno – da una mano “di troppo” in uno scatto malamente tagliato e riacconciato. Le nuove tecnologie cercano di proteggere gli spettatori, almeno dai deepfake – simulazioni di individui. Ricordiamo però che c’è ancora gente che non crede allo sbarco degli americani sulla Luna. E certi film, come il recente “Fly me to the Moon” di Greg Berlanti, fanno di tutto per giocare sull’equivoco.