bandiera bianca
L'intelligenza artificiale applicata alla Shoah rischia di far crescere il negazionismo
Un algoritmo progettato in Israele è stato utilizzato per trasformare in immagini il racconto di alcuni sopravvissuti. Ma come si fa a contrastare la teoria che l'Olocausto sia un falso creando dei falsi più o meno realistici?
L’obiettivo, naturalmente meritorio, è contrastare il negazionismo sulla Shoah con il supporto dell’intelligenza artificiale creando testimonianze più vere del vero: un algoritmo progettato in Israele è stato così utilizzato per trasformare in immagini il racconto di alcuni sopravvissuti, ormai anziani. Le foto sono state esposte al Palazzo della Cultura di Ashkelon, nonostante qualcuno abbia protestato perché i fenotipi ritratti non somigliano agli ebrei di quel periodo, o perché i soggetti sembrano troppo pasciuti, o anche perché la raffigurazione algoritmica è troppo asettica, priva di empatia. Tutte obiezioni ragionevolissime, che però sembrano ciccare il punto più rilevante: come si fa a contrastare la teoria che la Shoah sia un falso creando dei falsi più o meno realistici? Non si rischia di ingenerare ulteriore confusione? Di prestare il fianco a chi direbbe che anche tutte le altre testimonianze incontrovertibili sono in realtà state fabbricate da avanguardistiche intelligenze artificiali?
Per la Giornata della Memoria un vecchio professore universitario milanese, Aurelio Ascoli, è tornato per la prima volta nella scuola elementare da cui era stato cacciato per le leggi razziali, ottantacinque anni fa. I bambini lo hanno accolto con palloncini, disegni e marshmallow; senza bisogno di algoritmi né di finzioni verosimili né di illusioni ottiche, lo hanno abbracciato perché hanno visto in quel signore novantenne il bambino uguale a loro.