In America
Perché le IA non sanno creare una Kamala somigliante a com'è nella realtà
Per motivi di sicurezza, ChatGPT e Google Gemini non possono generare foto della candidata democratica, ma Grok di Elon Musk può farlo. Il risultato però è sbagliato
Quando all’inizio del mese Elon Musk pubblicò un’immagine generata con l’intelligenza artificiale della vicepresidente statunitense Kamala Harris nei panni di una dittatrice comunista, con la giubba militare rossa, la falce e il martello, a stupire furono diverse cose. Il fatto in sé, innanzitutto, specie per chi non era abituato alla deriva psicotica del feed di Musk, ma anche la scarsa somiglianza della Kamala raffigurata con l’originale.
Cercando online, infatti, è facile trovare immagini generate con le intelligenze artificiali in cui Harris ha un aspetto strano, poco riconoscibile: connotati totalmente diversi, vaghe somiglianze con l’attrice Eva Longoria, il colore della pelle più scuro. Questo, ovviamente, se e quando si riesce a generare foto della candidata con le IA, visto che ChatGPT e Google Gemini si rifiutano di farlo per motivi di sicurezza. Basta però virare su Grok, l’IA di X voluta da Musk stesso, per generare Kamala d’ogni tipo, e raramente fedeli all’originale.
Il tutto risulta ovviamente ancora più interessante se si tiene conto della facilità con cui servizi simili rappresentano invece Donald Trump, generando immagini che spesso è Trump stesso a condividere sul suo social, Truth Social. Al netto di alcune differenze – soprattutto sulla linea fisica, spesso longilinea e muscolosa – però Trump è più riconoscibile. Il ciuffo, il colore dei capelli e della pelle. L’inevitabile cravatta rossa lunga o il cappello rosso Maga.
Secondo una ricostruzione di Wired, sarebbe difficile risalire al motivo di questo doppio standard tra candidati alla Casa Bianca. La prima causa possibile sarebbe legata ai pregiudizi delle IA, argomento discusso da tempo: siamo infatti portati a pensare che i software siano neutrali, giusti e perfetti, ma sono fatti di linee di codice scritte da esseri umani. Tendenzialmente maschi, benestanti, occidentali, e così via. I pregiudizi delle IA sono una vecchia conoscenza del settore, il motivo per cui alcuni sistemi di riconoscimento facciale, per esempio, non riconoscono le persone di colore, perché programmate con fotografie che riflettono i pregiudizi della società.
Un’altra spiegazione del mestiere delle IA e Harris porta al materiale di partenza che è stato utilizzato per “allenare” i modelli linguistici che animano le IA. Nonostante Harris sia un personaggio noto e fotografato, infatti, il suo avversario Trump circola da circa quarant’anni nei media americani: sull’archivio di Getty Images risultano circa 63 mila foto di Harris, contro le 561 mila di Trump. Grok – o chi per esso – ha quindi gioco facile a rappresentare il secondo, potendo trarre ispirazione da migliaia di esempi. C’è poi una terza possibile spiegazione, forse la più semplice: queste immagini di Harris vengono anche fatte male apposta, per rendere la politica più scura, esagerarne le forme e darle un aspetto poco credibile.
Comunque sia, il realismo non è l’obiettivo delle IA applicata alla politica. I ritratti di Trump possono anche risultare un po’ più realistici ma vengono comunque sfruttati a fini di propaganda in modi incredibili: nei giorni scorsi l’ex presidente e candidato alla Casa Bianca a novembre ha pubblicato alcune immagini generate con le IA in cui lo si vede circondato di cuccioli e gattini che sta “salvando” da orde di immigrati – un riferimento alla bufala razzista da lui raccontata durante il dibattito di questa settimana su migranti di Haiti che mangiano cuccioli di animali domestici.
Altre immagini simili lo ritraggono in mezzo a folle di persone nere che lo applaudono, a voler sottolineare il grande consenso del candidato anche al di là dell’America bianca. Per arrivare alle foto condivise da Trump ad agosto dalle quali pareva che Taylor Swift votasse per lui – un falso che è stato ricordato dalla stessa Swift pochi giorni fa, quando ha annunciato che voterà per Harris.
Tuttavia, non è solo disinformazione. Secondo il giornalista Charlie Warzel dell’Atlantic, l’estetica delle immagini generate con le IA, con quei colori saturi, le superfici lucide e il senso di irrealtà che le pervade, sta diventando l’estetica stessa del movimento trumpiano: “Piuttosto che scrivere qualche frase lamentandosi dell’età di Biden o ridicolizzando le politiche economiche di Harris, gli account dell’estrema destra possono illustrare i loro attacchi e attirare maggiore attenzione”.