tech nell'urna
I limiti del piano di OpenAI per contenere le fake news alle elezioni
Nel 2024 si vota in diversi paesi (non solo negli Stati Uniti). E l'azienda sviluppatrice di ChatGPT ha presentato una serie di iniziative per rendere i suoi servizi più sicuri
Le elezioni presidenziali statunitensi si avvicinano e OpenAI vuole arrivarci preparata, evitando di esporsi agli scandali che hanno interessato le aziende del Big Tech dopo il 2016. Lunedì scorso l’azienda sviluppatrice di ChatGPT ha presentato una serie di iniziative per rendere questi servizi più sicuri: nel 2024, si voterà anche in Regno Unito, Messico, India e Russia, tra gli altri, in quello che l’Economist ha definito l’anno con più elezioni di peso nella storia.
OpenAI vuole fare il suo, quindi, pur mettendo le mani avanti e precisando che “proteggere l’integrità delle elezioni richiede la collaborazione di ogni angolo del processo democratico”. Tra le prime iniziative a difesa del voto, l’azienda ha annunciato che non permetterà agli sviluppatori e agli utenti di creare chatbot programmati per imitare il tono e lo stile di candidati o istituzioni governative. Non sarà nemmeno possibile usare ChatGPT (o DALL-E, un servizio che genera immagini e video) per screditare l’importanza del voto o dare informazioni errate sulla registrazione al voto, tema particolarmente caldo negli Stati Uniti.
Al centro dell’attenzione ci sono i deepfake, le immagini generate artificialmente che circolano da tempo online. OpenAI ha annunciato l’adozione degli standard della Coalition for Content Provenance and Authenticity (C2PA), pensati per aiutare utenti, giornalisti e creator a rintracciare l’origine di un contenuto e determinare se è stato generato da una IA. Per farlo, si utilizza del codice che viene associato al contenuto, dandogli delle “credenziali”. Lo standard verrà utilizzato in tutte le immagini prodotte con DALL-E 3, la terza versione della IA, ed è già stato adottato da Adobe, Sony e Microsoft (che ha un ruolo di peso all’interno di OpenAI).
Non è dato sapere se tutto questo basterà: OpenAI sta ancora cercando di capire “quanto i nostri strumenti possono essere efficaci nella persuasione personalizzata”. Nel frattempo, su X circolano immagini false d’ogni tipo: ieri, il ministero degli Esteri russo ha pubblicato un fotomontaggio in cui il presidente ucraino Zelensky sembrava avere un tatuaggio con scritto “Dio non esiste” sulla mano. Serve forse DALL-E per produrre un falso simile? No, anche se c’è chi ci prova, come dimostrano le molte immagini generate artificialmente in cui Donald Trump e Martin Luther King sembrano abbracciarsi amichevolmente.
Quanto a OpenAI, non è l’unica a proporre servizi simili e ad aver preso precauzioni. Lo scorso dicembre Google ha ristretto il numero di domande a cui Bard, il chatbot dell’azienda, può rispondere sui temi legati alle elezioni. Dalla fine del 2023, inoltre, gli inserzionisti pubblicitari di Meta devono dichiarare se e quando le immagini usate nelle pubblicità sono state generate artificialmente (il loro contenuto viene conservato in una “Libreria inserzioni” accessibile a chiunque online per sette anni). Anche MidJourney, servizio molto diffuso nella produzione e trasformazione di immagini, ha aggiunto una postilla alle sue condizioni d’uso, vietandone l’utilizzo per “influenzare il risultato di un’elezione”. Sono tutte decisioni lodevoli e necessarie, eppure il sospetto è che sia troppo poco e soprattutto troppo tardi.
Quanto alle credenziali con cui etichettare le immagini generate dalle IA, ci sono ancora dubbi sulla loro efficacia, visto che le stesse aziende del settore fanno fatica a riconoscere i contenuti prodotti dai loro strumenti. Pensiamo a OpenAI, che lo scorso anno ha presentato e ritirato in fretta e furia un software che doveva essere in grado di riconoscere i testi generati da ChatGPT, e che si è rivelato inattendibile.