Tra fake news e intelligenza artificiale
Meno Sputnik più TikTok. Perché la Russia ora si affida ai cheap fake
Così gli attori ostili vogliono confusione, discordia e diffidenza nelle nostre istituzioni
La capacità della Russia di interferire effettivamente sui processi elettorali “dipende anche dalla nostra capacità di capire il fenomeno e il funzionamento delle operazioni di disinformazione”, dice Mattia Caniglia dell'Atlantic council. Uno studio appena uscito del DFRLab
Per minare l’unità dell’Ucraina e il sostegno internazionale al suo governo durante la guerra d’invasione da parte della Russia, Mosca ha usato qualunque tipo di mezzo ma è sulle informazioni online che ha ottenuto i maggiori successi. L’intelligenza artificiale, la diffusione del social cinese TikTok e il nuovo Twitter a guida Elon Musk non hanno fatto altro che aumentare la diffusione delle fake news russe e il loro obiettivo di manipolare l’opinione pubblica. Quando la paura dei bombardamenti non basta, i russi cercano di dividere gli ucraini avanzando dubbi sull’integrità degli esponenti del loro governo, dal presidente Volodymyr Zelensky in giù: a dicembre dello scorso anno è stata scoperta un’operazione di influenza russa su TikTok contro l’ex ministro della Difesa ucraino Oleksii Reznikov, definito come un corrotto, che usava circa 13 mila account e raccoglieva migliaia di visualizzazioni, sfruttando anche la facilità che il social cinese permette nello scaricare i video e ricondividerli su altre piattaforme. L’ultimo rapporto del Digital Forensic Research Lab (DFRLab) dell’Atlantic Council, "Sabotare l'Ucraina: come la Russia ha ampliato la sua guerra globale dell'informazione nel 2023", è uno spaventoso affresco di quello che può fare la disinformazione russa, non solo in paesi dall’ecosistema informativo fragile come Africa e America latina, ma anche in Europa e nei paesi del fianco orientale come Polonia e Moldavia, dove la propaganda spinge sul pericolo guerra in Transnistria.
Con la diffusione dell’IA, spiega al Foglio Mattia Caniglia, direttore associato del Laboratorio di ricerca forense digitale e uno dei più di quindici autori del report, “certamente sta aumentando la capacità e abbiamo notato un cambiamento”: i deep fake sono già utilizzati e lo saranno sempre di più anche in vista delle elezioni del 2024, ma la loro capacità di interferire effettivamente sui processi elettorali “dipende anche dalla nostra capacità di capire il fenomeno e il funzionamento delle operazioni di disinformazione”. Per ora online ci sono soprattutto cheap fake, fatti con tecnologie meno evolute, spiega Caniglia, perché “le motivazioni degli attori ostili non mirano per forza a imporre una certa verità nelle nostre società ma a creare confusione, discordia e diffidenza nei confronti delle nostre istituzioni democratiche”. E per fare questo non serve una IA particolarmente sofisticata, soprattutto in momenti di crisi come questo. Ma c’è un altro fattore da considerare, quando si tratta di contagio della disinformazione: se i social network hanno portato i costi della diffusione praticamente a zero, l’IA sta facendo diventare molto meno costosa anche la creazione dei contenuti. Russia e Cina stanno già sfruttando questa opportunità: “La Cina usa strumenti tech come l’IA e l’analisi dei big data per indagare sulle opinioni pubbliche dei paesi bersaglio e creare narrazioni altamente personalizzate”.
Dopo due anni di guerra, con i media ufficiali russi sempre meno diffusi nei paesi occidentali, Mosca si è concentrata sempre di più sui social come Telegram e TikTok per la sua disinformazione, “ma questo fa parte della strategia di personalizzazione del Cremlino, che a seconda dei contesti geografici e di come si struttura l’ambiente informativo adotta approcci diversi” – nel Sud del mondo, per esempio, ci sono ancora i media tradizionali e i media russi a magnificare Mosca.
L'editoriale dell'elefantino