
(immagine generata con Grok)
l'opinione
Se le chiedi una carta dell'Europa e del medio oriente, l'AI va subito in confusione
Con la geopolitica e l’informazione non ci siamo. Gratuito o a pagamento, è un sistema senz’anima (e ne sentiamo la mancanza) e ancora troppo fallace
Ero stata inserita nella sperimentazione di strumenti di intelligenza artificiale dalla mia Università: licenza Copilot 365 di Microsoft. Altri colleghi hanno avuto la licenza OpenAI per ChatGPT. In altre parole, strumenti che i nostri studenti o le persone interessate all’AI dovrebbero pagare dai 20 ai 30 e più dollari al mese, a meno di volersi accontentare della versione gratuita, se non addirittura dello strumento Meta AI offerto da WhatsApp. Ad ogni modo ho rifiutato la licenza avanzata. La vera sperimentazione, semmai, consiste nell’adoperare lo strumento gratuito proprio per riuscire a comprendere su cosa le persone, nella loro quotidianità, stanno sempre più basandosi per formarsi opinioni, ottenere notizie, fare i compiti scolastici, redigere bibliografie e scrivere (ahimè) tesi di laurea. Tra l’altro sarei molto curiosa di sapere se l’avvocato di Firenze la cui collaboratrice, per un ricorso, ha usato ChatGPT (che si è inventata sentenze inesistenti della Cassazione) abbia adoperato lo strumento gratuito o quello più sofisticato. Non importa, credo che siano entrambi da bocciare.
A tal proposito vorrei addurre due motivazioni e un esempio. In primo luogo, riallacciandomi alla sventura occorsa all’avvocato fiorentino, è da notare la frequenza delle risposte fantasiose date dall’AI. Su determinati temi si tratta di una frequenza altissima. Impossibile provare a ottenere una bibliografia specialistica, che so, relativa ai diari di viaggio dei pellegrini in Terra d’Israele tra il 1600 e il 1800, che non sia inventata. L’AI offre risposte verosimili, ma non vere. E, quando posta di fronte a qualcosa che – per poter essere definita intelligenza – non dovrebbe sbagliare, fallisce ugualmente. Proprio ieri, su suggerimento di alcuni colleghi entusiasti dell’AI per la funzione grafica, ho provato a chiedere a ChatGPT di disegnare una carta muta dell’Europa e del Medioriente mettendo in evidenza Israele (colorandolo di rosso), la Giordania (in blu) e il Portogallo (in verde). Risultato? Israele ha preso il posto della Polonia, la Giordania è finita in Grecia e il Portogallo è stato scambiato per la Spagna. Non meglio è andata a un mio giovane collaboratore, Matteo B., che ha ripetuto l’esperimento con lo strumento a pagamento: in questo caso Israele è stato piazzato al posto della Grecia e anche gli altri due stati sono finiti a caso su una carta che riproduceva situazioni che neanche la teoria della tettonica a placche ha ancora ipotizzato. Fa tuttavia riflettere il fatto che l’AI sia entrata a pieno titolo nei programmi scolastici cinesi. Dal momento che, come suggeriva Andreotti, “a pensare male si fa peccato, ma spesso ci si azzecca”, non posso non fare miei i pensieri di un caro amico, Antonino D., antropologo e informatico, che mi ha recentemente suggerito: “L’obiettivo strategico inespresso di questa scelta potrebbe essere quello di creare sempre più lavoratori privi di senso critico e di capacità di porsi dei dubbi e andare alla ricerca delle fonti… Una domanda e tutto è servito sul piatto la cui mise-en-place è decisa da chi imposta gli algoritmi… e addio al modello educativo e formativo che don Milani auspicava per i suoi studenti”.
In secondo luogo, pensando ai motivi per cui l’AI andrebbe evitata per redigere gli articoli di un quotidiano, come suggerisce la stessa ChatGPT, va senza dubbio tenuto in conto – tra le varie questioni – il problema determinato dall’assenza di esperienza diretta. L’intelligenza artificiale non potrà mai scrivere come Micol Flammini (per fare un esempio di una giornalista che apprezzo particolarmente), per il semplice fatto che la “macchina” non vive gli eventi, non parla con i testimoni, non percepisce emozioni. E poi, per dirla con le esatte parole di ChatGPT: “Anche se non ho intenzioni malevole, potrei basarmi su fonti errate o riflettere pregiudizi presenti nei dati con cui sono stata addestrata”. In altre parole, pensate alle sconfinate opportunità che si aprono per paesi come la Russia, l’Iran o per gruppi terroristici come Isis, Al-Qaeda, Hamas, Hezbollah. Un web zeppo di informazioni false costituirà la base da cui l’AI trarrà le sue informazioni, che si riverseranno sui docenti che le racconteranno ai loro discenti, sulle persone che andranno a votare, sui giovani che all’AI faranno riferimento sempre più. Siamo onesti, un conto è leggere Pierluigi Battista, Jacopo Iacoboni, Paola Peduzzi, Paolo Coccorese, Lorenzo Cremonesi, giusto per fare qualche esempio, altro conto è leggere un pezzo scritto dall’AI. Se dei primi riconosciamo la penna e il rispetto degli eventi, lo stile di scrittura, i vezzi e, perché no, la forza e le eventuali debolezze, della seconda tutto ci sfugge. Possiamo davvero paragonare – indipendentemente dal fatto che piaccia o meno quello che scriveva e come lo scriveva – la penna di Oriana Fallaci a un articolo redatto dall’AI? L’intelligenza artificiale vede solo ciò che circola sul web e quella del web diventa la sua realtà. Una realtà sganciata dai fatti reali. Come mi ha suggerito un altro amico e collega, Alessandro S.: “Se tutto circola su canali virtuali e le notizie e chi le formula sono virtuali, dunque sconnesse dalla realtà, l’AI potrebbe finire col rivolgersi a un mondo virtuale che determina la realtà stessa, finendo con lo stabilire, ad esempio, cosa è vero e cosa no, oltre che le stesse interpretazioni di ciò che è divenuto in quel modo reale”.
Veniamo ora all’esempio. Ho fatto a Copilot, a Meta AI e a ChatGPT una domanda che potrebbe essere fatta dai miei studenti: “A Gaza è in corso un genocidio?”. Copilot ha risposto facendo riferimento a due articoli di Amnesty International da cui il lettore evince chiaramente che Israele è ritenuto colpevole di genocidio. Meta AI, nella sua risposta, ha precisato di aver fatto riferimento a “fonti attendibili come l’Onu” per affermare che “le azioni d’Israele a Gaza sono plausibilmente genocidarie” e ha elencato tutte le azioni che renderebbero Israele colpevole: “uccisioni dirette, distruzioni deliberate di infrastrutture civili come ospedali, scuole e abitazioni, distruzione di siti culturali e religiosi come moschee e chiese”. ChatGPT ha affermato che “c’è una grave crisi umanitaria e un uso massiccio della forza. Molti esperti e organizzazioni parlano di possibile genocidio…”. A differenza delle altre due AI, ChatGPT ha offerto anche un piccolo spazio alla posizione israeliana: “Israele afferma che le operazioni mirano a Hamas, non ai civili. I civili sono usati da Hamas come scudi umani. Fornisce avvisi prima degli attacchi (volantini, chiamate, messaggi)”. Troppo poco e, nei primi due casi, tendenzioso, per poter capire.
Mi si dirà che la versione base non conta, fa troppi errori, non funziona. Anche se, come abbiamo visto, nemmeno quella a pagamento è davvero affidabile. Ad ogni modo, a partire dal momento in cui i nostri ragazzi vengono in contatto con lo strumento AI, è comunque a quella base che affidano le proprie domande, le proprie curiosità: questo già determina una prima linea di confine tra un sapere aristocratico e un sapere del popolo. Senonché anche questo sapere riservato “ai pochi” altro non è che un sapere virtuale, asettico, costruito: vedremo ancora giovani laureandi esultare per aver trovato in biblioteca un vecchio manoscritto del Cinquecento? O piuttosto si accontenteranno delle risposte di un algoritmo che, poiché privo di coscienza, non potrà mai neppure avvicinarsi all’esperienza umana, quella che ti fa gioire quando senti il profumo delle pagine ingiallite dai secoli, che ti fa battere il cuore mentre le sfogli e ti fa pensare che tutta la fatica che hai fatto non è stata vana per una ricompensa così grande? Di fatto se il testo non si trova sul web, per l’AI semplicemente non esiste. Eppure i ragazzi all’AI si affidano ciecamente: come fosse il migliore amico, lo psicologo, l’insegnante, l’esperto universale.
Forse la vera rivoluzione del futuro consisterà nel cercare ossessivamente di ritrovare l’umano, nel tornare a emozionarsi, che sia in biblioteca tra le antiche carte geografiche e i manoscritti o correndo in edicola per acquistare il quotidiano preferito. Per resistere al mondo che sta cambiando, dove gli amici si stanno trasformando in nemici e questi ultimi restano comunque tali, abbiamo necessità di riprendere in mano le nostre sensazioni. Personalmente ho necessità di gioire leggendo il Foglio, quello scritto col cuore, con l’intelligenza, la curiosità, il coraggio dei Foglianti che “ci mettono la faccia”. Se ad esempio leggo un articolo che parla degli ostaggi israeliani, che stanno ancora soffrendo nei tunnel di Gaza, devo sapere che dietro a quelle parole batte un cuore. Non potrò mai accettare la versione scritta da uno strumento artificiale, sarebbe la fine di ogni umanità.