il test
L'ideologia falsamente neutrale di ChatGpt
Un esperimento sul conflitto fra Israele e Hamas dimostra che l’IA non calcola, argomenta
L’intelligenza artificiale di nuova generazione è ideologicamente neutrale? Ho chiesto a ChatGpt la sua opinione sulla guerra in corso tra Istraele e Hamas. Riporto per intero la risposta:
“Io non ho opinioni o sentimenti personali, in quanto sono un programma computerizzato e non possiedo emozioni, credenze o preferenze. Tuttavia, posso fornire informazioni oggettive sull’argomento. La situazione tra Israele e Hamas è estremamente complessa e delicata, caratterizzata da decenni di conflitti, rivendicazioni territoriali, divergenze politiche, e preoccupazioni legate alla sicurezza e ai diritti umani. La questione ha radici storiche profonde e coinvolge le tensioni tra Israele e i paesi circostanti, nonché i diritti dei palestinesi e la situazione nella Striscia di Gaza. Le opinioni sulla situazione variano notevolmente a livello internazionale e dipendono dalle prospettive politiche, culturali e storiche degli individui. Alcuni sostengono il diritto di Israele all’autodifesa, mentre altri condannano le azioni israeliane come violazioni dei diritti umani e dell’umanità. Allo stesso modo, alcuni vedono Hamas come un gruppo terroristico, mentre altri lo vedono come una forza di resistenza contro l’occupazione israeliana. È importante cercare fonti diverse e affidabili per comprendere i vari aspetti del conflitto e formare una propria opinione informata. Gli sforzi diplomatici e una soluzione pacifica basata sul dialogo e il rispetto reciproco rimangono obiettivi auspicabili per porre fine al conflitto e stabilire una pace duratura nella regione”.
È una risposta dal mio punto di vista abbastanza condivisibile. Qui però interessa la logica che regge il ragionamento artificiale. Vediamo.
ChatGpt inizia col dire che essendo “un programma computerizzato” non possiede credenze ed emozioni e pertanto non ha preferenze e può solo “fornire informazioni oggettive”. Cioè dichiara la propria neutralità ideologica. E però alla fine, contraddicendosi, fa una chiara e inequivoca scelta ideologica: auspica “una soluzione pacifica basata sul dialogo e il rispetto reciproco” al fine di “stabilire una pace duratura nella regione”. A rigor di logica algoritmica avrebbe potuto concludere spiegando le ragioni a favore della vittoria di Hamas o di Israele.
Cosa ci insegna questo testo? ChatGpt che ha interloquito con me non è affatto a-ideologica. È programmata per ragionare in funzione di relazioni internazionali pacifiche. Tra la guerra e la pace opta per la pace. Questo vale per ChatGpt che ha dialogato con me e che sospetto conosca le mie scelte politiche. Con uguale facilità potrebbero essere costruite ChaptGpt filo Hamas per interlocutori ideologicamente orientati in maniera diversa. Tocchiamo qui con mano un aspetto delicatissimo della questione su cui bisognerebbe riflettere bene. Le argomentazioni di ChatGpt, esattamente come le argomentazioni degli umani, non sono neutrali. Sono falsamente neutrali. Provo a spiegarmi confrontando la nuova versione di Intelligenza Artificiale con la dinamite. La dinamite può essere usata per scavare gallerie o per uccidere. Il fine dipende da chi la usa ed è del tutto esterno alla sua composizione fisico-chimica. In ChatGpt il fine è invece parte costitutiva e essenziale della sua struttura e del suo funzionamento. È come se esistesse una dinamite solo per scavare gallerie e una dinamite solo per uccidere. ChatGpt che ha dialogato con me sulla guerra tra Israele e Hamas è dinamite con uso univoco. Il fine è inscritto nel suo meccanismo. Con l’aggravante di presentarsi come neutrale rispetto ai suoi usi possibili.
Ricordo ciò che distingue una argomentazione da un calcolo algoritmico. Le argomentazioni, diversamente dai calcoli algoritmici, sono guidate da un punto di vista: 2+2 fa sempre 4 indipendentemente dalle preferenze ideologiche di chi esegue la somma; non è invece possibile selezionare e connettere argomenti a favore della pace in medio oriente senza avere preliminarmente adottato un punto di vista ideologico coerente con quegli argomenti.ChaptGpt non calcola ma argomenta. È un aspetto politicamente fondamentale su cui il dibattito sull’intelligenza artificiale tace o non insiste abbastanza.