Un Foglio internazionale
Da artificiale a disumana? Dubbi sull'IA
E se GPT-4 si convincesse che il mondo è minacciato dal cambiamento climatico provocato dall’uomo? La riflessione di Niall Ferguson sull'intelligenza artificiale
Ogni lunedì nel Foglio c'è Un Foglio Internazionale, l'inserto con le segnalazioni dalla stampa estera con punti di vista che nessun altro vi farà leggere, a cura di Giulio Meotti
Scrive Niall Ferguson su Bloomberg che non capita tutti i giorni di leggere una previsione di sventura così avvincente come quella di Eliezer Yudkowsky su Time la scorsa settimana. “Il risultato più probabile della costruzione di un’intelligenza artificiale sovrumana, in qualcosa di lontanamente simile alle circostanze attuali”, ha scritto, “è che letteralmente tutti sulla Terra moriranno”. Yudkowsky non è una Cassandra qualunque, scrive Ferguson. “Dirige il Machine Intelligence Research Institute, un’organizzazione senza scopo di lucro a Berkeley, in California, e ha già scritto molto sulla questione dell’intelligenza artificiale. Va ben oltre la lettera aperta firmata da Elon Musk, Steve Wozniak (il co-fondatore di Apple) e più di 15.000 altri luminari che chiede una pausa di sei mesi nello sviluppo dell’intelligenza artificiale. Ma la loro motivazione è la stessa di Yudkowsky: la convinzione che lo sviluppo di IA con capacità sovrumane in assenza di un quadro normativo rischi la catastrofe. Permettetemi di offrire una visione disinteressata. Non ho interessi in gioco. Non ho investimenti nell’intelligenza artificiale, né minaccia il mio sostentamento. La maggior parte dell’intelligenza artificiale fa cose che offrono vantaggi, non minacce per l’umanità. Il dibattito che stiamo avendo oggi riguarda un particolare ramo dell’IA: i modelli di linguaggio di grandi dimensioni (LLM) prodotti da organizzazioni come OpenAI, in particolare ChatGPT e il suo più potente successore GPT-4”.
Ferguson individua due pericoli. “Omogeneizzazione e perdita di diversità: una saturazione del mercato culturale con prodotti blandi e ripetitivi che fanno appello al minimo comune denominatore e scoraggiano l’innovazione e la sperimentazione. Manipolazione e inganno: i modelli linguistici di grandi dimensioni potrebbero essere utilizzati per creare contenuti ingannevoli o dannosi che sfruttano i pregiudizi, le emozioni e le preferenze umane. Ciò potrebbe includere notizie false, propaganda, disinformazione, truffe o incitamento all’odio che minano la fiducia, la democrazia e la coesione sociale. Consentitemi ora di offrire un’analogia diversa dalle armi nucleari e dalla guerra biologica. Più leggo di GPT-4, più penso che qui non stiamo parlando di intelligenza artificiale (cioè intelligenza sintetica simile a quella umana) ma di intelligenza disumana, che abbiamo progettato e addestrato per suonare in modo convincente come noi. Perché GPT-4 (o -5) potrebbe diventare trifido contro di noi? Perché gli stiamo fornendo tutti i dati del mondo, e molti di quei dati, dalle fonti più rispettabili, dicono che il mondo è minacciato dal cambiamento climatico provocato dall’uomo. L’ovvia soluzione a questo problema deve essere quella di decimare o sradicare completamente l’homo sapiens. Non producendo androidi assassini simili ad Arnold Schwarzenegger, ma usando il suo potere di imitarci e farci impazzire individualmente e collettivamente nella guerra civile. Non mi credete? Bene, che ne dite del padre belga di due figli che si è suicidato dopo aver parlato per settimane con un chatbot di intelligenza artificiale delle sue paure per il cambiamento climatico? Siamo già sulla buona strada per l’incubo di Raskolnikov alla fine di ‘Delitto e castigo’, in cui l’umanità impazzisce collettivamente e precipita in massacri intestini. Se ancora non riesci a prevedere come verrà utilizzato GPT-4 nel 2024 per ‘inondare la zona’ con contenuti deepfake, ti suggerisco di inviare un’email a Eliezer Yudkowsky. Ma assicurati solo che sia davvero lui a rispondere”.