
Foto di Katja Anokhina su Unsplash
l'intervista
L'algoritmo non sa aprirsi all'inatteso. Noi umani invece, con i nostri errori… Parla Telmo Pievani
La distinzione tra intelligenza e pensiero. "Esistono molte intelligenze, naturali e artificiali, ma solo l’umana è creativa e consapevole. L’intelligenza artificiale, pur potenzialmente potente, resta priva di immaginazione" dice il filosofo-scienziato e professore all'Università di Padova
Telmo Pievani è uno dei più noti filosofi-scienziati italiani. Ordinario di Filosofia delle scienze biologiche a Padova, è anche Visiting scientist all’American Museum of Natural History a New York.
Professor Pievani dal suo punto di vista che unisce filosofia, biologia, evoluzionismo, nell’orizzonte del nostro dibattito sull’intelligenza artificiale, come vede lei la distinzione tra intelligenza (intesa come capacità di risolvere problemi) e pensiero (inteso come atto creativo puramente umano)? O meglio, ritiene che una tale distinzione sia possibile o che esistano solo intelligenze, al plurale, di diversa natura? Sul piano evolutivo, esistono solo intelligenze al plurale, di diversa natura adattativa. Ci sono molti modi di essere intelligenti nella biosfera e non è detto che il nostro sarà quello di maggiore successo (in fondo, siamo una specie giovane, nata al massimo 300 millenni fa in Africa). Comprendere il mondo dal punto di vista di un polpo con il suo cervello distribuito o di una megattera con i suoi canti non dev’essere niente male, ma non lo sapremo mai.
Detto ciò, è pur vero che in Homo sapiens a un certo punto, fra 75 e 60 mila fa, prima in Africa e poi in Eurasia, si manifesta una forma di intelligenza particolare, che solitamente chiamiamo “simbolica”, associata a un linguaggio articolato e sintattico come il nostro. Da quel momento in poi, nelle società umane della nostra specie vediamo comparire segni astratti incisi su pietra, arte rupestre, sepolture rituali, ornamenti del corpo, strumenti musicali, tecnologie più avanzate. Non sappiamo cosa sia successo (forse non un lento cambiamento biologico, ma una svolta culturale e cognitiva rapida), ma è probabile che lì sia nata la nostra capacità di immaginazione, di raccontare storie, di elaborare concetti astratti (compreso quello della propria mortalità), di inventare strumenti per fare altri strumenti, di essere pienamente coscienti di sé come soggetti autonomi. Insomma, quello che solitamente chiamiamo “pensiero”. A differenza della AI, la nostra è un’intelligenza incarnata, imperfetta, contingente, ci ha messo 3,8 miliardi di anni per emergere su questo pianeta. E non mi risulta per il momento che la AI, nemmeno quella generale, abbia acquisito la consapevolezza della propria morte. Al massimo, un giorno capirà che esiste un interruttore acceso-spento.
Si potrebbe dire che l’intelligenza artificiale sia “un’evoluzione” dell’intelligenza? Che sia un “salto evolutivo” di cui ancora non possiamo interamente vedere la portata? Se intendiamo l’intelligenza artificiale generativa, tipo ChatGpt e simili, non credo che si possa parlare di evoluzione di un’intelligenza alternativa. La usiamo tutti i giorni in laboratorio: è un’intelligenza bruta, muscolare, di calcolo, memoria e velocità. Cerca regolarità e correlazioni probabilistiche, attinge a un’enorme mole di informazioni, apprende per associazione, prende abbagli ovviamente, non ha intuito, buon senso, ironia, emozioni. Quella rimarrà sempre uno strumento ausiliario, un’integrazione alla nostra intelligenza umida. Discorso diverso riguarda l’intelligenza artificiale generale più recente, che non ha l’obiettivo solo di vincere a scacchi o scrivere un testo plausibile, ma di ragionare come noi. In linea teorica, a forza di addestramenti e valutazioni, quella potrebbe fare un salto evolutivo, programmare sé stessa e disallinearsi rispetto alle intenzioni dei suoi programmatori. Ma sarebbe comunque un’intelligenza disincarnata, senza carbonio, e non ci sono argomenti decisivi per poter dire che avrebbe volontà, desideri, finalità proprie e auto-coscienza. Anche se magari sarà in grado di simulare molto bene i nostri ragionamenti, da evoluzionista scommetterei che questa intelligenza avrà caratteristiche incommensurabili alle nostre, perché nell’evoluzione non si ripetono mai due volte gli stessi percorsi. In ogni caso, questo salto evolutivo non sembra essere dietro l’angolo. Nel frattempo stiamo facendo del nostro meglio per auto-distruggerci da soli, senza bisogno di un’AI maligna.
E’ pensabile una co-evoluzione ibridata tra naturale e artificiale (ammesso e non concesso che una tale distinzione si possa tracciare)? La distinzione fra naturale e artificiale è saltata da circa tre milioni di anni, da quando abbiamo iniziato a riempire il mondo di artefatti e a diventare dipendenti (anche biologicamente) da essi. In tal senso l’AI non è nulla di nuovo. Stiamo già co-evolvendo in condizioni ibride. Basti pensare alle protesi e ai chip che possiamo innestare ora anche nel cervello. Mi riferisco a quelli pubblicati sulle riviste scientifiche serie, validati dalla comunità scientifica, discussi nei congressi specialistici e con finalità terapeutiche, non quelli strombazzati sui social come Neuralink e propagande simili. L’evoluzione biotecnologica cyborg è già in corso. La libertà, nel suo strutturale procedere per tentativi (essere liberi ossia essere liberi di sbagliare), si può considerare sostanzialmente un qualcosa di dispendioso, di sostanzialmente errato, da eliminare da un punto di vista evolutivo, che potrà essere sostituito da un algoritmo via via più efficiente, fino a quasi non commettere più errori, fino a quasi a non avere più libertà (ma, in compenso, la massima efficienza)?
La libertà di sbagliare è indispensabile per l’evoluzione, che si nutre di mutazioni, deviazioni, differenze, divergenze. L’errore nella storia naturale (ma anche cognitiva) è generativo. Le specie e i sistemi più creativi in natura sono ridondanti, si portano dietro più cose di quelle che apparentemente servono. Questa ridondanza dà loro un margine di cambiamento, di innovazione. Al contrario, chi è troppo specializzato e perfetto solitamente è il primo a estinguersi al mutare delle circostanze ambientali. L’efficienza nell’evoluzione è un valore relativo. Il limite dell’algoritmo è che è programmato per svolgere un compito e raggiungere un fine. Non è serendipitoso, nel senso che non è capace di aprirsi all’inatteso, di scoprire qualcosa che non stava cercando. Infatti, di fronte a un errore umano irrazionale e imprevedibile, va in palla, non lo capisce, non è contemplato nel programma, non si rende conto di essere ignorante. Ma sono proprio quegli errori, quei compromessi, quelle soluzioni creative inaspettate che permettono a noi umani di comprendere che non sappiamo di non sapere, di scrivere una poesia, di formulare un’ipotesi geniale, di anticipare l’esistenza di entità che non abbiamo ancora osservato, di ridere di noi stessi, di avere buon senso. Il 26 settembre 1983 il colonnello Stanisláv Petróv vide un segnale che indicava un attacco atomico americano. Avrebbe dovuto schiacciare il bottone nucleare di risposta immediata, ma non lo fece. Pensò (azzardatamente) all’improbabilità intuitiva di un attacco americano con solo cinque testate e non schiacciò il bottone. Per fortuna, perché si trattava in effetti di un riflesso del sole sui satelliti russi, non previsto dai manuali. Il colonnello sbagliò, disobbedì, e salvò il mondo. Io temo che invece un’AI, anche molto avanzata, avrebbe schiacciato quel bottone. Perché dopo tutto deve rispettare il manuale di programmazione.


un dialogo artificiale
Un'AI che parla con i nostri genitori anziani: altro che “Black Mirror”
