l'AI sui banchi di scuola

Antonio Gurrado

Il mondo dell’istruzione osteggia o ignora l’intelligenza artificiale, senza capire il senso quasi metafisico dell’“input”, della giusta domanda da fare alla macchina: superare il nozionismo e capire il perché delle cose

L’AI non è soltanto formidabile nel comporre un quotidiano, come dimostra l’esempio che da qualche settimana avete per le mani; è anche così brava a scuola da poter conseguire senza particolari patemi titoli di studio tradizionalmente riservati agli esseri umani. Già a inizio 2023 Christian Terwiesch, co-direttore del Mack Institute for Innovation Management di Philadelphia, ha condotto un esperimento in cui un’AI generativa si è presentata all’esame per un MBA, uno dei più prestigiosi titoli post-laurea nel settore della formazione manageriale: l’AI si è dimostrata in grado di comprendere i casi di studio e trarne conseguenze, con risposte corrette e spiegazioni eccellenti, salvo incorrere in qualche errore di calcolo e arenarsi su grattacapi dovuti ad analisi procedurali più complesse. Alla fine è stata promossa con B-, dove il massimo è A. Significa che, nell’attuale sistema dell’istruzione, anche una macchina può prendere un master in Economia.
Proviamo invece a immaginare lo scenario opposto: a un qualsiasi liceale, posto in isolamento tecnologico, viene somministrata una verifica in cui gli si chiede di individuare le tre parole chiave che a suo avviso sono le più importanti per descrivere l’Illuminismo, nonché di argomentare la propria scelta. Dinanzi al foglio protocollo, il liceale va in tilt e scrive un’ottusa pappardella su quello che ha imparato a memoria; poi corre a lamentarsi dai genitori, poiché quel che credeva un ottimo temino gli è valso un’inattesa insufficienza.


In entrambi i casi, siamo di fronte a due macchine – una informatica, una umana – che hanno svolto un compito in maniera automatica. Se l’AI ha passato l’esame, è perché la traccia valutava competenze riproducibili in modo meccanizzato; se il liceale ha ricevuto un’insufficienza, è perché ha cercato di impiantare la struttura tradizionale delle verifiche di stampo manualistico su una traccia che lo spiazzava richiedendogli, partendo dalle sue conoscenze, una riflessione personale strutturata e irripetibile. Posto di fronte all’esigenza di originalità, ha reagito abbarbicandosi sulla convinzione che il modo giusto per rispondere a una domanda fosse il più possibile asettico e nozionistico. Paradossalmente, privo di strumenti informatici, ha risposto come se avesse copiato da ChatGPT, per giunta usato male.


“Molti interessanti articoli dal mondo anglosassone evidenziano l’incremento dei casi di poveri studenti che svolgono temi non copiati, ma vengono accusati di essersi affidati all’intelligenza artificiale”, conferma al Foglio Lorenzo Maternini, membro del Comitato sull’intelligenza artificiale presso la presidenza del Consiglio dei ministri, del board di esperti creato dalla regione Lombardia per integrare l’AI nel sistema educativo, e del Comitato per l’innovazione tecnologica e la trasformazione digitale del comune di Milano. “Sta emergendo un grandissimo problema su veridicità e falsificazione e, quando si creano questi grandi fraintendimenti, è la volta buona per capire che il punto è cambiato: non va più valutata la forma finale di un testo, bensì bisogna saper valutare, oltre ai contenuti, le correlazioni e il senso di quel che si fa scrivere. E’ necessario uscire dalla cornice del test con vero o falso, su cui a lungo è stata imperniata la formazione anglosassone, e tornare a forme di valutazione che riguardino prove molto più aperte”.


Non è un caso che, sul Washington Post, David Perry abbia significativamente messo in correlazione due saggi apparentemente distanti. Uno è “More than words: how to think about writing in the age of AI” (Basic Books), in cui John Warner rivendica come le macchine non siano capaci di scrivere nell’accezione consueta del termine: sono cioè in grado di infilare una parola dietro l’altra, ma manca loro del tutto quella procedura “tortuosa, stramba e incasinata” che è il flusso di pensieri a monte della scrittura. Neanche gli autori più esperti sono consapevoli al cento per cento di cosa avvenga dietro le quinte; figurarsi se può esserlo una macchina che ogni giorno – ad esempio rispondendo alle lettere sul Foglio AI – ci ricorda di non avere emozioni né opinioni. L’altro libro è “Hacking college: why the major doesn’t matter – and why it does” (Johns Hopkins University Press), in cui Ned Scott Laff e Scott Carlson argomentano provocatoriamente che laurearsi non serve a nulla. O, meglio, non serve nell’ottica cui siamo stati abituati finora, cioè pensando all’università come a un marchingegno in cui uno studente immette i propri interessi allo scopo di farli adattare a un mercato del lavoro di cui, tuttavia, non siamo in grado di prevedere lo sviluppo tecnologico negli anni che intercorrono dall’immatricolazione alla laurea. L’articolo del Washington Post è sagace nel cogliere il comune denominatore. Da un lato, infatti, abbiamo la dimostrazione che, se i tradizionali metodi di verifica possono essere agevolmente scardinati dall’AI, allora quei metodi di verifica sono diventati desueti; dall’altro, la dimostrazione che le università, per quanto inseguano lo sviluppo dell’AI rendendola giustamente parte integrante del corso di studi, difettano tuttora nella formazione delle qualità umane che saranno necessarie al laureato per governare l’AI. 


“Oggi siamo confusi: siamo convinti che per essere pronti al mondo del lavoro si debba ricevere elementi e nozioni che rendono già pronti al mondo del lavoro, come un libretto di istruzioni”, spiega Maternini, il quale, proprio per contrastare questa tendenza, si è fatto promotore della Fondazione Ranstadt AI & Humanities. “Il mondo del lavoro si sta talmente modificando che stiamo mettendo in discussione l’idea che dare questo libretto di istruzioni sia il compito della scuola. Le nozioni che vi si apprendono devono invece servire a fortificare la capacità cognitiva: imparo qualcosa non perché debba poi usarla nel mondo del lavoro ma perché crea capacità linguistiche, capacità mnemoniche, capacità di saper approcciare lo studio. Questo servirà tutta la vita. Altrimenti restiamo convinti che sia importante sapere una poesia a memoria perché così, se un giorno qualcuno ce la chiede sul lavoro, la sapremo recitare”.


Giova ricordare che, una decina d’anni fa, un allarmistico report di Oxford quantificò nel 57 per cento la verosimile stima di lavori che sarebbero andati persi con l’attecchire dell’AI. Solo successivamente – come ricapitola un recente numero speciale del Journal of e-learning and knowledge society, dedicato a “Re-thinking education in the age of AI” – uno studio di PwC ha specificato che, fra dieci anni, a perdere metà dei posti sarà chi svolge lavori ripetitivi o meccanici, non creativi o intellettuali. Maternini conferma l’impressione che, grazie all’attecchire dell’AI, “nelle materie tecnologiche sarà sempre più importante il laureato in materie non tecnologiche. Adesso c’è la corsa alle discipline Stem, che pure sono molto importanti; ma, con l’uso dell’AI, non devo tanto avere delle cognizioni ingegneristiche quanto essere in grado, ad esempio nel momento in cui devo produrre un testo, di condurre una riflessione profonda sulla parola, così da poter scegliere quella parola per darle un determinato significato o darne un determinato giudizio. Cosa che la macchina non ha. Nella formazione, dunque, il principio delle verifiche dev’essere: come faccio a verificare il metodo? Sto preparando persone capaci di imparare?”.


Eppure i dati al riguardo non sembrano indurre a particolari ottimismi riguardo all’integrazione dell’AI nei piani di studio, almeno per ora. Un’indagine svolta a settembre 2024 da Inside Higher Ed, su un campione di iscritti a università americane, ha dato risultati sorprendenti. Il 31 per cento degli intervistati non ha ben chiare le idee su come o quando si possa utilizzare l’AI a supporto dei propri studi. Solo il 16 per cento dichiara di avere ricevuto dall’istituzione cui appartiene delle indicazioni precise sull’utilizzo dell’AI durante lezioni, esercizio individuale ed esami. A inizio anno, uno studio condotto dalla Carnegie Mellon University di Pittsburgh in collaborazione con Microsoft ha rilevato un forte contrasto fra studenti che nutrono un’elevata fiducia nell’AI generativa, ma difettano di pensiero critico, e studenti che credono in sé più che nell’AI, nei quali invece il pensiero critico abbonda. Secondo lo studio, “l’AI generativa fa smottare la natura del pensiero critico riguardo alla verifica delle informazioni, all’integrazione delle risposte e alla gestione degli obiettivi”. A nessuno sembra venire in mente che sarebbe il caso di trovare una proficua via di mezzo.


Su Forbes, Aviva Legatt – fondatrice di Ivy Insight, società di consulenza nel settore dell’ammissione alle principali università statunitensi – ha pubblicato in febbraio una ricognizione di come esse si regolino riguardo all’utilizzo di ChatGPT negli esami per selezionare le matricole. Ne è uscito un quadro a dir poco frastagliato: Yale, ad esempio, non adotta ufficialmente nessuna policy in materia di AI, salvo lasciar correre voce di un sostanziale sfavore da parte dell’accigliato corpo docente; il California Institute of Technology, invece, non solo caldeggia il ricorso all’AI ma lo norma tramite le immancabili linee guida etiche. Una soluzione di compromesso è adottata dal Georgia Institute of Technology, che molto pragmaticamente assimila l’utilizzo di ChatGPT a quello delle altre fonti tradizionali. In sostanza, se è ammissibile consultare un libro mentre si scrive una relazione, allo scopo di parafrasarne i contenuti e integrarli con altri, lo stesso si può fare con l’AI. Non consente invece di affidare a ChatGPT la stesura di interi brani, allo stesso modo in cui non riterrebbe corretto copiare pari pari una pagina dal manuale.


Secondo Maternini, è proprio per questo che “è necessario ripensare cos’è una verifica. Va tralasciata l’idea americana che tendiamo a imitare, cioè che la parte importante della formazione sia la nozione finale; bisogna capire che è fondamentale invece la costruzione per arrivarci, l’elaborazione del pensiero. Come nell’istruzione, anche nel mondo del lavoro sarà sempre più importante capire perché mi serve compiere quest’azione e, di conseguenza, scegliere quale input fornire alla macchina affinché la svolga. Sarà sempre più importante questa riflessione metafisica, se mi passate il termine, anziché lo svolgimento concreto dell’azione, in quanto disporremo di sempre più agenti e tool capaci di essere estremamente efficaci nel compiere operazioni di per sé. Il problema sta in chi li guida”.


L’ingresso dell’AI nella vita quotidiana impone dunque un rimaneggiamento complessivo del sistema dell’istruzione; al riguardo, sono molte le voci concordi. Il numero speciale del Journal of e-learning and knowledge society, curato da Stefano Greco (Chitkara University, Punjab) e Letizia Cinganotto (Università per Stranieri di Perugia), compara l’evoluzione della formazione a quella imposta da precedenti progressi tecnologici; rimarca come “i programmi dovrebbero evitare la pura memorizzazione e i docenti dovrebbero essere consapevoli dell’importanza di sviluppare le capacità di pensiero divergente degli studenti. Finora, queste capacità sono state considerate innate negli allievi ma, contrariamente alla credenza popolare, possono essere allenate. La quarta rivoluzione industriale propone il dilemma di come il sistema dell’istruzione possa allenare efficacemente le capacità analitiche, creative e critiche degli allievi”.


In un recente intervento, l’ex rettore della Bocconi, Gianmario Verona, ha auspicato “un ripensamento sostanziale delle ore di didattica in aula, visto che lo studente potrà apprendere in autonomia parte del bagaglio dell’esame della specifica disciplina interagendo con un assistente virtuale”. L’esperto canadese Tony Bates ha diramato una lista di cose da fare che consta di tre punti: creare esperti specialisti dell’utilizzo dell’AI nel campo dell’istruzione; coinvolgere l’AI nelle pratiche di insegnamento; soprattutto, “evitare valutazioni basate su meri resoconti, che l’AI svolgerebbe meglio di buona parte degli esseri umani, e assegnare tracce che richiedano originalità da parte dello studente, risolvendo problemi inattesi o facendo leva sull’esperienza personale, così da imperniare la valutazione sul pensiero critico e creativo (che è ciò a cui dovrebbero servire le università)”.


Quanto a Maternini, conclude con “una frase di Plutarco: i giovani non sono vasi da riempire ma fuochi da accendere. In queste parole c’è la risposta a tutte le domande sull’AI. Il vero punto su cui concentrarsi sarà sempre di più questo: non già cosa devo sapere in base al lavoro che ci sarà, ma come creo la capacità di apprendere, nel corso di una formazione continua (adesso va di moda questo termine), e come la mantengo forte e costante grazie al metodo di apprendimento che mi è stato dato. Quando mi confronto coi rettori, spesso mi viene detto che l’università sarà sempre diversa dagli strumenti di apprendimento tramite AI poiché l’università insegna il metodo. Allora facciamo le verifiche sul metodo! Del resto, la scienza è un metodo, non una verità”.


Ed è proprio qui che l’AI può tornare utile, a sorpresa. “Il reasoning della macchina è utile per due motivi: ci si può intervenire con azioni immediate e, soprattutto, consente di spacchettare blocchi concettuali, scoprire con quali non si è d’accordo e modificarli. Sui blocchi concettuali la macchina sarà sempre compilativa, non avendo la consapevolezza del messaggio che trasmette; l’uomo dovrà lavorare sempre più su questa consapevolezza. Il futuro pone un grande problema di lobotomizzazione. Persone mai addestrate a ragionare, nemmeno a scuola, a un certo punto diranno: se non chiedo il senso di questa cosa a ChatGPT, non la capisco neanche io. E’ di questo che dobbiamo preoccuparci, non di insegnare a programmare a un bambino di quinta elementare”. 

Di più su questi argomenti: