L'editoriale del direttore
I veri somari di ChatGPT: quei prof che non sanno stimolare l'intelligenza dei loro studenti
Si può vietare l'IA nelle università? Perché i veri asini non sono gli studenti che la usano ma i professori incapaci di governare le innovazioni
Fermare o governare? Vietare o integrare? Proibire o monitorare? Da una settimana, su queste pagine, state assistendo in diretta a un piccolo esperimento che a quanto pare vi ha incuriosito: nascondere, tra i nostri articoli, un testo scritto ogni giorno con l’intelligenza artificiale, con ChatGPT, e premiare, alla fine della settimana, i lettori capaci di distinguere gli articoli frutto dell’intelligenza umana da quelli frutto dell’intelligenza artificiale. Il senso della nostra sfida è ovvio. Dimostrare che le trasformazioni prodotte dalla tecnologia devono essere studiate più che demonizzate.
E al contempo, dimostrare che di fronte a una innovazione che minaccia un settore compito del settore minacciato è fare di tutto per dimostrare di avere qualità non sostituibili in alcun modo con un algoritmo. Abbiamo voluto ricordarvi la nostra iniziativa non per megalomania ma perché l’esperienza di questa settimana ci ha offerto spunti utili per provare a ragionare attorno a un tema non troppo diverso che è quello con cui si ritrovano ormai da settimane a fare i conti le università di tutto il mondo: che fare quando uno studente si presenta di fronte a un docente con un testo scritto con ChatGPT?
L’ultimo caso, in Italia, si è manifestato qualche giorno fa a Firenze, all’università, dove alcuni professori avrebbero individuato un caso sospetto, nella facoltà di Scienze giuridiche: un compito scritto in un italiano eccellente da una studentessa straniera che in passato aveva manifestato alcune gravi carenze nella lingua italiana. La notizia, naturalmente, non va sottovalutata, considerando che, a due mesi dalla sua nascita, ChatGPT ha portato diverse università e diverse istituzioni a prendere provvedimenti importanti. A New York, l’accesso a ChatGPT è stato vietato alle reti e ai dispositivi delle scuole pubbliche. A Los Angeles, l’accesso a ChatGPT è stato vietato a tutte le reti del distretto scolastico della città. In Australia, alcune importanti università hanno scelto di tornare agli esami in modalità carta e penna dopo aver individuato un numero eccessivo di testi scritti con l’intelligenza artificiale.
L’Università della Svizzera italiana ha vietato l’uso della chat basata sull’intelligenza artificiale e i casi internazionali di provvedimenti normativi adottati dal mondo accademico per difendersi da ChatGPT sono presenti in ogni parte del mondo. E la questione, in fondo, è sempre lì. Fermare o governare? Vietare o integrare? Proibire o monitorare? La risposta più convincente a queste domande l’ha data qualche giorno fa sul Wall Street Journal Henry Kissinger, che in un lungo articolo scritto con Eric Schmidt e Daniel Huttenlocher ha formulato una tesi imprescindibile e convincente per ragionare attorno al tema.
“Più passerà il tempo – dice Kissinger – e più sarà chiaro che i computer saranno sempre più necessari per sfruttare volumi crescenti di dati. I limiti cognitivi possono impedire agli esseri umani di scoprire verità sepolte nelle informazioni del mondo. ChatGPT, invece, possiede una capacità di analisi qualitativamente diversa da quella della mente umana. E il futuro implica quindi una collaborazione non solo con un diverso tipo di entità tecnica, ma con un diverso tipo di ragionamento, che può essere razionale senza essere ragionevole, affidabile in un senso ma non in un altro. Ed è probabile che questa stessa dipendenza acceleri una trasformazione nella metacognizione e nell’ermeneutica e nelle percezioni umane del nostro ruolo e della nostra funzione”.
In questo senso, il tentativo da parte delle università di dotarsi di sistemi utili a vietare l’utilizzo di ChatGPTt somiglia al classico tentativo di voler bloccare un fenomeno che non si può fermare solo per non voler riconoscere di non essere in grado di governare quel fenomeno. Come se già oggi non fosse possibile costruire tesi con il copia e incolla. Come se già oggi non fosse possibile costruire tesine riportando sul proprio file word le parole di Wikipedia. Come se già oggi non fosse possibile costruire un lavoro accademico scannerizzando in formato testo i passaggi di un libro. Si dirà che non è la stessa cosa presentare un lavoro interamente scritto con ChatGPT e uno scritto scopiazzando Wikipedia, ed è vero, ma la sostanza non cambia e il vero problema, di fronte al dilagare dell’intelligenza artificiale nelle università, riguarda l’intelligenza naturale non degli studenti ma dei docenti.
Il punto, se ci si pensa, non è se sia possibile, e lecito, che uno studente utilizzi ChatGPT per i suoi studi ma se sia lecito, e possibile, non avere dei docenti in grado di riconoscere con semplicità, dall’alto delle loro competenze, cosa è frutto di intelligenza naturale e cosa è frutto di intelligenza artificiale. In diversi college americani, ha scritto Kalley Huang sul New York Times qualche settimana fa, dopo aver intervistato oltre trenta docenti, alcuni professori, una volta resisi conto del dilagare della tecnologia ChatGPT nei propri atenei, hanno scelto di riprogettare completamente i loro corsi, apportando modifiche che includono più esami orali, più lavori di gruppo, più valutazioni scritte a mano, riducendo quanto più possibile i compiti da fare a casa e sforzandosi di offrire agli studenti domande più difficili, più creative, meno alla portata della creatività di un algoritmo e sforzandosi di introdurre in ogni corso delle lezioni utili per imparare a usare con intelligenza umana l’intelligenza artificiale, nella consapevolezza che le innovazioni, anche quelle che possono fare più paura, spesso non possono essere fermate ma devono essere semplicemente capite, integrate e governate.
Nella consapevolezza che di fronte all’avanzare di ChatGPT i veri somari non sono gli studenti che la usano ma i professori incapaci di stimolare l’intelligenza naturale dei propri studenti.
generazione ansiosa