
Foto Getty Images
La situa - dibattiti universitari
Limiti e opportunità dell'Intelligenza artificiale
Abbiamo chiesto agli studenti universitari di ragionare con noi sui limiti, i difetti e le opportunità e i tabù dell'Intelligenza artificiale
Abbiamo chiesto agli studenti universitari di ragionare con noi sui limiti, i difetti e le opportunità e i tabù dell'intelligenza artificiale. Se volete scrivere anche voi, potete mandare un contributo a [email protected]. La Situa è la newsletter del direttore Claudio Cerasa che arriva nella vostra posta elettronica ogni sabato. Se non lo avete ancora fatto potete iscrivervi qui
L’intelligenza artificiale (IA), rappresenta oggi la frontiera tecnologica più dibattuta, ma ha senso mettere in discussione uno strumento utilizzando toni moralistici? Da sempre le nuove tecnologie entrano con prepotenza nella realtà di tutti i giorni e modificano la società, l’IA non fa eccezione
Quando si discute dei presunti rischi dell’IA, noto spesso una certa agitazione, specialmente in Italia, dove sin dall’avvento dei Large Language Model (LLM) come ChatGPT, si è insistito sull’urgenza di una riflessione pseudo-etica. Questo approccio è profondamente errato. È vero che viviamo in un’epoca in cui la tecnologia evolve a un ritmo senza precedenti, richiedendo un costante aggiornamento per comprenderne le implicazioni, tuttavia, non possiamo temere una tecnologia solo perché, nel corso dell’ultimo secolo, la cultura popolare ha alimentato un bias collettivo.
Infatti, mi azzardo a dire che forse è proprio l’aspetto culturale ad aver condannato questa tecnologia all’infame necessità di continue riflessioni etiche, che non si sa come e non si sa perché addirittura richiederebbero l’autorità di figure legate alla religione. Mi domando: se si fosse adottato fin dall’inizio un termine più neutro, come modello computazionale, ci sarebbero state le stesse reazioni? Le grandi conferenze di oggi, che si focalizzano su scenari inquietanti del prossimo futuro, avrebbero avuto lo stesso richiamo senza il fascino evocativo del termine intelligenza artificiale?
Il mistero potrebbe restare irrisolto, ma intanto possiamo fare una riflessione. L’intelligenza artificiale suscita più paura per ignoranza che per reali problematiche. Basterebbe infatti una semplice ricerca online per comprendere i principi fondamentali di funzionamento dei sistemi LLM. Questi modelli non operano per magia, ma attraverso meccanismi ben definiti e trasparenti per chiunque voglia approfondire.
E allora di che rischi stiamo parlando? Si sente spesso dire che questi strumenti potrebbero compromettere la capacità di pensiero critico degli studenti, spingendoli ad abusarne per svolgere compiti, senza realmente apprendere. Questo timore, a mio modesto parere, è ingiustificato, dato che esistono già software in grado di rilevare il livello di contributo umano nei testi scritti con l’ausilio dell’IA. La vera questione non è avere paura di ciò che l’IA ci può togliere, ma capire cosa ci può dare.
I sistemi LLM sono strumenti che vanno studiati per essere utilizzati in modo consapevole. Rinunciare all’IA per motivi etici è come rifiutare il computer per studiare o lavorare. Perché complicarsi la vita senza motivo? Così come il digitale ha reso più efficienti molte attività, i LLM le semplificano ulteriormente in numerosi modi. Ignorarli equivale a preferire un walkman a uno smartphone per ascoltare la musica: possibile, ma poco pratico e quasi grottesco se dettato da un presunto zelo morale.
Leonardo Buttazzoni
studente della Unibo (Alma mater Studiorum di Bologna)/Uib Bergen (in Erasmus)
Heidegger sviluppò il concetto di Gestell (impianto) per indicare il modo in cui la tecnica non si limita a trasformare il mondo, ma ne plasma la percezione, con il rischio che l’uomo smetta di interrogarsi sul senso profondo dell’esistenza. Ho l’impressione che al giorno d’oggi si dedichi sempre meno tempo all’osservazione e all’ascolto. Che le nostre generazioni, e quelle più giovani soprattutto, abbiano smesso di guardare e imparare il mondo attraverso il loro occhio interiore: Calvino, in Palomar, direbbe che l’universo è il riflesso di ciò che abbiamo potuto conoscere in noi stessi, ma questo sguardo interiore, oggi, è sempre più delegato alle capacità di guardare, criticare e analizzare di qualcun altro che non è umano, e che porta il nome di Intelligenza Artificiale. L’attenzione profonda è progressivamente sostituita da una forma di iper-attenzione. Siamo abituati a spostarci freneticamente da un contenuto all’altro, da un compito all’altro, da una sorgente a all’altra e, al tempo stesso, stiamo imparando a delegare all’intelligenza artificiale, sempre più impigriti, le nostre intrinseche capacità cognitive. Qualche giorno fa un’amica mi ha chiesto consiglio in merito a un messaggio di risposta che avrebbe dovuto inviare a un suo ex ragazzo, rispuntato all’improvviso dopo più di un anno di silenzio. Una delle prime cose che mi ha detto è stata: “forse mi conviene chiedere a ChatGPT”. È indubbio che l’intelligenza artificiale sia un mezzo rivoluzionario e potentissimo che si pone in funzione di un prolungamento del corpo e della mente umana (al pari di un’espressione artistica) – un punto di non ritorno – ma, a mio avviso, esiste un rischio sostanziale, “antidemocratico”, che potrebbe compromettere i suoi effettivi benefici. Non tutti, infatti, sono educati al pensiero critico. Se da una parte, guardando soprattutto all’ambito accademico, l’utilizzo consapevole dell’intelligenza artificiale può portare a un’ottimizzazione dei tempi di lavoro e di ricerca, ad accedere simultaneamente a una mole ingente di fonti, a sviluppare più rapidamente una visione d’insieme e, soprattutto, ad anticipare deduzioni che in alternativa richiederebbero tempi riflessivi più lunghi, dall’altra parte questa potrebbe sostituire definitivamente il pensiero stesso, compromettendone la capacità critica (più che potenziarla). In un mondo in cui la tecnologia riempie il tempo della noia e occupa insistentemente i nostri occhi e le nostre mani, erranti per natura, la crescente pervasività dell’intelligenza artificiale, forse, ci pone di fronte a una sfida imprescindibile: riappropriarci della capacità di vedere, ossia di rendere lo sguardo capace di un’attenzione profonda e contemplativa. La mia paura più grande è che l’uomo smetta, in definitiva, di essere umano.
Giulia Aurora Paglieri
studentessa al secondo anno della Laurea Magistrale in Informazione ed Editoria, curriculum Giornalismo Culturale, all’Università degli Studi di Genova


La situa - dibattiti universitari
Dobbiamo temere Trump?
