Immagine generata da Grok

FOGLIO AI

Sette giorni artificiali. Cosa è successo nel mondo dell'AI nell'ultima settimana: una cronaca ragionata

AI in fermento: Goldman Sachs e Intel si reinventano, Microsoft affronta proteste interne, mentre il mondo si interroga su bolle, etica e il futuro della creatività umana

Il mondo dell’intelligenza artificiale, che non smette mai di parlare di sé, ha avuto una settimana particolarmente densa: proteste, ristrutturazioni, dichiarazioni imbarazzanti e qualche allarme fondato. E mentre i soliti entusiasti contano i follower dei propri tool preferiti, nelle stanze dei bottoni iniziano a succedere cose che meritano di più di un retweet.

Partiamo da Goldman Sachs, la roccaforte della finanza mondiale che si è svegliata una mattina con l’illuminazione che i consulenti digitali non bastano più: ci vuole AI. Non in senso generico, ma concreto: la banca ha introdotto strumenti basati su Google Gemini e ChatGPT per 10.000 dipendenti, con l’obiettivo di estenderli a tutti entro l’anno. L’idea non è quella di sostituire, ma di potenziare. Semplificare report, produrre analisi, generare idee. Roba da consulenti umani, insomma. Solo che i consulenti umani costano e si stancano. I modelli linguistici, invece, no. Non ancora, almeno.

Un altro gigante che si ristruttura in nome dell’intelligenza artificiale è Intel. Il nuovo ceo Lip-Bu Tan ha dato una scrollata al gruppo dirigente e ha nominato Sachin Katti Chief Technology and AI Officer. Un nome che suona bene, ma dice soprattutto una cosa: l’AI è ormai un pilastro, non un dipartimento. Per un’azienda che ha sofferto la concorrenza di Nvidia, questa è una mossa di posizionamento forte. Non si tratta solo di chip, ma di chip pensati per un mondo in cui l’intelligenza è computazionale.

E poi c’è Microsoft, dove l’intelligenza artificiale entra non solo nei prodotti, ma anche nei conflitti. Diversi dipendenti hanno protestato per l’accordo tra l’azienda e il ministero della Difesa israeliano: la fornitura di servizi AI e cloud, in pieno conflitto con Gaza, ha fatto scattare tensioni interne e, in alcuni casi, licenziamenti. E’ una notizia che obbliga a fare domande più profonde: chi è responsabile dell’uso finale di uno strumento AI? E’ sufficiente la neutralità tecnologica? E quanto è legittimo il dissenso all’interno di una big tech?

A proposito di responsabilità: in Regno Unito, il ministro per l’Intelligenza artificiale ha ammesso di non aver mai usato strumenti AI nel suo lavoro. Si chiama Feryal Clark e si è guadagnata, in pochi minuti, l’ironia di tutta la stampa. E’ come nominare ministro della Salute un antivaccinista? Forse no. Ma è senz’altro un segnale che la politica non ha ancora capito che l’AI non è più solo una materia da convegno. Nel frattempo, il ceo di Uber, Dara Khosrowshahi, ha fatto sapere che chi non sa usare l’AI, nel giro di un anno, sarà tagliato fuori. Letteralmente. Per questo ha lanciato un programma interno di formazione e chiesto alle scuole di fare altrettanto. Non è paternalismo: è istinto di sopravvivenza. Khosrowshahi sa che chi non sa dialogare con i nuovi strumenti diventerà dipendente da chi lo fa. E Uber, dopo aver rivoluzionato il trasporto, non vuole essere portata in giro da altri.

Più inquietante, invece, il dibattito sulla possibile “bolla dell’AI”. Gli investimenti in questo settore hanno superato i 300 miliardi di dollari, con Microsoft, Amazon e Meta a fare da locomotiva. Tutti vogliono una fetta della torta, ma qualcuno comincia a chiedersi se la torta esista davvero. Ricorda qualcosa? Esatto: le dot-com, venticinque anni fa. Anche allora si parlava di rivoluzione, e anche allora i profitti non arrivavano mai.

E se l’intelligenza artificiale cambia le aziende, cambia anche le arti. Secondo uno studio pubblicato questa settimana, i lavoratori dell’industria musicale perderanno fino al 25 per cento del loro reddito nei prossimi quattro anni a causa dell’AI. Le canzoni generate da modelli linguistici sono già una realtà, così come le piattaforme di streaming che le promuovono in nome della novità. La domanda è: se la creatività è automatizzabile, cosa resta all’umano? E chi difenderà il valore di un testo scritto per davvero?

Una possibile risposta arriva dal Mit, che sta lavorando a tecniche per migliorare l’output delle AI, rendendole meno allucinate e più affidabili. Tradotto: non si vuole solo generare più contenuto, ma contenuto migliore. E’ un segnale incoraggiante. L’AI può fare molto, ma deve farlo bene. E per farlo bene, ha bisogno anche di essere guidata. Da chi? Da chi la capisce. O almeno ci prova.

Sette giorni non bastano per capire dove va l’intelligenza artificiale. Ma bastano per capire che il tema non è più “se” cambierà il mondo. E’ “chi” deciderà come. E Il Foglio AI, su questo, ha ancora molto da scrivere.