
Intelligenza artificiale
Cosa aspettarsi dal piano d'azione sull'AI dell'Europa, con anticipazioni
Entro il 2 agosto, per operare nell’Ue le aziende che sviluppano modelli general purpose dovranno impegnarsi a rispettare la Direttiva europea sul diritto d’autore. Auguri: il copyright è la materia su cui tutte le big tech hanno chiesto a Trump di allentare le regole
Domani l’Europa presenterà il suo Piano di Azione per l’AI. Non saranno regole, per una volta, ma azioni concrete per rilanciare lo sviluppo dell’intelligenza artificiale continentale. A parlarne, come ha ricostruito il Foglio in una conversazione riservata con una persona chiave all’interno dell’Eu AI Office, la struttura della Commissione responsabile per le politiche sull’intelligenza artificiale – sarà la vicepresidente della Commissione Europea Henna Virkkunen, finlandese con delega alla Sovranità tecnologica. L’Europa, così, brucerà sui tempi il super atteso Piano d’azione che Trump ha annunciato in uno dei suoi primi ordini esecutivi (titolo: “Rimuovere le barriere alla leadership americana nell’Intelligenza Artificiale”) e che l’“AI Zar” David Sacks gli dovrà consegnare entro il 23 luglio.
“Nell’AI abbiamo imprese molto capaci – spiega la fonte dell’Eu Office – ma c’è bisogno di rafforzare l’ecosistema. Per questo, stiamo mettendo in campo misure a sostegno dell’innovazione europea e delle aziende grandi e meno grandi. Dobbiamo far capire loro che non c’è da spaventarsi: stimiamo infatti che l’85-90 per cento delle applicazioni non siano rischiose e che per queste non ci saranno regole da seguire”.
L’Action Plan europeo che verrà presentato domani è figlio dei grandi impegni presi dall’Europa esattamente 2 mesi fa all’AI Action Summit di Parigi. E’ qui che la Commissione – sollecitata del padrone di casa Macron (“Se regolamentiamo prima di innovare, non avremo alcuna innovazione”) – ha annunciato un investimento di 200 miliardi di euro (per bocca della presidente von der Leyen) e almeno 5 pacchetti di semplificazione delle normative digitali (da parte della stessa Virkkunen).
La war room del Piano europeo è proprio l’AI Office, che per altro è guidato da una policy maker italiana, Lucilla Sioli. L’ufficio ha un perimetro molto ampio, dall’implementazione dell’AI Act (la più corposa e ambiziosa regolamentazione dell’AI a livello globale, appena entrata in vigore) al supporto alle PMI. Sconosciuto fino a qualche mese fa, la struttura suo malgrado si è trovata a fare da avamposto dello scontro Usa vs. Europa cominciato proprio sul terreno dell’AI. A cavallo della deadline del 2 febbraio che ha fatto scattare gli unici divieti contenuti nell’Eu AI Act (quelli a carico dei sistemi di AI che pongono rischi considerati “inaccettabili”: 8 casistiche definite che vanno dalla manipolazione degli individui alla loro classificazione su base biometrica) è infatti successo di tutto.
Nel giro di due settimane il mondo dell’AI policy, da club un po’ noioso frequentato da ricercatori e premi Nobel si è trasformato nello scacchiere più strategico della nuova guerra geopolitica globale. Il primo colpo parte il 24 gennaio da Washington, con il già citato ordine esecutivo con cui Trump proclama il dominio Usa sull’AI e cancella anni di dottrina Biden tutto sommato allineata ai valori europei. Non passano 3 giorni, e dal nulla sbuca Deepseek, la risposta di Pechino all’AI americana delle big tech, che restano travolte dal modello cinese super intelligente, low cost e soprattutto open source (quindi scaricabile e modificabile da chiunque sul proprio pc). Una settimana dopo, ancora, al summit di Parigi, Usa (e Uk) non firmano la dichiarazione finale sull’AI responsabile, e l’Europa si ritrova ad assaggiare per la prima volta la violenza verbale dell’ex marine J. D. Vance, vicepresidente degli Stati Uniti: “La vostra regolamentazione è eccessiva – ringhia – e ucciderà l’AI”. Ascoltando la serie di incredibili coincidenze che hanno catapultato l’Eu AI Office al centro dell’uragano, il funzionario sorride: “Le dico solo una cosa, noi non abbiamo cambiato nulla della nostra politica. Anzi. Abbiamo continuato a lavorare sodo al codice di condotta che dovremo rilasciare entro il 2 maggio per aiutare i produttori dei modelli AI ad adeguarsi agli obblighi che presto scatteranno.”
La deadline di cui si parla è quella del 2 agosto, meno di quattro mesi. Per allora tutte le aziende che sviluppano modelli cosiddetti general purpose (ci ricadono quelli con almeno 1 miliardo di parametri, quindi tutti: per dare un’idea i modelli OpenAI di parametri hanno 500 miliardi) per operare nell’Unione europea dovranno impegnarsi a rispettare la Direttiva europea sul diritto d’autore. Auguri, vien da dire: il copyright è la materia su cui tutte le big tech hanno chiesto a Trump di allentare le regole, perché l’AI per svilupparsi ha bisogno continuo di divorare informazioni il più delle volte protette. “La posizione americana in effetti è molto diversa – osserva il funzionario – anche perché loro hanno un’altra disciplina, quella del cosiddetto fair use (diritto, per alcune attività, di derogare al copyright, ndr) che li porta a risolvere le questioni in tribunale, come nel caso del NYT contro OpenAI che sarà interessante vedere come va a finire. Detto questo, chi vuole stare nel mercato europeo, si deve adeguare alle nostre, di regole”.
Sempre il 2 agosto 2025, ma solo per i player più grandi, scatterà un altro obbligo molto delicato legato alla safety, quel filone dell’AI che regola prima di tutto l’allineamento dei modelli ai valori umani. “A chi sviluppa i modelli più avanzati, quindi OpenAI, Anthropic, Google, ma anche DeepSeek che realizza modelli piccoli ma molto, si chiederà di creare dei framework di sicurezza rispetto a rischi particolarmente critici, come lo sviluppo di armi biologiche o la perdita di controllo degli agenti autonomi. Serviranno rapporti scritti che dimostrino che sono stati analizzati i rischi dei modelli, e che sono state previste eventuali misure di mitigazione. Ovviamente, questo andrà fatto prima di immettere i modelli sul mercato”.
Anche qui viene da chiedersi come, in meno di quattro mesi, si potrà raggiungere la compliance all’AI Act in un cotesto di competizione globale sfrenata, deregulation trumpiana e crescente filosofia open source, con Lab primari che magari rilasciano i loro modelli senza prima averli ancora documentati (ultima ad essere accusata, Google, con il suo potentissimo Gemini 2.5) “Capisco… – allarga le braccia il funzionario– dal 2 agosto anche loro se vorranno stare in Europa dovranno fare attenzione alle regole europee… Tra l’altro, mentre la sorveglianza sui sistemi AI (che nel gergo dell’AI Act le sono applicazioni sviluppate sulla base dei modelli e che saranno regolate a partire dal 2 agosto 2026) è demandata alle autorità nazionali, sui grossi modelli vigileremo direttamente noi”.