La scheda
Cosa prevedono le norme sull'IA approvate dal Parlamento Ue
Quali sono le tecnologie che verranno vietate? E cosa succederà a ChatGPT? Tutte le novità del testo votato a Strasburgo che dovrà ora essere negoziato con Consiglio e Commissione Ue
Con 499 voti a favore, 28 contrari e 93 astenuti, ieri il Parlamento europeo ha approvato l’“AI Act”, un pacchetto di norme che dovrebbe regolamentare il vasto settore dell’intelligenza artificiale. Al voto di Strasburgo seguirà ora il “trilogo”, cioè la discussione con le altre istituzioni europee (Consiglio e Commissione), da cui uscirà il testo definitivo, che sarà varato auspicabilmente entro la fine di quest’anno. Si tratterà in ogni caso di ritocchi lievi e pertanto, sebbene non definitivo, l’impianto del documento di ieri resterà grossomodo invariato.
La principale novità contenuta nell’“AI Act” è l’introduzione di quattro diverse classi di rischio, con cui verranno contrassegnate le diverse tecnologie: si va dal “rischio inaccettabile” fino al “rischio limitato”, passando per una fascia di rischio “alto” e una categoria a parte, riservata all’IA generativa (del tipo di ChatGPT).
Il rischio inaccettabile e le multe
Per il livello di rischio più elevato – quello cosiddetto da “bollino rosso” –, l’Unione stabilisce un divieto assoluto di utilizzo e prevede una pena amministrativa nel caso in cui tale restrizione venga aggirata: si parla di una sanzione che può arrivare fino a 30 milioni di euro o, in alternativa, una cifra pari al 6 per cento del fatturato annuo dell’azienda.
Fra le tecnologie considerate maggiormente pericolose, rientrano tutti i sistemi di identificazione biometrica “in tempo reale”: si tratta, cioè, di quelle tecnologie che sfruttano l’intelligenza artificiale per il riconoscimento facciale nei luoghi all’aperto o comunque pubblici. Le forze di polizia potranno usufruirne, ma soltanto per il perseguimento di “reati gravi” e previa autorizzazione giudiziaria: gli emendamenti proposti dal Ppe, che chiedevano maggiore flessibilità, sono stati bocciati dal Parlamento.
Oltre al riconoscimento facciale, fra le tecnologie vietate dall’Unione ci sono quelle che comportano una manipolazione cognitivo-comportamentale delle persone (anche a fini elettorali): l’esempio che viene citato sono i “giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini”. Infine, vengono proibiti i sistemi che includono un “punteggio sociale”, classificando gli utenti sulla base di caratteristiche personali.
Rischio alto e limitato
Per le tecnologie a rischio alto non si prevede un divieto, ma l’Ue si farà carico di una valutazione prima che vengano immesse sul mercato. L’Unione istituirà quindi una banca dati, dove queste verranno suddivise in otto categorie diverse sulla base delle aree di interesse (per esempio istruzione o controlli alle frontiere). In questo modo, l’Europa monitorerà di volta in volta l’evoluzione dei specifici sistemi.
Per quanto riguarda la fascia di rischio più bassa, il Parlamento ha previsto soltanto degli obblighi “minimi” di trasparenza, così da consentire “agli utenti di prendere decisioni informate”.
IA generativa (ChatGPT)
Per i sistemi sul modello di ChatGPT infine, l’Ue chiede il rispetto di alcuni requisiti di trasparenza, obbligando ad esempio gli utenti a dichiarare che un testo è stato prodotto utilizzando l’intelligenza artificiale. Inoltre, l’Unione chiede che tali tecnologie vengano progettate “evitando la generazione di contenuti illegali”.