Meno censure, più regole
Basta con la tecnofobia su ChatGPT, dice il ministro tech di Parigi
Intervistato dal quotidiano La Tribune, il ministro per la Transizione digitale Jean-Noël Barrot si è detto contrario ad applicare il divieto imposto in Italia anche in Francia. Intanto si sta negoziando un regolamento europeo sull'IA
Parigi. L’iniziativa censoria dell’Italia nei confronti di ChatGpt, la piattaforma di intelligenza artificiale generativa lanciata dall’americana OpenAI, non è un modello da seguire per Parigi. In un’intervista al quotidiano La Tribune, il ministro per la Transizione digitale francese, Jean-Noël Barrot, ha manifestato la sua ferma contrarietà al divieto di ChatGPT in Francia. Quella italiana è una “risposta sbagliata”, ha dichiarato Barrot, difendendo un approccio più moderato che consiste nell’“inquadrare l’innovazione affinché sia conforme ai princìpi a cui teniamo”. “Quando ChatGPT ha fatto irruzione nella nostra quotidianità, ho sollecitato il Comitato nazionale di etica del digitale. Nel 2021, aveva già emesso un parere sui chatbot (software progettati per simulare conversazioni con un essere umano, ndr), sollevando alcune questioni etiche e democratiche poste dalla comparsa di questo tipo di strumenti. Fra alcuni mesi, il Comitato darà una versione aggiornata di questo parere alla luce di ChatGPT”, ha aggiunto Barrot. Regolare piuttosto che vietare, insomma, cercando di trovare un punto di equilibrio tra quella che il ministro per la Transizione digitale francese chiama “tecnolatria” e la “tecnofobia” emersa in Italia verso la piattaforma di OpenAi.
“Abbiamo assistito anzitutto a un’ondata di tecnolatria: ci hanno voluto far credere che ChatGPT avrebbe risolto tutti i problemi del mondo. In seguito, si è abbattuta un’ondata di tecnofobia, secondo cui bisognerebbe imporre una moratoria, se non addirittura vietare ChatGPT. Nessuna delle due posture è giusta”, ha dichiarato Barrot, mettendo in luce gli aspetti positivi dell’intelligenza artificiale. “Se ben orientata, può cambiare la vita e salvare delle vite, come AlphaFold (programma di Ai sviluppato da DeepMind per predire la struttura tridimensionale delle proteine, ndr), che ha sintetizzato 200 milioni di proteine. Abbiamo guadagnato centinaia di milioni se non miliardi di anni di ricerca con dei modelli molto vicini a quelli di OpenAi. Dunque l’Ai può essere immensamente utile all’umanità. Ma come qualsiasi strumento tecnologico, presenta un certo numero di rischi che bisogna poter gestire”.
A febbraio, Barrot aveva già espresso alcune riserve su ChatGPT, ritenendo esagerate certe paure. “È uno strumento affascinante. Ma attualmente è soltanto un pappagallo approssimativo, che talvolta restituisce un po’ goffamente le quantità astronomiche di informazioni che ha raccolto su internet”, aveva dichiarato su France Info. Nel suo colloquio con La Tribune, Barrot ha comunque giudicato “sottile e interessante” la questione posta dal Garante della privacy italiano in merito alla normativa Gdpr (Regolamento generale sulla protezione dei dati), che ha dieci anni d’età (fu proposta dalla Commissione europea nel 2012), e presenta alcune ambiguità rispetto agli ultimi sviluppi tecnologici. “Il garante italiano si chiede anzitutto se ChatGPT rispetta la normativa Gdpr. A mio avviso, non li rispetta. OpenAi dovrà probabilmente apportare degli aggiustamenti al suo prodotto, perché il trattamento dei dati per gli utenti pone un problema”, ha spiegato il ministro per la Transizione digitale francese. “La seconda questione riguarda l’utilizzo dei dati nei giochi di apprendimento per il training dei grandi modelli di Ai. Penso che su questo punto dobbiamo agire come europei, conciliando la protezione della vita privata con lo sviluppo in Europa dei modelli e dei giochi di apprendimento di qualità”, ha precisato Barrot.
Il ministro francese, sull’inquadramento dello sviluppo dell’Ai in Europa, ha ricordato che la Francia e gli altri paesi europei stanno negoziando “un regolamento sull’Ai in seno all’Unione europea”. “L’Ue è la prima democrazia del mondo a volere un tale quadro normativo. Non entrerò nei dettagli, ma l’Unione europea fisserà gli usi per cui l’Ai dovrà essere vietata, per esempio la sorveglianza. Ma anche gli usi nei settori critici come la sanità o i trasporti, lì dove sono coinvolte delle vite umane. I fabbricanti di Ai dovranno dunque subire un controllo e un audit dei loro prodotti prima che questi vengano messi sul mercato. Infine, gli usi ricreativi”, ha sottolineato Barrot. E le paure di Elon Musk che definisce l’Ai un rischio per l’umanità? “La moratoria proposta da Musk, dietro cui albeggiano chiari interessi commerciali”, per Barrot, “non ha molto senso”.