(Ansa)

Cattivi scienziati

Che cosa significa davvero l'introduzione di DeepSeek?

Enrico Bucci

Il futuro dell'intelligenza artificiale potrebbe essere diverso da quello che le grandi aziende avevano immaginato. Il successo di DeepSeek r1 rappresenta l'inizio di una nuova fase dell'IA in cui l'innovazione dipende non solo dalle risorse e dalle infrastrutture delle aziende ma anche dalla creatività e dall'ingegno di una comunità globale di ricercatori

Il modello linguistico DeepSeek r1 ha attirato l’attenzione della comunità scientifica e tecnologica per una serie di innovazioni che lo rendono una delle svolte più significative nel panorama dell’intelligenza artificiale recente. A differenza della maggior parte dei modelli proprietari sviluppati dalle grandi aziende occidentali, DeepSeek r1 è stato rilasciato con una filosofia di apertura che rappresenta un cambio di paradigma. Ciò che rende questo sviluppo rivoluzionario è la combinazione tra trasparenza, accessibilità e capacità di esecuzione locale con personalizzazione dei pesi, tre elementi che ridefiniscono il modo in cui i modelli di intelligenza artificiale possono essere sviluppati, distribuiti e utilizzati.

La prima grande innovazione di DeepSeek r1 è la sua apertura. Mentre molte delle aziende leader nell’intelligenza artificiale, come OpenAI, Google DeepMind e Anthropic, hanno scelto un modello chiuso, limitando l’accesso ai pesi dei loro modelli e proteggendo la loro tecnologia con infrastrutture centralizzate, DeepSeek ha il suo modello, permettendo agli utenti di scaricarlo, eseguirlo localmente e modificarlo liberamente. Questo non è solo un passo avanti nella democratizzazione dell’intelligenza artificiale, ma ha anche conseguenze pratiche estremamente rilevanti: permette a ricercatori, aziende e sviluppatori di comprendere a fondo il funzionamento del modello, di adattarlo alle proprie esigenze e di ottimizzarlo per compiti specifici. Questo approccio è in netto contrasto con la tendenza alla segretezza osservata nel settore, dove la corsa alla leadership nel campo dell’IA ha portato molte aziende a proteggere gelosamente i propri modelli.

L’altra caratteristica dirompente di DeepSeek r1 è la possibilità di eseguirlo localmente senza la necessità di enormi infrastrutture cloud. I modelli linguistici più avanzati oggi disponibili, come GPT-4 di OpenAI, sono accessibili solo attraverso API centralizzate che richiedono connettività a server remoti per ogni richiesta. Questo significa che gli utenti dipendono da un’infrastruttura esterna per ogni utilizzo del modello e che i costi operativi sono vincolati alla tariffazione imposta dall’azienda che fornisce il servizio. DeepSeek r1, invece, è stato progettato con versioni ottimizzate che possono girare su dispositivi relativamente accessibili, come laptop di fascia alta o workstation con GPU potenti. Questo riduce drasticamente la barriera d’ingresso per chi vuole utilizzare l’IA, permettendo alle aziende di integrare modelli linguistici nei propri sistemi senza doversi affidare a provider esterni e senza dover sostenere costi ricorrenti per l’accesso ai modelli. L’uso in locale, naturalmente, significa che le restrizioni imposte dal governo cinese o da chiunque sono facilmente sorpassabili, e dunque la critica rivolta in tal senso a DeepSeek non regge, e significa pure che, in linea di principio, la privacy dell’utente può essere molto maggiore di quanto avviene con le piattaforme concorrenti, che implicano l’invio delle richieste dell’utente ad una terza parte.

Un’altra innovazione fondamentale è la possibilità della personalizzazione dei pesi. I pesi di un modello di intelligenza artificiale rappresentano i parametri numerici che determinano il comportamento della rete neurale. Sono il risultato del processo di addestramento del modello e costituiscono le connessioni tra i neuroni artificiali che consentono al sistema di riconoscere schemi nei dati e generare risposte coerenti. Modificare i pesi significa poter adattare il modello a esigenze specifiche, affinarlo su nuovi set di dati o migliorarne le prestazioni su determinati compiti. Il fatto che DeepSeek abbia rilasciato i pesi del modello significa che sviluppatori e ricercatori possono non solo eseguirlo localmente, ma anche modificarlo, riaddestrarlo e adattarlo a specifiche esigenze. Questa è una svolta cruciale rispetto all’approccio standard adottato da OpenAI e Google, dove gli utenti possono interagire con i modelli solo attraverso interfacce predefinite, senza alcuna possibilità di personalizzazione. In ambiti come la ricerca scientifica, il settore legale, la medicina e la finanza, la possibilità di modificare i pesi e adattare il modello ai dati specifici di un’organizzazione può fare la differenza tra un’IA generica e un’IA altamente specializzata, capace di operare con livelli di precisione e affidabilità molto superiori.

Questo modello di apertura rappresenta un cambiamento significativo rispetto alla visione dominante che ha guidato lo sviluppo dell’intelligenza artificiale fino ad oggi. Storicamente, la tecnologia AI è stata resa disponibile in modo selettivo, con le aziende leader che hanno imposto severe restrizioni su come i loro modelli possono essere utilizzati. DeepSeek r1 dimostra che è possibile competere ai massimi livelli anche con un approccio aperto, e lo fa con prestazioni che si avvicinano a quelle dei modelli più avanzati, superando persino quelli di laboratori AI di punta come Anthropic, Meta e Google in alcune metriche.

Le implicazioni di questo cambio di paradigma sono enormi. Innanzitutto, l’open source e la personalizzazione dei modelli potrebbero favorire un’accelerazione senza precedenti nella ricerca e nell’innovazione. Le aziende e gli sviluppatori non devono più attendere aggiornamenti o adattamenti dai fornitori di IA: possono intervenire direttamente sui modelli e migliorarli in base alle proprie necessità. Inoltre, la decentralizzazione dell’intelligenza artificiale potrebbe portare a una maggiore sicurezza e autonomia per gli utenti, riducendo il rischio di dipendenza da poche grandi aziende e mitigando i problemi legati alla censura, alla privacy e al controllo delle informazioni.

Se questa tendenza si affermerà, il futuro dell’intelligenza artificiale potrebbe essere molto diverso da quello che le grandi aziende hanno immaginato. Modelli linguistici avanzati potrebbero diventare una risorsa comune, accessibile e modificabile da chiunque, piuttosto che strumenti blindati detenuti solo da pochi attori. Il successo di DeepSeek r1 segna dunque l’inizio di una nuova fase dell’intelligenza artificiale, in cui l’innovazione potrebbe non dipendere più solo dalle risorse e dalle infrastrutture delle grandi aziende tecnologiche, ma anche dalla creatività e dall’ingegno di una comunità globale di ricercatori e sviluppatori.

Tuttavia, questa apertura porta con sé anche nuovi rischi. La possibilità di eseguire modelli avanzati in locale significa che non esistono più barriere tecniche alla distribuzione di sistemi AI molto potenti, con tutte le conseguenze che questo potrebbe avere sulla sicurezza. La personalizzazione dei pesi rende possibile adattare un modello per scopi specifici, il che può portare a utilizzi etici o dannosi, a seconda di chi ne ha il controllo. Modelli aperti potrebbero essere addestrati per generare informazioni false in modo più sofisticato, superare filtri di sicurezza o ottimizzarsi per attività illecite, come la creazione di deepfake più realistici o la generazione di codice malevolo con maggiore precisione. Inoltre, l’assenza di un'infrastruttura centralizzata riduce la possibilità di applicare aggiornamenti di sicurezza universali, lasciando ogni versione del modello alla mercé di chi la utilizza.

La stessa assenza di tale struttura centralizzata, che è stata correttamente additata nel suo significato di una richiesta di risorse energetiche molto minore per DeepSeek, in realtà però potrebbe portare ad un’esplosione del consumo energetico totale, a causa dell’aumento esponenziale degli utenti che potrebbero suare il modello in locale.

Se da un lato DeepSeek r1 segna un passo avanti nella democratizzazione dell’intelligenza artificiale, dall’altro introduce interrogativi sulla regolamentazione e sulla sicurezza. Il nuovo paradigma potrebbe accelerare l’innovazione, ma al tempo stesso rendere più difficile il controllo di potenziali abusi. Questo scenario apre un dibattito su come bilanciare trasparenza e sicurezza, garantendo che la potenza di questi modelli possa essere sfruttata per il progresso scientifico e tecnologico senza sfociare in pericolosi effetti collaterali.

Di più su questi argomenti: