Il Foglio Innovazione
Perché il futuro dei computer si calcolerà in qbit, e sarà una rivoluzione come nessun'altra
Siamo alle soglie di un’èra nuova per l’informatica, e grazie ai quantum computer potremo risolvere problemi di business, ricerca, società, politica, scrive Alessandro Curioni. Ecco la strada da percorrere adesso
I computer portatili, i telefoni cellulari e le applicazioni online che sono onnipresenti nelle nostre vite si basano tutti su una successione di zero e di uno – sui bit. Questo elemento fondamentale è nato dalla combinazione della matematica e della Teoria dell’informazione di Claude Shannon. Grazie al perdurare cinquantennale della legge di Moore, il bit ha sospinto la digitalizzazione del nostro mondo. Negli ultimi anni i sistemi di intelligenza artificiale, che uniscono la biologia ispirata dai neuroni con l’informazione, hanno raggiunto una precisione sovrumana in tutta una serie di impieghi di classificazione imparando da dati etichettati. Il passaggio da una intelligenza artificiale debole a un’intelligenza artificiale forte richiederà l’unione dell’apprendimento e del ragionamento attraverso sistemi neurosimbolici, che daranno vita a una forma di AI che sarà in grado di portare a termine molti compiti, agire in molteplici domini e imparare da piccole quantità di dati provenienti da input multimodali. Infine, l’unione della fisica e dell’informazione porta all’emergere di una Teoria dell’informazione quantistica e allo sviluppo del quantum bit (il qbit), che forma la base dei quantum computer. Abbiamo costruito i primi quantum computer programmabili, e benché la tecnologia sia ancora agli albori, questi sistemi hanno il potenziale di risolvere problemi inarrivabili anche per i più potenti tra i computer tradizionali.
Il futuro dell’informatica sarà radicalmente differente da come è stato nel passato. Non sarà basato su bit sempre più numerosi e meno costosi, ma sarà costruito da bit + neuroni + qbit. Questo futuro renderà possibile la nuova generazione di sistemi critici e darà impulso alle scoperte scientifiche. Il campo dell’informatica in questo momento vive una flessione eccezionalmente importante, caratterizzata da numerosi elementi di disruption. Gli ultimi 60 anni di progresso informatico sono stati caratterizzati dalla Legge di Moore e dalla sua osservazione che all’incirca ogni due anni i circuiti integrati o raddoppiano di potenza o dimezzano il proprio costo. Tuttavia, la cadenza dei nodi della tecnologia dei transistor è rallentata nell’ultimo decennio, e il motore che ha spinto la crescita esponenziale dell’informatica classica è arrivato a un plateau. Questo rallentamento sta forzando una transizione verso sistemi di progettazione eterogenei rafforzati da acceleratori specifici, per risolvere la necessità di aumentare le prestazioni senza modificare i prezzi e l’approvvigionamento energetico. Tuttavia, questi sistemi sono molto più difficili da progettare e da utilizzare in maniera efficiente.
Nonostante tutto, gli avanzamenti nel puro potere computazionale ci hanno portato a un punto in cui i modelli di reti neurali ispirati dalla biologia sono profondamente integrati con lo stato dell’arte. Le capacità dell’intelligenza artificiale di interpretare e analizzare i dati per l’estrazione di valore in applicazioni di ricerca, di uso utente e di business sono cresciute enormemente.
Allo stesso tempo, i quantum computer programmabili sono da poco emersi da decenni di investimenti nella ricerca che cercava di identificare nuovi modelli computazionali che potessero superare i limiti fisici delle tecnologie digitali tradizionali. I quantum computer hanno il potenziale di calcolare problemi che sono semplicemente irraggiungibili per le architetture informatiche tradizionali, e questo genera un vero vantaggio quantistico. Dal maggio del 2016, quando i quantum computer programmabili sono stati resi disponibili sul cloud per la prima volta, abbiamo stabilito una roadmap aggressiva per sviluppare Quantum Volume (le performance dei quantum computer, ndt), esattamente come la legge di Moore ha fatto per le performance e la densità della tecnologia dei semiconduttori. La nostra ambizione è di raddoppiare il Quantum Volume ogni anno, e come risultato i prossimi sistemi informatici dovranno integrare queste capacità di quantum computing in rapida evoluzione nei prossimi anni. Anche il paradigma del cloud computing sta portando grande scompiglio nell’informatica. Il cloud si è già dimostrato come il meccanismo principale di calcolo informatico per il futuro, perché soddisfa la necessità di fornire una capacità computazionale geograficamente distribuita e complessa in tutta l’economia globale connessa. Il cloud fornisce anche sicurezza di alto livello e garantisce soluzioni che molte imprese non possono permettersi di sviluppare internamente. Inoltre, sostiene la necessità di distribuzione dei dati con cui presto avremo a che fare: le quantità di dati crescono così rapidamente che il calcolo dovrà seguire i dati, e non sarà più possibile confinare i dati in pochi luoghi di aggregazione nei data center privati.
Alla base di tutte queste sfide e opportunità tecnologiche è una disponibilità di dati che non ha precedenti nella magnitudine e nella precisione. Ogni parte delle attività di ricerca, impresa, consumo, governo oggi generano dati in enorme quantità. Questi dati sono la fondazione su cui si basano le opportunità di computazione che abbiamo davanti. In applicazioni semplici, l’intelligenza artificiale applicata ai dati può velocizzare le analisi e le modellazioni tradizionali di diversi ordini di grandezza. Le architetture informatiche del futuro inoltre promettono di trovare soluzioni a problemi complessi direttamente all’interno dei dati, per esempio attraverso la Accelerated Discovery. Progettare architetture per avvantaggiarsi dei grandi, complessi e spesso confidenziali dataset necessari per le prossime applicazioni pone sfide molteplici, che comprendono la sicurezza, la crittografia, la privacy, la provenienza, il management e le performance.
Il futuro dell’informatica sarà costruito su una fondazione di bit + neuroni + qbit. La nostra idea, semplice ma radicale, è che possiamo tessere assieme bit, neuroni e qbit per formare delle fondamenta potenti. La nuova generazione di computer ha già cominciato a prendere forma nei laboratori. Nel futuro, i ricercatori e i clienti useranno queste nuove risorse computazionali per costruire rapidamente e per sviluppare applicazioni creative e intelligenti per risolvere problemi complessi che riguardano la ricerca, il business, la società, alcuni dei quali ancora nemmeno ci immaginiamo. Abbiamo già visto come il digitale e l’intelligenza artificiale si combinano per trasformare le imprese cognitive. Immaginate cosa ci aspetta nel prossimo decennio, quando avremo a disposizione le potenzialità di questo futuro dell’informatica.
(traduzione dall’inglese a cura della redazione)
* Alessandro Curioni è un IBM Fellow, Vicepresidente di IBM Europa e Africa e Direttore dell’IBM Research Lab di Zurigo. Oltre a essere responsabile della ricerca IBM in Europa, coordina quella globale nell’ambito dell’Internet of Things e della Sicurezza. Leader a livello internazionale nel campo del calcolo ad alte prestazioni e delle scienze computazionali, ha contribuito a risolvere alcuni dei più complessi problemi scientifici e tecnologici nei settori della sanità, dell’aerospazio, dei beni di consumo e dell’elettronica. E’ stato membro del team che si è aggiudicato il Gordon Bell Prize nel 2013 e nel 2015.
Il Foglio Innovazione