Una rete di eccellenza contro il collasso della “legge di Moore”

Gli attuali cellulari hanno prestazioni superiori ai computer che utilizzò la NASA per mandare gli astronauti sulla Luna. Le playstation che oggi costano circa 200 dollari hanno la stessa potenza dei supercomputer in dotazione al  Pentagono negli anni ’90 che costavano milioni di dollari. Questi sono soltanto alcuni dei tanti possibili esempi che descrivono la performance esponenziale compiuta nei decenni trascorsi dalla  “legge di Moore”.

Gordon Moore, uno dei fondatori dell’Intel, la formulò per la prima volta nel 1965. Il contenuto è semplice: la potenza dei computer raddoppia ogni 18 mesi. E questo è puntualmente successo negli ultimi 50 anni: una rivoluzione, tra le più grandi che abbia vissuto il genere umano. Il crescente aumento di potenza dei computer ha cambiato radicalmente – nello spazio di pochi decenni – le comunicazioni, la società e la vita quotidiana di ognuno di noi. In pratica, La legge – guidando lo sviluppo dell’industria dei semiconduttori e dei microchip – ha determinato l’avvento di quella che viene definita “l’era del silicio”:  uno dei principali “motori” della crescita dell’economia mondiale. Ma,  ora le cose stanno velocemente cambiando. Una pesantissima crisi economico-finaziaria imperversa  nei  paesi industrializzati e con il superamento del primo decennio del XXI secolo si teme che ad essa possa aggiungersi un altro shock: il “collasso” della legge di Moore.

Il problema è che questa tecnologia  sta per varcare i limiti del mondo fisico. Un singolo strato di un chip ha già uno spessore di appena 20 atomi. Quando si arriverà –tra non molto –  a 5 atomi sarà stato raggiunto il limite. A quel punto il calore generato diventerà troppo grande per essere dissipato da una superfice così piccola, e quindi il chip inizierà a fondere. Ma, non basta. C’è anche un altro fondamentale problema: a quelle dimensioni la fisica classica viene sostituita dalla meccanica quantistica. Di conseguenza, non essendo più possibile stabilire l’esatta posizione degli elettroni, diventano impossibili le operazioni logiche eseguite dai microchip che stanno che stanno alla base della logica binaria dei computer. E quindi viene a cessare qualsiasi capacità di calcolo e di elaborazione. Ma, tutto questo – precisamente – quando accadrà? Gli esperti sono concordi nel ritenere che i  limiti saranno raggiunti entro il 2020 quando l’universo digitale che i computer dovranno gestire dovrebbe essere nell’ordine dei 35 zittabyte. Una dimensione mostruosa se pensiamo che un solo zettabyte corrisponde a 180 milioni di volte la documentazione conservata nella biblioteca più grande del mondo, quella del Congresso di Washigton che ha un patrimonio di circa 128 milioni di documenti.

Il “collasso” della legge di Moore è un problema serio dal punto di vista tecnologico e può diventare un dramma industriale con gravissime ricadute non solo economiche ma anche sociali con la paralisi dei nostri sistemi informatici distribuiti ormai capillarmente in tutti i settori essenziali: sanità, sicurezza, pubblica amministrazione, educazione ecc. Può, nello stesso tempo, trasformarsi anche in un’occasione, in una grande opportunità per la ricerca al punto da far intravvedere la possibilità di un nuovo balzo in avanti della tecnologia che apra le porte – dopo quella del microprocessore –  a una seconda rivoluzione informatica.

La UE sta spostando risorse in questa direzione, finanziando con il Settimo programma quadro (ultima trance è di 3,8 milioni di euro) HiPEAC (High-Performance and Embedded Architecture and Compilation). Si tratta di una rete d’eccellenza che mette insieme mondo accademico e industria attraverso l’interconnessione di oltre un migliaio di ricercatori, e di 100 università e 50 aziende. Obiettivo comune è mettere in condizione i sistemi informatici di affrontare e superare l’era post-Moore e accrescere in questo modo la visibilità dell’Europa a livello mondiale attraverso la promozione dell’innovazione e del trasferimento tecnologico. Come sostiene Koen De Bosschere, docente di sistemi informatici presso l’Università di Ghent in Belgio e coordinatore della rete HiPEAC: “ le potenziali applicazioni delle tecnologie informatiche in ogni aspetto della vita sono quasi infinite e dobbiamo essere sicuri di avere la corrispettiva potenza  di elaborazione per eseguirle”.

Uno dei più forti segnali che il paradigma deve cambiare è il cosiddetto “data deluge”, cioè un vero e proprio diluvio di dati che generato da un’infinità di processi di archiviazione, condivisione e di richieste di accesso a quantità sempre più crescenti di dati  gonfia sempre di più l’universo digitale. Un “big data”  alimentato anche dal trattamento dei dati stessi: una crescente massa di informazioni aggiuntive derivanti dagli incroci e correlazioni  tra dati (linked data) capaci di estendere ulteriormente ricerca e applicazioni in vari campi dal commercio alla prevenzione delle malattie, dalla lotta alla criminalità al monitoraggio del traffico stradale ecc. Un “diluvio” che comporta  da un lato  un’esplosione di connettività ben oltre le tradizionali reti di pc e che si estende alle nuove infrastrutture per il “cloud” (data server) e alla  grande varietà di dispositivi mobili  come  smartphone, tablet ecc., e dall’altro implica un’incalzante e crescente “domanda di affidabilità” soprattutto da parte dalle applicazioni mobili emergenti.

HiPEAC ha messo a punto una doppia strategia di breve e di lungo termine. Sono diversi gli obiettivi più immediati della ricerca. Punto di partenza è l’efficienza energetica. Per realizzarla il primo passo – dal punto di vista hardware –  è il passaggio dal processore unico (core) ai sistemi paralleli (multi-core). Questo comporterà il problema – inevitabile – della riscrittura dei software con costi non indifferenti. Nello stesso tempo sarà necessario progettare nuove architetture per affrontare sia l’emergenza del divario tra il “data deluge” e capacità elaborativa delle macchine che la questione dell’affidabilità  e della privacy – in sistemi sempre più “ubiquitous computing” – con l’implementazione di una forte dose di affidabilità.

L’EDVAC – con una memoria di 1000 parole e un peso di quasi 8 tonnellate – divenne operativo nel 1951. Fu uno dei primi computer al mondo basato sull’architettura di von Neumann. Sessant’anni dopo l’architettura del processore (cpu) dei nostri dispositivi mobili, microcomputer, palmari ecc. è in pratica ancora la stessa. La strategia di lungo periodo dell’HiPEAC è ambiziosa e quasi fantascientifica: superare il modello von Neuman, abbandonare l’era del silicio e progettare sistemi radicalmente diversi. Si entra in una dimensione ancora molto teorica,  dove le certezze scientifiche sono poche.

Tuttavia,  molte ricerche sono in corso. Quella sul computer quantistico è tra le più avanzate e  si basa sull’utilizzo delle proprietà delle particelle quantistiche per eseguire operazioni sui dati e rappresentarne la struttura. HiPEAC a fronte di uno sforzo economico UE che si aggira complessivamente intorno ai 70 milioni di euro  che la candida a guidare il futuro del continente nell’ambito  del computing system,  prenderà in considerazione – nella sua strategia a lungo periodo – non solo l’ipotesi quantistica, ma anche altre promettenti aree di ricerca: dall’interconnessione ottica  ai sistemi bio-ispirati dal calcolo stocastico allo sciame di calcolo. Per il cambio di paradigma ci vorrà sicuramente del tempo. Ma, se i risultati sull’efficienza energetica e il calcolo parallelo riusciranno a far superare ai sistemi informatici la difficile fase di transizione, una seconda rivoluzione può diventare possibile e a scandirla potrebbe esserci anche una “futura” legge di Moore.

Pubblicato su LIB21 il 26 novembre 2012

Questa voce è stata pubblicata in Senza categoria e contrassegnata con , , , . Contrassegna il permalink.