IBM, un computer che simula il cervello di un gatto

di |
logomacitynet696wide

Gli scienziati eseguono simulazioni corticali, su scala della corteccia cerebrale di gatto, e fanno una mappa del cervello umano nel tentativo di costruire chip di tecnologia avanzata

In occasione della conferenza di supercomputing SC 09, IBM ha annunciato quello che a suo dire è un significativo passo avanti verso la creazione di un sistema di calcolo che simula ed emula le capacità  cerebrali legate a sensazione, percezione, azione, interazione e cognizione, eguagliando il basso consumo di energia e le compatte dimensioni del cervello.

Il team di “cognitive computing” ha conseguito progressi significativi nella simulazione corticale su grande scala e ha sviluppato un nuovo algoritmo che sintetizza i dati neurologici: due tappe importanti che indicano la fattibilità  della costruzione di un chip per il calcolo cognitivo.

Gli scienziati di di Almaden, in collaborazione con i colleghi del Lawrence Berkeley National Lab, hanno eseguito la prima simulazione corticale del cervello in tempo quasi reale che supera la scala di una corteccia cerebrale di gatto e contiene 1 miliardo di neuroni e 10 trilioni di singole sinapsi di apprendimento.

Inoltre, in collaborazione con i ricercatori della Stanford University è stato sviluppato un algoritmo che sfrutta l’architettura di supercomputing di Blue Gene per misurare e mappare in modo non invasivo le connessioni tra tutti i siti corticali e subcorticali all’interno del cervello umano, utilizzando immagini a diffusione pesata di risonanza magnetica. Fare una mappa dello schema delle connessioni cerebrali è cruciale per districare la vasta rete di comunicazione e comprendere come vengono rappresentate ed elaborate le informazioni.

Questi progressi forniranno un banco di lavoro unico per esplorare le dinamiche elaborative del cervello e avvicineranno il team al raggiungimento dell’obiettivo di costruire un chip “sinaptronico” compatto e a bassa potenza, che sfrutta la nanotecnologia e i progressi nella memoria a cambiamento di fase e le giunzioni a effetto tunnel magnetico (MTJ).

Il lavoro svolto dal team è destinato a rompere gli schemi dell’architettura informatica tradizionale detta di “Von Neumann”.

Nel momento in cui la quantità  di dati digitali che creiamo continua a crescere in maniera esponenziale e il mondo diventa sempre più dotato di strumenti e interconnesso, servono nuovi tipi di sistemi informatici, con una nuova intelligenza, in grado di individuare modelli difficilmente rilevabili in un’enorme varietà  di tipologie di dati, sia digitali che sensoriali; analizzare e integrare le informazioni in tempo reale in modo dipendente dal contesto; e gestire l’ambiguità  tipica degli ambienti complessi del mondo reale.

Le aziende avranno al contempo la necessità  di monitorare, prioritizzare, adattare e prendere rapide decisioni sulla base di un flusso sempre crescente di dati e informazioni critiche.

Un computer cognitivo potrebbe ricomporre con rapidità  e accuratezza i diversi pezzi di questo puzzle complesso, tenendo conto anche del contesto e di esperienza precedentemente accumulata, per aiutare i responsabili aziendali a giungere ad una risposta logica.

Per eseguire la prima simulazione corticale del cervello in tempo quasi reale che supera la scala di una corteccia cerebrale di gatto, il team ha costruito un simulatore corticale che incorpora una serie di innovazioni nel calcolo, nella memoria e nella comunicazione, nonché dettagli biologici sofisticati derivati dalla neurofisiologia e dalla neuroanatomia.

Questo strumento scientifico, simile a un acceleratore lineare o a un microscopio elettronico, è essenziale per verificare le ipotesi della struttura, della dinamica e della funzione del cervello. La simulazione è stata eseguita utilizzando il simulatore corticale sul supercomputer Dawn Blue Gene/P del Lawrence Livermore National Lab, con 147.456 processori e 144 terabyte di memoria.

L’algoritmo, se associato al simulatore corticale, consente agli scienziati di sperimentare varie ipotesi matematiche sulla funzione, sulla struttura cerebrale e su come la struttura influisce sulla funzione, mentre si lavora alla scoperta dei micro- e macro-circuiti computazionali di base del cervello.

Dopo il positivo completamento della Fase 0, IBM e i suoi partner universitari hanno ricevuto recentemente 16,1 milioni di dollari di finanziamenti supplementari, da parte della Defense Advanced Research Projects Agency (DARPA), per la Fase 1 dell’iniziativa Systems of Neuromorphic Adaptive Plastic Scalable Electronics (SyNAPSE) della DARPA. Questa fase di ricerca sarà  incentrata sui componenti, sull’architettura simil-cerebrale e sulle simulazioni per costruire un prototipo di chip.

La missione a lungo termine dell’iniziativa di cognitive computing è scoprire e dimostrare gli algoritmi del cervello e fornire computer cognitivi compatti e a basso consumo, in grado di avvicinarsi all’intelligenza dei mammiferi e di utilizzare una quantità  significativamente minore di energia rispetto ai sistemi di calcolo attuali. Il team di eccellenza comprende ricercatori di diversi laboratori IBM di tutto il mondo e scienziati della Stanford University, University of Wisconsin-Madison, Cornell University, Columbia University Medical Center e University of California- Merced.

L’informatica moderna si basa su un modello a programma memorizzato (stored program), tradizionalmente realizzato con circuiti di tipo “general-purpose” digitali, sincroni, seriali, centralizzati, veloci, cablati, con indirizzamento di memoria esplicita, che riscrivono sempre i dati e impongono una dicotomia tra calcolo e dati. In netto contrasto, il cognitive computing * come il cervello * utilizzerà  unità  computazionali replicate, neuroni e sinapsi implementati in substrati biologici a modalità  mista analogica-digitale, asincroni, paralleli, distribuiti, lenti, riconfigurabili, specialistici e fault tolerant, con indirizzamento di memoria implicita che aggiorna lo stato solo quando le informazioni cambiano, rendendo meno netto il confine tra calcolo e dati.
[A cura di Mauro Notarianni]