“Fermi”, nuova architettura GPU da Nvidia

di |
logomacitynet696wide

Una nuova architettura di Nvidia ribattezzata con il cognome del grande scienziato italiano Enrico Fermi, pensata per il mondo delle workstation high-end, desktop professionali, applicazioni per l’elaborazione parallela.

Nvidia ha annunciato una nuova architettura per GPU CUDA denominata “Fermi”, in onore del grande fisico e Premio Nobel italiano. In precedenza nota con il nome in codice “GT300”, l’architettura è stata presentata nel corso della GPU Technology Conference di San Jose in California, Fermi non è solo una nuova architettura per GPU ma una piattaforma in grado di accelerare le operazioni di calcolo in vari settori.

Nvidia sta da molti anni investendo nel calcolo parallelo, nel GPU computing (processori in parallelo ad altissime performance che cooperano con la CPU secondo un modello di co-processing) e nell’architettura CUDA (un ambiente che consente di sviluppare applicazioni sfruttando le unità  di elaborazioni parallele delle GPU) con interessanti risultati nel campo dell’intrattenimento domestico, del 3D, nel campo meteorologico, nella codifica audio/video, ricerca scientifica e molti altri ambiti nei quali è applicabile il calcolo parallelo.

Fermi è un successivo passo avanti nella ricerca che Nvidia sta compiendo nell’ambito del GPU computing, uno step che prevede anche la realizzazione di un supercomputer che sarà  progettato con il supporto di Cray, Dell, HP e IBM.

Le nuove schede video “Quadro” e “Tesla” basate su quest’architettura potrebbero già  debuttare all’inizio del prossimo anno, utilizzeranno tecnologia a 40 nanometri e una quantità  enorme di transistor (oltre 3 miliardi); il numero di stream processor (“CUDA core”) passerà  dai 240 visti nelle precedenti architetture a 512, una “Special function Unit” con 4 pipeline sarà  sfruttata per operazioni di interpolazione e per matematica trascendentale. Ogni stream processor avrà  una cache dedicata da 64 Kbytes partizionabile come memoria condivisa e cache L1. Le elaborazioni interne di ogni core permettono di eseguire operazioni in double precision in virgola mobile, utile in alcuni ambiti super-computing.

Le GPU Fermi possono eseguire 24576 thread contemporaneamente e un sistema di scheduling integrato (“Giga Thread”) permette l’esecuzione di più applicazioni contemporanee all’interno della GPU. Nvidia non ha specificato quale sarà  il quantitativo di memoria video implementabile sulla nuova architettura, ma è probabile che questo non sarà  inferiore a 1,5 Gigabytes (e in alcune varianti di “Tesla” potrebbe persino arrivare a 6 Gigabytes). Mancano informazioni su consumi e prezzi ma è ad ogni modo indubbio che la nuova architettura è un nuovo punto di svolta in un mercato sempre più redditizio e complesso.
[A cura di Mauro Notarianni]