Google DeepMind presenta AlphaEvolve, un nuovo agente di intelligenza artificiale che unisce i modelli linguistici Gemini a un approccio “evolutivo” per affinare algoritmi complessi.
A differenza di un semplice chatbot, AlphaEvolve accetta in input un problema contornato da possibili soluzioni o suggerimenti, quindi sfrutta sia la rapidità di Gemini Flash sia la profondità di Gemini Pro per generare più alternative. Successivamente un modulo di valutazione automatica seleziona l’opzione più promettente e ne sviluppa versioni migliorate, ripetendo il processo fino a ottenere un risultato ottimale.
In questo modo google pensa a cambiare metodologia di funzionamento dell’AI, aiutando gli utenti a contenere le cosiddette “allucinazioni” delle AI conversazionali, cioè risposte inventate in modo impreciso. Grazie al meccanismo iterativo di generazione, test e perfezionamento, AlphaEvolve dovrebbe garantire risultati più affidabili anche su problemi di natura algoritmica e matematica di elevata complessità.
Diversamente da altri sistemi specialistici di DeepMind – come AlphaFold – AlphaEvolve è concepito come piattaforma generica, non per compiti specifici, capace di supportare ricerche in tutti i campi della programmazione e dell’ottimizzazione.
Google ha provato AlphaEvolve sul suo sistema Borg, che coordina i computer nei data center. L’AI ha suggerito di riorganizzare l’ordine in cui vengono eseguiti i compiti, permettendo ai server di lavorare un po’ meno senza perdere velocità. Quel piccolo risparmio dello 0,7% di potenza di calcolo è in realtà molto importante per un’azienda grande come Google, perché significa meno consumo di energia e meno costi operativi.
Un altro traguardo riguarda i sistemi di AI generativa, che dipendono da operazioni di moltiplicazione di matrici complesse. Per decenni il metodo più efficiente era quello di Strassen (1969), ma AlphaEvolve ha individuato un algoritmo ancora più rapido, superando persino AlphaTensor, un agente precedentemente addestrato in modo più specifico.
Oltre al software, AlphaEvolve ha già messo mano al codice hardware: nel linguaggio Verilog, usato per i futuri chip Tensor di Google, ha eliminato bit non necessari e semplificato parti del progetto. Queste modifiche dovrebbero tradursi in chip capaci di eseguire le stesse operazioni con minore consumo di energia e maggiore velocità, contribuendo a rendere più efficienti le prossime generazioni di acceleratori AI.
Per ora AlphaEvolve resta un asset interno a Google, troppo oneroso per un rilascio pubblico, ma in futuro la sua strategia di valutazione e perfezionamento automatico potrebbe essere adattata in versioni più leggere.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.












