Questo sito contiene link di affiliazione per cui può essere compensato

Home » Hi-Tech » Voci dalla Rete » Apple Intelligence, ecco come funziona e come si addestra l’Ai di Apple

Apple Intelligence, ecco come funziona e come si addestra l’Ai di Apple

Il futuro dell’intelligenza artificiale secondo Apple non si gioca tutto in cloud, né tutto su chip ultra-potenti. Si gioca piuttosto nel delicato equilibrio tra privacy, efficienza e integrazione profonda nell’ecosistema, un terreno dove Cupertino punta a distinguersi più che a inseguire.

Dopo l’annuncio di Apple Intelligence alla WWDC 2024, e dopo gli ultimi travagli, Apple ha pubblicato il rapporto tecnico ufficiale sui suoi modelli AI. Un documento ricco di dettagli su architettura, ottimizzazioni, training, dati e privacy, che aiuta a capire come l’intelligenza artificiale sarà presto parte della vita quotidiana su iPhone, iPad e Mac. Anche un documento molto tecnico che però contiene spunti interessanti anche per un pubblico generalista e in definitiva per tutti noi.

L’AI entra nel vostro iPhone ed esce solo quando serve uscirne

Tecnicamente Apple ha raggiunto almeno un traguardo molto rilevante. Per anni ci siamo sentiti dire che l’intelligenza artificiale richiedeva server remoti e potenza illimitata, ma a Cupertino hanno creduto e lavorato per fare in modo che questa affermazione fosse meno vera.

È stato così costruito un modello da 3 miliardi di parametri che gira direttamente sul dispositivo. Sono ben distanti da quelli utilizzati anche dal modello più semplice di AI basata su server (GPT 3 primo modello aveva 175 miliardi di parametri) ma un livello che oggi nessuno ha mai raggiunto in locale.

Apple ci riesce grazie a due innovazioni tecniche: il modello è diviso in due blocchi (uno dei quali senza proiezioni key-value), e viene addestrato con un formato ultra-compresso a 2 bit. Con il risultato di risposte più rapide, meno memoria occupata e nessuna necessità di inviare dati al cloud.

Apple Intelligence, cosa si può fare con l'AI di Apple in italiano - macitynet.it

Quando serve il cloud, resta tutto in casa (davvero)

Per le operazioni più complesse, Apple usa, come noto, una piattaforma server chiamata Private Cloud Compute. Ma non è il solito cloud: tutto viene crittografato in modo tale che nemmeno Apple possa accedere ai dati. I prompt non vengono associati all’ID Apple, e non vengono archiviati.

Alla base c’è un’architettura chiamata PT-MoE (Parallel-Track Mixture-of-Experts): un sistema intelligente che attiva solo le “competenze” necessarie a rispondere, lasciando il resto spento. È modulare, scalabile e costruito per funzionare bene senza rinunciare alla riservatezza.

Più lingue, meno inglese-centrismo

Uno dei limiti iniziali dell’AI Apple era il supporto linguistico. Oggi, però, il nuovo modello ha aumentato la quota di dati multilingue dal 8% al 30%, e ampliato il vocabolario da 100.000 a 150.000 token. I test sono stati condotti con madrelingua, per risposte più naturali nei contesti locali.

In pratica, strumenti come i Writing Tools di iOS 18 saranno molto più efficaci anche in italiano. Una svolta concreta per chi scrive email, appunti o messaggi.

Da dove impara l’AI di Apple?

Apple ha spiegato nel dettaglio anche le fonti di addestramento, un altro fattore estremamente critico per la qualità delle risposte:

  • Dati pubblici dal web, selezionati da Applebot nel rispetto del file robots.txt
  • Contenuti con licenza, probabilmente da editori come Condé Nast e NBC
  • Dati sintetici, generati da modelli più piccoli per allenare l’AI su matematica, codice e istruzioni
  • Dati visivi: oltre 10 miliardi di coppie immagine-didascalia

Apple afferma di filtrare contenuti inutili o tossici, e di non attingere mai a dati personali o conversazioni utente. Questa garanzia significa buona qualità delle risposte e meno errori ed allucinazioni.

Nei benchmark, l’AI di Apple non batte GPT-4o o Claude 3 Opus, ma è progettata per un altro scopo: essere rapida, efficiente e profondamente integrata nei dispositivi Apple. Senza intaccare la privacy, e senza bisogno di una connessione costante.

L’AI capisce testo, immagini… e anche scarabocchi

I nuovi modelli sono multimodali: capiscono testo e immagini. Questo include screenshot, OCR, schemi, foto e persino note scritte a mano. Il modello on-device usa un encoder dedicato da 300 milioni di parametri, quello server ne usa uno da 1 miliardo.

Il potenziale è enorme: dall’organizzazione automatica delle foto alla comprensione del contenuto visuale nei documenti, fino alla possibilità di ricevere suggerimenti intelligenti da elementi visivi.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Le migliori offerte BLACK FRIDAY con macitynet.it

Pubblicità
Pubblicità

Ultimi articoli