Ormai è abbastanza chiaro: la WWDC 2025 che parte il 9 giugno porterà tutta l’attenzione sul design, la grafica e l’interfaccia rinnovata di iOS 26 e macOS 26, oltre che degli altri sistemi operativi collegati.
Per il resto Apple avrà un tono minimalista ed evitando trionfalismi e sguardi troppo proiettati al futuro, metterà in secondo piano tematiche importanti ma sulle quali non è pronta a sfidare la concorrenza, come ad esempio accade con l’Intelligenza Artificiale.
Certo, Apple presenterà l’apertura dei suoi Foundation Models agli sviluppatori, permettendo di sfruttare i modelli linguistici locali per funzioni leggere, e magari farà vedere qualche ribrandizzazione “AI-powered” nelle app di sistema.
Magari annuncerà qualche patto strategico come quello che potrebbe consentire di usare Gemini in alternativa a ChatGPT, ma molto difficilmente ci parlerà di come vuole rivoluzionare tutta la sua struttura mettendo alla base di essa l’Intelligenza Artificiale.
Cosa manca e cosa potrebbe arrivare
Del resto ad Apple manca molto per competere alla pari con OpenAI, soprattutto le mancano quel paio di anni di vantaggio che ha gentilmente concesso a Google e che hanno fatto sì che la rivale di sempre nei sistemi operativi potesse organizzare un’intera offerta di prodotto basata su AI.
Ma questo non significa che Apple è restata ferma. Sono molti i progetti in cantiere per dare la possibilità a Cupertino di raccontare, magari il prossimo anno, una storia più convincente.
Di essi parla, come sempre, Mark Gurman nella sua newsletter PowerOn. Vediamo quali sono i capitoli in corso di scrittura.
LLM Siri
LLM Siri è il progetto più audace, una riscrittura completa dell’architettura di Siri, per trasformarla in un assistente conversazionale sul modello del voice mode di ChatGPT. L’obiettivo doveva essere raggiunto tra quest’anno e il prossimo, dopo avere dato all’assistente virtuale la capacità di ragionare sulle applicazioni e di avere una visione contestuale.
Fallito il traguardo si è allontanato anche quello per dotare Siri di una vera interfaccia dialogica, capace di ragionare e rispondere in modo naturale. Ma nei laboratori si sta lavorando alacremente per arrivare al lancio per il prossimo anno.
Shortcuts potenziati dall’AI
La storica app Comandi (Shortcuts), oggi usata per automatizzare azioni come avviare funzioni specifiche o riprodurre playlist, sarà rinnovata per integrare i modelli di Apple Intelligence. Gli utenti potranno creare automazioni non più solo tramite menu e passaggi manuali, ma interagendo direttamente con l’AI.
Questa funzione era prevista già per il 2025, i ritardi la sposteranno al 2026, ma la funzione resta vicina. Non è da escludere che sia una delle funzioni che saranno presentate alla WWDC se Apple avrà sufficiente fiducia di poterla rilasciare davvero.
Progetto Mulberry, l’AI medica
Apple sta lavorando a un servizio AI in campo salute, nome in codice Mulberry, collegato a una nuova versione ridisegnata dell’app Salute. Si tratta di un progetto ancora in fase avanzata di sviluppo, previsto per un aggiornamento primaverile a iOS 26 nel 2026, che potrebbe portare l’AI nel monitoraggio e nell’assistenza sanitaria personale.
Questa piattaforma è importante anche per quanto riguarda l’hardware: Apple Watch potrebbe beneficiare enormemente dalla sua implementazione.
E poi dietro ad essa ci sono anche una serie di progetti fondamentali su cui Apple lavora da anni, come le applicazioni per il personal training, per non parlare dei sistemi di misurazione della glicemia e della pressione arteriosa.
Knowledge, il chatbot Apple
Il progetto più interessante quanto anche il più distante è Knowledge, il chatbot concorrente di ChatGPT capace di attingere informazioni dal web aperto. Questo lavoro, inizialmente gestito da Robby Walker e poi passato sotto Mike Rockwell (padre del Vision Pro), ha però incontrato già gli stessi problemi che stanno rallentando la nuova Siri.
Knowledge è strettamente connesso al miglioramento degli LLM e alla loro qualità. Sappiamo che Apple fino a ieri ha addestrato i suoi modelli ricorrendo solo a dati sintetici invece che attinti dal mondo reale, e questo ha frenato di molto il loro miglioramento. Le cose dovrebbero cambiare con l’uso di dati umani anonimizzati.
Apple internamente lavora su una gamma ampia di modelli, da 3 miliardi a 7 miliardi, fino a 33 miliardi e addirittura 150 miliardi di parametri. Quest’ultimo, basato su cloud come quelli di OpenAI e Google, è molto più potente della tecnologia on-device e capace di ragionamenti sfumati.
Gli ingegneri che misurano i progressi dell’AI usando uno strumento chiamato Playground e confrontano i risultati dei modelli Apple con quelli di ChatGPT, Gemini e altre piattaforme concorrenti, hanno verificato che il modello a 150 miliardi si avvicina già alla qualità delle ultime versioni di ChatGPT, ma Apple non lo ha ancora trasformato in un chatbot pubblico.
Ci sono troppe preoccupazioni sulle allucinazioni tipiche dei modelli generativi e divergenze filosofiche tra i dirigenti su quanto velocemente e quanto apertamente procedere.














