Nell’ambito della WWDC25 Apple ha annunciato che gli sviluppatori saranno a breve in grado di accedere ai large language model (LLM) on-device (richiamabili direttamente dal dispositivo), gli stessi alla base di Apple Intelligence, direttamente dalle loro app sfruttando il framework “Foundation Models”.
Il framework Foundation Models (un’architettura logica di supporto partendo dalla quale un software può essere progettato e realizzato, facilitando lo sviluppo al programmatore) offre agli sviluppatori la possibilità di sfruttare funzionalità AI native nelle app, consentendo a terze parti di sfruttare funzionalità per la creazione di immagini, testi e altro ancora.
Alla stregua di quanto possibile con Apple Intelligence, l’elaborazione “on device” (direttamente sul dispositivo) permetterà di sfruttare funzionalità AI veloci, potenti e incentrate sulla privacy, senza bisogno per forza di sfruttare connessioni internet.
Indiscrezioni dell’arrivo di questo framework circolavano da tempo, con Cupertino intenzionata a offrire Apple Intelligence a terze parti. Oltre all’apertura di Apple Intelligence a terze parti, l’azienda ha anche annunciato il supporto di un numero maggiore di linguaggi per la sua piattaforma AI, promettendo di rendere i modelli generativi ancora “più capaci e più efficienti”.