Che Apple abbia un un problema con l’intelligenza artificiale non è un segreto. Meno noto e un po’ più controverso è elaborare le ragioni per cui, mentre Google, Microsoft e OpenAI correvano a tutta velocità nella rivoluzione dell’AI generativa, a Cupertino si accumulavano ritardi, esitazioni, scelte discutibili suscitando una generale senso di impreparazione.
A darci una idea più precisa di quello che è capitato in questi anni è una ricostruzione dettagliata dei passi falsi di Apple pubblicata da Bloomberg, firmata da Mark Gurman e Drake Bennett. Attraverso fonti interne e testimonianze dirette, il vastissimo articolo racconta una storia di ambizioni disattese, prototipi promessi e mai consegnati, e un team dirigenziale rivoluzionato e diviso tra fiducia di facciata e scetticismo di fondo.
Gli errori del passato
Raccontare dettagliatamente tutto quel che dicono i due giornalisti nel loro ricchissimo rapporto impossible. Ci sono risvolti e retroscena, passaggi noti e meno noti, personaggi e episodi interessanti, che contribuiscono a creare un quadro completo e molto attendibile di tutto quello che ha condotto Apple alla situazione attuale. Vediamo qui di seguito, prima di tutto, sinteticamente quali sono stati i passi fasi principali.
Struttura disorganica
Per anni l’intelligenza artificiale in Apple è stata distribuita su più team senza una direzione unificata. Anche dopo l’arrivo di John Giannandrea, il capo di tutto il sistema AI di Apple, figura molto prestigiosa che aveva contribuito a far crescere da zero il progetto di Intelligenza Artificiale di Google, la mancanza di sinergia tra i reparti ha continuato a rallentare ogni progresso concreto. Senza una cabina di regia forte, l’AI è rimasta ai margini della strategia aziendale.

Investimenti limitati rispetto alla concorrenza
Apple ha destinato molte meno risorse all’intelligenza artificiale rispetto ai suoi rivali. Ha assunto meno ingegneri, acquistato meno GPU e agito con eccessiva prudenza, soprattutto sotto la gestione finanziaria di Luca Maestri. L’ex CFO viene indicato come uno dei principali responsabili della mancanza di risorse tecniche indispensabili allo sviluppo dell’AI della Mela. Il suo rifiuto a concedere i finanziamenti necessari per compare i server per un adeguato sviluppo dell’AI, ha penalizzato pesantemente la capacità di addestrare modelli all’altezza di quelli di Google o OpenAI.
Il perfezionismo non funziona con l’AI
Il metodo Apple, basato sul rilascio di prodotti solo quando raggiungono un livello di perfezione elevatissimo, mal si concilia con la logica dell’intelligenza artificiale, che vive di sperimentazione continua, errori corretti in corsa e aggiornamenti rapidi. Mentre gli altri correvano e imparavano sbagliando, Apple stava ferma.
E anche dopo l’arrivo di ChatGPT, ha preferito osservare anziché reagire, confidando nel solito schema: lasciare che siano gli altri a esplorare e rischiare, per poi presentarsi più tardi con soluzioni raffinate, ben integrate e superiori sul piano dell’esperienza d’uso.
Scetticismo tra i dirigenti
Craig Federighi, figura centrale nel software Apple, ha a lungo minimizzato l’importanza dell’intelligenza artificiale, ritenendola poco centrale per l’esperienza d’uso di iPhone, iPad e Mac. Anche quando alcuni ingegneri di alto livello, già nel 2014, cercavano di spiegargli che l’AI sarebbe stata rivoluzionaria, le loro proposte cadevano nel vuoto.
John Giannandrea, pur con un passato brillante in Google e una reputazione tecnica indiscutibile, non è riuscito a imporsi davvero all’interno della cultura chiusa e gerarchica di Cupertino. Non aveva lo stile del venditore, né la forza politica per chiedere investimenti massicci e imporsi sui tempi.
La prevalenza per la privacy
La prevalenza del rispetto della privacy, da sempre uno dei pilastri dell’identità Apple, ha finito per trasformarsi in un freno per lo sviluppo dell’intelligenza artificiale. Le rigorose limitazioni interne impediscono agli ingegneri di accedere ai dati reali degli utenti, anche in forma aggregata o anonima, riducendo drasticamente la quantità e la qualità delle informazioni disponibili per addestrare i modelli.
A questo si aggiunge il fatto che i siti web possono facilmente escludere Applebot, il crawler di Cupertino, dal raccogliere contenuti utili per Siri e Apple Intelligence. Di conseguenza, i team sono stati costretti a lavorare con dati sintetici o licenze esterne, spesso poco rilevanti o insufficienti.

Siri su fondamenta obsolete
Siri oggi è un sistema ibrido, costruito su una complessa architettura in cui convivono vecchio codice e nuove funzionalità basate su intelligenza artificiale. Questo ha generato problemi tecnici a catena, con centinaia di bug aperti e un’integrazione interna che spesso non regge l’urto. Ogni aggiornamento rischia di rompere qualcosa altrove, rendendo lo sviluppo instabile e frustrante.
Secondo chi lavora al progetto, la caccia ai bug è diventata una partita infinita a whack-a-mole: se ne risolve uno, ne compaiono altri tre nuovi. Una situazione che sta mettendo a dura prova sia i tempi di rilascio che il morale degli ingegneri.
Nessun chatbot proprietario
Mentre Google, OpenAI e altri protagonisti dell’AI hanno lanciato chatbot avanzati capaci di sostenere conversazioni naturali, sintetizzare dati e interagire in tempo reale con l’utente, Apple ha scelto una strada più prudente, preferendo appoggiarsi a ChatGPT. La scelta ha risolto il problema nel breve, ma la mancanza di una soluzione interna credibile continua a pesare come un macigno sulla reputazione di Apple nel settore dell’intelligenza artificiale, facendo apparire l’azienda come un’outsider in una corsa che si gioca tutta sulla leadership tecnologica.
Leadership debole
Negli ultimi mesi, John Giannandrea ha progressivamente perso il controllo su Siri, fino a essere di fatto estromesso dalle attività di sviluppo prodotto. Il morale tra gli ingegneri è crollato: numerosi membri del team lamentano confusione strategica, scarsa trasparenza e una comunicazione interna sempre più frammentata.
La guida di Siri è passata a Mike Rockwell, già a capo del progetto Vision Pro, che ha iniziato a riorganizzare i team portando con sé alcuni dei suoi uomini fidati. Ma si tratta di un processo lento e delicato, e serviranno mesi—se non anni—per ricostruire una struttura tecnica e gestionale in grado di recuperare il terreno perduto.
Che fare ora
Anni di esitazioni, scelte controverse e occasioni mancate dunque. Ora però pare che Apple ha finalmente preso coscienza dei problemi che si sono generati in un contesto che ha malinteso e avviato una profonda revisione della sua strategia sull’intelligenza artificiale. coinvolgendo leadership, infrastrutture, collaborazioni esterne e persino la narrativa con cui l’intelligenza artificiale viene presentata agli utenti.
È stata la conseguenza del toccare con mano i limiti tecnici di Siri, il ritardo di Apple Intelligence, le conseguenze della mancanza di una direzione chiara e di un ecosistema sempre più indietro rispetto alla concorrenza. Un contributo l’hanno dato anche la scossa del successo planetario di ChatGPT e e le figuracce pubbliche.
Ma che cosa si sta facendo per recuperare terreno a Cupertino? Anche qui l’articolo scende molto nel dettaglio e vale la pena di leggerlo. Noi elenchiamo punto per punto quando messo in campo da Apple per tentare di correggere la rotta e riconquistare un ruolo centrale nella nuova era dell’AI.
Ristrutturazione della Leadership AI
Apple ha effettuato cambiamenti significativi nella sua leadership AI, sostituendo John Giannandrea con Mike Rockwell alla guida del progetto Siri. Rockwell, noto per il suo lavoro sul Vision Pro, ora riporta direttamente a Craig Federighi, indicando un nuovo approccio strategico per l’assistente vocale. La scelta riflette l’intenzione di rinfrescare la visione sul futuro dell’AI in Apple, puntando su un profilo più operativo e orientato all’integrazione con l’hardware.
Sviluppo di “LLM Siri”
L’azienda sta lavorando su una nuova versione di Siri basata su modelli linguistici di grandi dimensioni (LLM), denominata internamente “LLM Siri”. Questo progetto, in corso di sviluppo a Zurigo ma con uffici di verifica in tutto il mondo, mira a rendere Siri più conversazionale e capace di sintetizzare informazioni in modo efficace. L’obiettivo è trasformare Siri in un assistente in grado di sostenere dialoghi articolati, comprendere il contesto e interagire in modo più umano, colmando il divario con la concorrenza.
La Privacy Differenziale
Per migliorare l’addestramento dei suoi modelli AI senza compromettere la privacy degli utenti, Apple sta utilizzando dati sintetici generati attraverso tecniche di privacy differenziale, sfruttando i dispositivi degli utenti per creare dati di addestramento realistici ma anonimi. È un modo per conciliare la necessità di migliorare i modelli linguistici con i principi fondamentali dell’ecosistema Apple, evitando l’uso diretto dei dati personali.

Integrazione con ChatGPT e altri modelli AI
Apple ha integrato ChatGPT nel suo ecosistema, permettendo a Siri di inoltrare richieste complesse al modello GPT-4o di OpenAI. L’azienda sta anche esplorando collaborazioni con altri fornitori di AI per ampliare le capacità del suo assistente vocale. Questa apertura segna un cambio di rotta storico: Apple, tradizionalmente chiusa all’esterno, sta ora scegliendo di appoggiarsi a partner esterni per restare competitiva nel nuovo panorama dell’AI generativa.
Revisione dell’architettura di Siri
Il team AI di Apple a Zurigo sta sviluppando una nuova architettura per Siri, basata interamente su modelli LLM, con l’obiettivo di superare le limitazioni dell’attuale infrastruttura e migliorare l’integrazione delle nuove funzionalità AI. Il sistema mira a eliminare la storica divisione tra vecchio e nuovo codice, che ha ostacolato le performance di Siri, per offrire una base tecnica più solida e scalabile nei prossimi anni.
Focus su funzionalità AI pratiche
Apple sta concentrando i suoi sforzi su funzionalità AI pratiche e utili per gli utenti, come la gestione intelligente delle notifiche, la generazione di testi e immagini, e il supporto contestuale nelle app, per offrire un’esperienza utente migliorata. L’azienda punta così su strumenti concreti e immediati, capaci di semplificare la vita quotidiana degli utenti senza forzature o effetti speciali fine a sé stessi.

Separazione del brand “Apple Intelligence” da Siri
Per distanziare le nuove funzionalità AI dalle percezioni negative associate a Siri, Apple sta promuovendo “Apple Intelligence” come un’entità separata, focalizzandosi su strumenti AI avanzati indipendenti dall’assistente vocale. La nuova etichetta serve a dare l’idea di vera innovazione, svincolata dai limiti storici di un marchio, quello di Siri, che oggi rischia di evocare più frustrazione che fiducia.
Conclusione
La sensazione che si ricava, leggendo fino in fondo l’inchiesta di Bloomberg, è che il futuro e gli effetti di tutto questo siano ancora incerti. Apple ha messo in campo una rivoluzione, per alcuni versi andando anche contro il suo stesso DNA: il gigante si è bruscamente svegliato, ma dopo un sonno durato anni – che, nel campo di una tecnologia nascente come l’intelligenza artificiale, equivalgono a secoli – fatto di sottovalutazioni, rigidità strutturali e scelte conservative che hanno lasciato il campo libero ai concorrenti.
Del resto ad essere in gioco non è solo Siri, ma il futuro dell’intero ecosistema Apple. Visori, orologi, auricolari, forse un giorno anche robot: tutti i dispositivi su cui Apple punta per il domani dipenderanno da una AI capace di interpretare il mondo, anticipare bisogni, agire in modo intelligente. Senza una base solida in questo campo, anche il miglior hardware rischia di diventare inerte o inutile come prospettato da Eddie Cue.
C’è però chi sa che Apple non va mai sottovalutata, e che il tempo per recuperare c’è ancora. È Dag Kittlaus, che Siri l’ha fatta nascere, convinto che Apple abbia ancora le carte giuste in mano: «Hanno ancora il bottone, il brand, e se fanno un trapianto di cervello a Siri, hanno tutte le possibilità per tornare a essere l’assistente preferito dagli utenti».

















