Nel mondo della tecnologia indossabile, gli occhiali smart stanno diventando il nuovo terreno di battaglia. Meta è già alla sua seconda generazione (e punta alla terza) di Ray-Ban con funzioni AI integrate, mentre Google e Samsung si muovono con la nuova piattaforma Android XR pronta a supportare l’assistente Gemini.
Sappiamo da tempo che anche Apple vuole dire la sua in questo campo, ma solo ora emerge un elemento cruciale: la finestra di lancio fissata per fine 2026. A rivelarlo è Bloomberg, che conferma come Cupertino stia mettendo gran parte delle sue risorse su questo progetto, facendo confluire competenze hardware, software e AI in un unico dispositivo.
Come i Ray-Ban Meta
Il progetto ha nome in codice N401, uno dei pallini di Tim Cook, e si concretizzerà in una prima versione di occhiali intelligenti senza display, pensati per essere controllati con la voce grazie a Siri.
L’idea è quella di offrire una nuova dimensione rispetto ad uno smartphone con funzioni come telefonate, musica, traduzioni in tempo reale e indicazioni vocali, sulla scia dei Ray-Ban Meta, ma con quel livello di integrazione software-hardware su cui Apple viene ritenuta imbattibile.
Il dispositivo sarà dotato di microfoni, fotocamere e speaker, e dietro il suo sviluppo c’è il Vision Products Group, il team che ha già lavorato al Vision Pro. Apple conta di avviare la produzione di prototipi in grandi volumi entro la fine del 2025, così da arrivare puntuale al lancio l’anno successivo.
Una componente strategica del progetto sarà un nuovo chip fvociprogettato su misura per elaborare richieste AI in tempo reale. Come abbiamo già scritto il chip progettato per gli “Apple Glasses” è basato su quelli usati su Apple Watch; questi SoC richiedono meno energia rispetto a chip sfruttati su iPhone e Apple avrebbe già predisposto ottimizzazioni per migliorare l’efficienza energetica.
L’AI è il cuore
Il successo di questi occhiali dipenderà in larga parte dalla qualità dell’esperienza AI. Qui, però, Apple parte svantaggiata. I Ray-Ban Meta sfruttano già l’AI generativa Llama per descrivere ambienti, leggere testi, riconoscere oggetti e conversare. Google ha pronto il suo assistente Gemini, pensato nativamente per l’interazione vocale e visiva.
Apple, invece, si appoggia ancora a Google Lens e OpenAI per la sua funzione di analisi visiva su iPhone. E anche la piattaforma Apple Intelligence, non ha ancora dimostrato nessun vantaggio competitivo.
Secondo Bloomberg, l’azienda sta valutando di aprire i propri modelli linguistici agli sviluppatori per creare un ecosistema di app AI da collegare a Siri e ai dispositivi futuri. Ma c’è poco tempo: per arrivare al 2026 – e non al 2027 come inizialmente previsto – servirà un cambio di passo su ogni fronte.
Ive, Altman e lo spettro dell’obsolescenza
In parallelo, un altro progetto rischia di complicare le cose: quello guidato da Sam Altman e dall’ex designer Apple Jonathan Ive, che punta a lanciare un dispositivo AI indossabile già nel 2026.
Non è ancora chiaro se sarà un accessorio, un wearable o qualcosa di completamente nuovo, ma l’ambizione è quella di rivoluzionare il rapporto con la tecnologia personale. E se dovesse riuscirci, c’è il rischio che il primo occhiale smart di Apple nasca già con un passo indietro.












