C’è qualcosa di profondamente cinematografico nella strategia di Apple. Alla WWDC 2025, mentre tutti gli occhi erano puntati su Cupertino in attesa delle rivelazioni sull’intelligenza artificiale, l’azienda guidata da Tim Cook ha mostrato tutto il suo imbarazzante ritardo rispetto alla concorrenza. Google con Gemini, OpenAI con i suoi GPT sempre più sofisticati, Microsoft con Copilot: tutti sembrano aver lasciato Apple al palo nella corsa verso l’AI. Ma quello che appariva come un fallimento strategico nasconde in realtà una mossa ben più sottile. La vera bomba non stava nei prodotti presentati sul palco, bensì nei laboratori di ricerca dell’azienda, dove i ricercatori stavano preparando una delle critiche più devastanti mai rivolte all’intera architettura dell’intelligenza artificiale moderna.
Pochi giorni prima della presentazione californiana, il Machine Learning Research lab di Apple ha pubblicato uno studio che ha fatto tremare le fondamenta del settore. La ricerca, condotta su 12 modelli AI leader di mercato tra cui OpenAI o3-mini, Claude 3.7 Sonnet e DeepSeek R1, non si limita a evidenziare qualche problema tecnico marginale. Attraverso una metodologia rigorosa basata su puzzle logici controllabili, i ricercatori di Cupertino hanno smascherato quella che definiscono “la grande illusione del ragionamento” negli LLM. L’approccio è stato come un bombardamento chirurgico: invece di affidarsi a valutazioni soggettive o benchmark preconfezionati, Apple ha costruito un sistema di test che permette di isolare e misurare con precisione le capacità logiche dei modelli. Bombe intelligenti mirate ai singoli modelli LLM per sfondare le illusioni e toccarne il nocciolo, la sostanza. Il risultato è una demolizione scientifica che non lascia scampo. Se in tutto questo non c’era malizia se non altro nella tempistica, vuol dire che viviamo ancora nel giardino dell’Eden e siamo tutti puri come il Candido di Voltaire.
La maschera che cade
I quattro paradossi identificati dallo studio Apple sono altrettanti colpi inferti all’idea che gli attuali modelli possiedano una vera capacità di ragionamento. Il primo paradosso, quello dell’inversione prestazionale, è particolarmente emblematico: i modelli standard superano quelli specificamente “migliorati nel ragionamento” nei problemi semplici, mentre entrambi collassano completamente di fronte alla complessità elevata. Detta in termini semplici, alla portata di tutti, con una analogia comprensibile: è come se un atleta olimpico perdesse contro un dilettante nella corsa dei 100 metri. Poi dilettante e atleta vanno a fare la maratona e, sorpresa, questa volta vengono battuti tutti e due, ma da un bambino di dieci anni. Non sono cose che capitano.
L’instabilità logica rappresenta il secondo paradosso: modelli capaci di risolvere problemi da oltre 100 passaggi falliscono miseramente in sfide analoghe da appena 11 passaggi. Questa incoerenza non è casuale ma strutturale, e rivela l’assenza di quella che Apple definisce “consapevolezza procedurale”.
Il terzo paradosso riguarda la natura stessa del funzionamento degli LLM: l’87% degli errori deriva dall’incapacità di eseguire operazioni logiche di base, non da strategie sbagliate. In altre parole, i modelli non sbagliano perché scelgono l’approccio sbagliato al problema, ma perché non riescono ad applicare in modo coerente operatori booleani elementari. È la differenza tra un matematico che commette un errore di calcolo e uno che non sa cosa significhi fare un’addizione.
È umiliante non tanto per gli LLM, perché sono degli algoritmi e non c’è niente che possa provare umiliazione. Invece, è umiliante per tutti i supporter, i venditori di snake oil e tutto quel caravanserraglio di imbonitori e truffatori che si aggirano alla ricerca di soldi altrui, peraltro forniti con copiosa abbondanza da persone tutt’altro che innocenti: speculatori della peggior risma che cercano un nuovo schema piramidale per arricchirsi ancora di più.
Ma se pensate che sia finita qua, vi sbagliate. C’è ancora il quarto paradosso, che svela una contraddizione ancora più profonda: contrariamente al comportamento umano, le AI dedicano più risorse computazionali ai problemi semplici e meno a quelli complessi. È un’architettura decisionale rovesciata che tradisce la natura statistica, piuttosto che logica, del loro funzionamento. Insomma, chi aveva detto che si tratta di pappagalli stocastici aveva sostanzialmente ragione.
Infatti, quello che emerge dallo studio Apple non è un semplice elenco di bug da correggere, ma una critica radicale all’intera filosofia che guida lo sviluppo dell’intelligenza artificiale contemporanea. I modelli attuali non ragionano: riconoscono pattern. Non deducono: imitano. Non comprendono: associano statisticamente. La fragilità contestuale documentata dai ricercatori di Cupertino mostra come piccole variazioni nella formulazione dei problemi portino a gap del 41% nell’accuratezza, anche quando il compito logico rimane identico. È la prova che questi sistemi mancano di quella che potremmo chiamare “comprensione profonda”, limitandosi a una sofisticata forma di matching statistico.
L’AGI nel mirino
Fin qui, la bomba. Adesso segue la devastazione indiretta. Le implicazioni per la corsa all’Intelligenza Artificiale Generale sono infatti immani e devastanti. Mentre leader del settore come Demis Hassabis di DeepMind prevedono il raggiungimento dell’AGI entro 5-10 anni, la ricerca Apple dimostra che gli attuali approcci basati sul puro scaling di parametri e dati non supereranno mai le barriere fondamentali identificate. Il problema non è quantitativo ma qualitativo: non si tratta di aggiungere più neuroni artificiali o più terabyte di addestramento, ma di ripensare completamente l’architettura dell’intelligenza artificiale. L’AGI richiede capacità di ragionamento autentico, generalizzazione forte e autoconsapevolezza procedurale: tutte caratteristiche assenti negli LLM attuali. Apple non si limita a criticare, ma propone una direzione alternativa verso modelli ibridi neurosimbolici che integrino motori di inferenza formale, memorie strutturate a grafo e meccanismi di verifica interna.
La soluzione suggerita dai ricercatori di Cupertino rappresenta un cambio di paradigma radicale. Invece di puntare tutto sulla potenza bruta computazionale, i modelli ibridi neurosimbolici combinano l’apprendimento dai dati tipico delle reti neurali con la logica formale dei sistemi simbolici tradizionali. È un approccio che promette di superare la fragilità e l’incoerenza degli LLM attuali, offrendo al contempo maggiore interpretabilità e minori requisiti di dati per l’addestramento. Soprattutto, questi modelli potrebbero finalmente possedere quella “comprensione meccanicistica del ragionamento” che Apple considera indispensabile per qualsiasi progresso autentico verso l’AGI. La differenza è sostanziale: mentre gli LLM attuali simulano il ragionamento, i modelli neurosimbolici potrebbero effettivamente ragionare.
Il contrattacco di Cupertino
La tempistica della pubblicazione di questa ricerca non è e non può essere casuale. Apple ha trasformato il suo evidente ritardo tecnologico in una posizione di vantaggio intellettuale, assumendo il ruolo del critico autorevole che smonta le illusioni altrui mentre tutti corrono verso traguardi sbagliati. È una mossa da maestro delle arti marziali: invece di inseguire affannosamente Google e OpenAI sui loro terreni, Apple ha spostato il dibattito su un piano diverso, quello della validità scientifica e della sostenibilità a lungo termine degli approcci attuali. La strategia, se volete, ricorda quella adottata con il primo iPhone: mentre tutti si concentravano su tastiere fisiche e stylus, Apple ridefinì completamente il concetto di smartphone. Oggi, mentre tutti investono miliardi negli LLM sempre più grandi, Apple suggerisce che stiano costruendo castelli di sabbia.
L’impatto di questa ricerca va ben oltre i confini accademici. Le scoperte di Apple mettono in discussione gli investimenti miliardari di aziende che hanno scommesso tutto sul scaling degli LLM, forzando una riflessione critica sulle strategie industriali del settore. Il messaggio è chiaro: la corsa alla potenza computazionale non porterà all’AGI, ma solo a sistemi sempre più costosi e altrettanto fragili. È un richiamo alla realtà che arriva proprio quando l’hype attorno all’intelligenza artificiale aveva raggiunto livelli pericolosamente elevati. Apple, da outsider tecnologico, si è trasformata in kingmaker del dibattito scientifico, dimostrando che a volte il vero potere non sta nel guidare la corsa, ma nel questionarne la direzione.
La lezione di Cupertino è cristallina: nell’era dell’intelligenza artificiale, la leadership non si misura solo in termini di prodotti rilasciati o modelli addestrati, ma anche nella capacità di porre le domande giuste e di sfidare i paradigmi dominanti. Apple ha dimostrato che il ritardo può trasformarsi in saggezza, e che a volte la mossa vincente consiste nel non giocare affatto la partita degli altri. Mentre i competitor si affannano a costruire LLM sempre più grandi, Cupertino ha scelto di demolire le fondamenta stesse di quell’approccio. È la vendetta perfetta di chi è arrivato ultimo ma ha capito per primo che tutti stavano correndo nella direzione sbagliata.
Dove trovare tutte le notizie sull’intelligenza artificiale
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di Macitynet.












