Prima situazione: videochiamata in movimento, qualcuno entra nell’inquadratura, ci si sposta un po’ e il volto finisce tagliato. Seconda scena: scatto di gruppo con iPhone in modalità ritratto: tutti ammassati al centro e qualcuno resta fuori.
Con iPhone 17, in tutte le sue versioni, questo non accadrà più grazie alla nuova fotocamera frontale Center Stage, che introduce una funzione annunciata ieri sera che mantiene il soggetto al centro dell’immagine e adegua l’inquadratura quando cambiano distanza o numero di persone.
Il nuovo sensore quadrato
Apple ha finalizzato con essa un lavoro complesso che combina nuovo hardware, AI e software, e che prende spunto dall’esperienza maturata su iPad e Mac.
La novità hardware è il sensore della selfie-cam in formato quadrato, non il classico 4:3. Questo permette di catturare più area rispetto a quella effettivamente mostrata sullo schermo: il sistema sceglie in tempo reale quale porzione del sensore utilizzare per l’anteprima e per la registrazione, simulando un pan-tilt-zoom digitale.
Il risultato pratico è la capacità di iPhone passare automaticamente tra 4:3, 16:9 o quadrato, e possibilità di scattare landscape senza ruotare il telefono. La risoluzione massima dichiarata arriva a 18 megapixel, ovviamente si tratta di una risoluzione massima: come nella Center Stage di iPad, il ritaglio per cambiare formato riduce i pixel effettivi di output.

Il funzionamento software
L’hardware è gestito da AI e software: Center Stage rileva volti e figure, stabilisce un riquadro di interesse e lo segue con movimenti dell’inquadratura digitale.
Quando entrano nuove persone, allarga; quando si è da soli e ci si avvicina, stringe. Il comportamento è smorzato per evitare micro-aggiustamenti nervosi: il sistema preferisce poche correzioni, più cine che tremolanti, e tiene conto dei cambi di luce e delle priorità di messa a fuoco sul volto.
Come funziona
Parlando tecnicamente l’operazione è molto sofisticata. Il sensore quadrato esegue il read-out a pieno campo; l’ISP demosaicizza e riduce il rumore; un modulo di rilevamento individua volti e corpi e propone un riquadro candidato; un’unità di smoothing stabilizza il riquadro nel tempo; il renderer esegue il crop e l’eventuale zoom digitale nell’area utile conservando la prospettiva.
Su iPhone 17 l’elasticità del crop è più ampia perché c’è più margine ai lati grazie al sensore quadrato, ed è questo che rende credibile l’auto-framing senza ricorrere a lenti ultra-grandangolari che deformano i bordi.

Doppia ripresa sui modelli Pro
Su iPhone 17 Pro entra anche in gioco la doppia ripresa simultanea fronte-retro. In abbinamento al Center Stage anteriore, questo consente di registrare un vlog con reazione più scena senza setup extra: il telefono rifinisce l’inquadratura del volto mentre la fotocamera posteriore si occupa dell’azione. È una soluzione comoda per unboxing, demo dal vivo e contenuti parlati in mobilità.

Qualità e limiti
Il compromesso chiave, come accennato, risiede nel ritaglio. Finché l’inquadratura non deve stringere troppo, la definizione resta ottima; quando serve un crop spinto, aumenta la sensibilità al rumore in poca luce e si perde micro-dettaglio.
Converrà restare a distanza di un braccio, evitare controluce molto spinti e lasciare sempre un po’ di aria ai bordi della scena, così l’algoritmo ha spazio per lavorare. Con più persone, l’effetto tende a privilegiare il gruppo intero e non i primi piani strettissimi.
Per i creator è utile definire prima un punto di massima oltre il quale non conviene il crop: se ci si muove oltre, meglio fermarsi un passo più vicino per mantenere la nitidezza.
Supporto nelle app
Nelle app che supportano le funzioni di sistema, l’opzione Center Stage compare tra i controlli video. Si abilita, si verifica il riquadro nell’anteprima e si lascia fare al telefono.
Da notare che l’accesso alle peculiarità del sensore sarà a disposizione anche degli sviluppatori. AVFoundation espone proprietà come isCenterStageSupported, isCenterStageEnabled e isCenterStageActive, e un controllo di modalità che armonizza la richiesta dell’utente con lo stato dell’applicazione.
In pratica, le app compatibili non devono riscrivere l’algoritmo: possono chiedere a iOS di occuparsi dell’inquadratura intelligente e concentrarsi su interfaccia e qualità del flusso.











