Con il nuovo iPhone messaggi e comandi si impartiranno con la voce?

di |
logomacitynet696wide

Grazie alle potenti funzioni integrate nel nuovo iPhone per il riconoscimento vocale gli utenti potranno parlare allo smartphone per dettare email e messaggi di testo, effettuare ricerche su Google Maps, creare appuntamenti e promemoria utilizzando la propria voce. Secondo quanto svela il sito 9to5Mac la novità più importante di iPhone 5 sarà costituita proprio dall’integrazione delle funzioni Siri Assistant con il riconoscimento vocale di Nuance.

Il nuovo iPhone integrerà il processore Apple A5 dual core e forse il doppio della memoria RAM, 1GB invece di 512MB, ma la funzione più importante del nuovo smartphone in arrivo a ottobre potrebbe essere una riuscita combinazione delle funzioni Siri Assistant unite con il riconoscimento vocale avanzato fornito da Nuance. E’ questo quanto si apprende da una nuova anticipazione del sito 9to5Mac che ovviamente non fornisce dettagli sulle proprie fonti ma che accenna a possibili fughe di notizie da alcuni operatori di telefonia presso cui il nuovo iPhone sarebbe stato lungamente testato.

Le funzioni offerte dall’Assistant originariamente sviluppato da Siri, sviluppatore acquisito diversi mesi fa da Cupertino, abbinate alle tecnologie di riconoscimento del parlato di cui Nuace è titolare, sono state parzialmente anticipate ma in maniera piuttosto frammentaria nelle passate settimane quando sono emerse voci su trattative in corso con la società specializzata in riconoscimento vocale e che produce da anni il software Dragon Naturally Speaking per PC. Nuance, secondo le voci non solo da quest’anno sviluppa Dragon Dictate per Mac, ma vrebbe concesso in licenza il suo codice da utilizzare abbinato alle tecnlogie Siri per trasformare iPhone in un segretario personale in grado di capire e interpretare in modo intelligente i comandi espressi a voce dall’utente. Per fare cosa e come farlo lo spiega (o spiegherebbe), appunto, 9to5Mac.

In pratica con il nuovo iPhone l’utente potrà per esempio dettare a voce il testo di un SMS, di una mail o di un messaggio per essere spedito con il nuovo software iMessage di Apple, mentre iPhone si farà carico dell’interpretazione del parlato, della trascrizione del testo e infine dell’invio. Le funzioni descritte vanno comunque ben oltre: l’utente potrà per esempio pronunciare il comando “Imposta (o crea) un appuntamento con Andrea” in questo caso iPhone interpreterà il comando, creare un appuntamento sul calendario e potrà porre ulteriori domande per precisare le azioni desiderate dall’utente. Per esempio iPhone potrebbe richiedere “A quale indirizzo email notificare Andrea, lavoro o personale?”: rispondendo l’utente completa l’ordine e iPhone effettua tutto inviando una mail in automatico: l’appuntamento viene registrato come una nuova attività/impegno in calendario.

Il riconoscimento vocale integrato nel sistema operativo potrà essere utilizzato estesamente: oltre alla dettatura di messaggi che vengono trascritti e inviati, sarà possibile chiedere “Dov’è Andrea?” in questo caso iPhone sfrutterà la nuova funzione Find My Friends per determinare la posizione del nostro amico e mostrandola sulla mappa. Secondo le rivelazioni delle persone che avrebbero avuto accesso ai nuovi iPhone prototipo il riconoscimento del parlato risulterebbe addirittura impressionante: l’utente non sarebbe infatti costretto a parlare piano utilizzando un numero limitato di vocaboli ma ha la sensazione di parlare e lavorare con un essere umano, un vero e proprio assistente personale. Il riconoscimento del parlato potrà essere utilizzato anche con il motore di ricerca evoluto Wolfram Alpha in grado di offrire risposte complete e complesse ai problemi enunciati dall’utente: sarà così possibile chiedere la soluzione di una operazione o di richiedere a voce la conversioni in metri in piedi e viceversa. Oltre al riconoscimento del parlato la tecnologia Nuance funziona anche al contrario ovviamente: quando l’utente è impossibilitato a leggere lo schermo di iPhone, lo smartphone è in grado di leggere con sintesi vocale avanzata il testo di email e messaggi.

Seppur circostanziata e corredata da numerosi dettagli ed esempi l’integrazione Siri Assistant con il riconoscimento vocale di Nuance è in questo momento una indiscrezione. Da tempo, come accennato, gli sviluppatori hanno individuato tracce della possibile integrazione dei comandi parlati in iPhone ma occorre tenere presente che Apple potrebbe decidere fino all’ultimo momento per un posticipo. Da come viene descritta e per le funzioni possibili sembra che Apple sia riuscita a creare una funzione completamente nuova a partire da due tecnologie esistenti: il riconoscimento del parlato e la sintesi vocale con le funzioni di assistente personale di Siri, per fornire all’utente una serie di comandi e funzioni fino a oggi non disponibili né offerte da altri costruttori o sviluppatori.

Sembra che per sfruttare queste funzioni avanzate sarà necessario il processore Apple A5 dual core e anche la memoria di 1GB di sistema, escludendo così da questa importante feature gli iPhone 4 e anche gli iPad 2 esistenti che montano il processore Apple A4 a singolo core e 512MB di RAM. Non ci sono invece precisazioni su quello che sarà l’aspetto finale del nuovo iPhone: sembra che chi ha visto e provato le nuove funzioni abbia per lo più avuto a che fare con iPhone identici per design ed estetica all’attuale iPhone 4, in ogni caso Cupertino potrebbe volutamente aver integrato l’hardware del nuovo modello nello chassis di iPhone 4 per confondere le tracce e le fughe di notizie. Per avere la risposta a tutte queste domande e una conferma sull’integrazione delle funzioni di assistente personale avanzato sembra dovremo attendere ancora solamente pochi giorni.