Questo sito contiene link di affiliazione per cui può essere compensato

Home » Hi-Tech » Curiosità » Siri, Cortana: per qualcuno sono persone reali

Siri, Cortana: per qualcuno sono persone reali

Her (Lei, in italiano), il film vincitore dell’Oscar per la sceneggiatura in cui si raccontava una sorta di relazione d’amore tra un uomo e Samantha, un’assistente virtuale di un sistema operativo, non sembra essere solo fantasia. La complessa vicenda in cui viveva Joaquim Phoenix, nei panni di Theodore Twombly, sembra infatti essere la quotidianità per molti, come si legge in HotHardware

Alzi la mano chi, dal 2011, con l’arrivo su iOS di Siri – l’assistente virtuale che aiuta l’utente rispondendo a comandi vocali – non ha provato per divertimento, a fare domande bizzarre al sistema, a volte richieste sciocche, altre volte semplicemente spiritose. In realtà non manca chi prende molto seriamente questa relazione portandola al prossimo livello, cancellando più o meno consciamente, la percezione di essere di fronte ad un sistema informatico e innescando un processo psicologico, con risvolti che qualcuno non esisterebbe a far sconfinare nello psichiatrico. Il percorso compiuto proprio da Twombly.

Deborah Harrison, una sviluppatrice che si è occupata dell’intelligenza artificiale di Cortana, spiega, infatti, che nel corso del processo di apprendimento dell’assistente virtuale di Microsoft, uno dei primi problemi cui ha dovuto fare fronte, è stato il numero delle domande a sfondo sessuale. È stato così studiato un percorso specifico, alla luce del fatto che in molti casi il rapporto con il sistema da parte di persone psicologicamente fragili diventa meno virtuale e in qualche modo reale.

Per quanto sorprendente, varie aziende che si occupano dell’intelligenza artificiale dietro questi assistenti hanno scoperto che molte persone tentano di approcciarsi a queste come se si trattasse di donne reali. Ai bot dell’assistente x.ai, ad esempio, qualcuno ha provato a mandare regali, fiori e bottiglie di whiskey, alcuni hanno provato a invitare l’assistente virtuale a uscire insieme. Per quanto assurdo possa sembrare, pare ci siano richieste di assistenti virtuali più tagliate per “l’intimità”, “sottomesse” e in grado di comprendere sfumature sessuali nel linguaggio.

Ma anche quando non c’è un problema (perché è evidente che di questo si tratta), si è scoperto che persone diverse hanno modalità differenti di interagire con bot (programmi autonomi che comunicano con altre persone) e assistenti digitali. Alcuni vogliono risposte che siano più succinte possibili, altri vogliono invece parlare, confessarsi e non mancano di essere scortesi e maleducati. Tutto questo deve essere messo nel conto da chi programma gli assistenti che devono essere in grado di non accondiscendere a situazioni che potrebbero trascendere e diventare molto problematiche, non per la vita virtuale, ma quella reale.

Cortana, spiegano gli sviluppatori, è stata così sviluppata per non essere sempre servile e sottomessa; se viene insultata, non si scusa e non si tira indietro: gestisce insomma con tatto le richieste tentando di dissuadere l’interlocutore a proseguire con ulteriori maltrattamenti.  Di fatto si propone una finalità pedagogica per limitare i rischi per l’utente.

Il fenomeno per qualche aspetto è chiaramente ridicolo, ma per qualche altro aspetto spinge a riflettere sul perché molte persone schivano le relazioni con le persone reali in una società che spesso teme la nascita di legami reali e profondi, sfociando in equilibri instabili e distorti.

Parallels Desktop 11 Win10 Yosemite_cortana

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Top offerte Apple su Amazon

Apple sconta il MacBook Air M2 al minimo Amazon, solo 1099€

Apple lancia il MacBook Air M3 e abbassa il prezzo del MacBook Air M2, ma su Amazon il modello precedente è già scontato di 150 euro. Lo pagate solo 1099 €.

Ultimi articoli

Pubblicità