Sto caricando altre schede...

Questo sito contiene link di affiliazione per cui può essere compensato

Home » Hi-Tech » Curiosità » Ai che clona la voce fa dire cose terribili alle celebrità

Ai che clona la voce fa dire cose terribili alle celebrità

Pubblicità

Pochi giorni fa, la startup AI ElevenLabs ha rilasciato una versione beta della sua piattaforma di intelligenza artificiale Ai che permette agli utenti di creare voci sintetiche completamente nuove per il text-to-speech o di clonare la voce di qualcuno.

Ovviamente, il mondo di internet ha impiegato solo pochi giorni per iniziare a sfruttare questo strumento per scopi tutt’altro che apprezzabili. La società ha rivelato su Twitter che sta assistendo a un “numero crescente di casi di uso improprio di clonazione vocale” e che sta pensando a un modo per affrontare il problema “attuando ulteriori salvaguardie”.

Mentre ElevenLabs non ha spiegato esattamente cosa intendesse dire per “casi di uso improprio”, Motherboard ha scovato diversi post con clip di voci generate che emulano celebrità che leggono o dicono qualcosa di discutibile, in alcuni casi contenuti irripetibili.

In una clip, ad esempio, si sente una voce che richiama quella di Emma Watson intenta a leggere una parte di Mein Kampf. Gli utenti hanno anche pubblicato clip vocali con insulti e sentimenti omofobi, transfobi, violenti e razzisti. Non è del tutto chiaro se tutte le clip riscontrate facciano utilizzo della tecnologia di ElevenLab, ma diversi post includevano link alla piattaforma della startup.

Ai che clona la voce fa dire cose terribili alle celebrità

La comparsa di clip audio deepfake, quindi falsi realistici creati con l’ausilio di Ai, non dovrebbe sorprendere, visto che qualche anno fa si era già assistito a un fenomeno simile. I progressi nell’intelligenza artificiale e nell’apprendimento automatico hanno portato a un aumento dei video deepfake, in particolare della pornografia deepfake, in cui i materiali pornografici esistenti vengono modificati per utilizzare i volti delle celebrità. Anche in quel caso fu presa di mira proprio l’attrice Emma Watson, tra le altre.

ElevenLabs sta ora raccogliendo feedback su come impedire agli utenti di abusare della sua tecnologia Ai che clona la voce. Al momento, l’idea è quella ricombattere gli abusi aggiungendo più livelli alla verifica account, ad esempio richiedendo agli utenti di inserire informazioni di pagamento o un ID. Si sta anche valutando di far verificare agli utenti la proprietà del copyright della voce che vogliono clonare, ad esempio facendogli inviare un campione con un particolare testo richiesto.

Infine, l’azienda sta pensando di abbandonare del tutto il suo strumento Voice Lab e di far sì che gli utenti inviino richieste di clonazione vocale da verificare manualmente. Anche Microsoft VALL-E è un sistema Ai in grado di imitare la voce di chiunque, questo dopo averne ascoltato un campione di solamente 3 secondi, ma non è disponibile per il pubblico.

Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Offerte Speciali

Nuovo Apple Watch SE già in forte sconto su Amazon

Minimo Apple Watch SE Cellular 44mm, solo 249€

Su Amazon Apple Watch SE torna al minimo storico. Ribasso di 70€ per la versione Cellular da 44mm, prezzo di solo 249 €
Pubblicità

Ultimi articoli

Pubblicità