L’app per i video di Sora – l’IA di OpenAI in grado di produrre filmati realistici e suggestivi partendo da una richiesta testuale – non consentirà più la creazione di filmati con celebrità o voci di persone famose, senza il consenso di queste ultime.
La decisione è stata presa dopo polemiche nate nelle ultime settimane. OpenAI, SAG-AFTRA (sindacato che rappresenta migliaia di professionisti dei media e dello spettacolo), l’attore Bryan Cranston (noto per la serie televisiva Breaking Bad), la United Talent Agency (UTA), Creative Artists Agency (CAA) e la Association of Talent Agents (ATA) hanno diramato un comunicato nel quale parlano di “produttiva collaborazione” con l’obiettivo di definire standard condivisi per la gestione del consenso e la tutela dei diritti d’immagine.
Cranston ha sollevato preoccupazioni dopo che sono iniziati a circolare video deepfake di utenti che mostravano quello che sembrava l’attore, filmati (con tanto di voce simulata dell’attore) fatti circolare senza il suo consenso e la sua autorizzazione. Simili lamentele sono arrivate dalle famiglie di Robin Williams, George Carlin e Martin Luther King Jr.
Le organizzazioni prima citate hanno più volte criticato l’uso di materiale protetto senza autorizzazione, evidenziando i rischi concreti per i propri assistiti.

Innalzamento delle barriere protettive
Sam Altman, il CEO di OpenAI, Sam Altman, si è impegnato per fare in modo che l’azienda da lui guidata impedisca “l’appropriazione indebita della voce e dell’immagine dei performer”, affermando che OpenAI è stata una delle prime a sostenere il NO FAKES Act, proposta di legge federale che mira a creare uno standard nazionale per impedire la riproduzione digitale non autorizzata di persone reali, con attenzione particolare riguardo artisti e personaggi pubblici.
OpenAI aveva già predisposto policy di tipo “opt-in” che permettono l’uso della voce e dell’immagine di una persona in vita solo previo consenso ma alcuni utenti sono evidentemente riusciti a generare video con le fattezze di Cranston, mostrando falle nel sistema di verifica. Sono state ora innalzate le “barriere di sicurezza”, meccanismi che dovrebbero impedire qualsiasi replica di volti e voci senza consenso esplicito.
Per tutti gli articoli sull’Intelligenza Artificiale rimandiamo alla sezione dedicata di macitynet.
![iGuide per i regali di Natale - macitynet..ti CTA Natale iGuida [per Settimio] - macitynet.it](https://www.macitynet.it/wp-content/uploads/2025/12/regali-di-natale-consigli-di-macitynet.jpg)











